JP7139270B2 - Estimation device, estimation method and estimation program - Google Patents
Estimation device, estimation method and estimation program Download PDFInfo
- Publication number
- JP7139270B2 JP7139270B2 JP2019050413A JP2019050413A JP7139270B2 JP 7139270 B2 JP7139270 B2 JP 7139270B2 JP 2019050413 A JP2019050413 A JP 2019050413A JP 2019050413 A JP2019050413 A JP 2019050413A JP 7139270 B2 JP7139270 B2 JP 7139270B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- emotion
- series
- actions
- predetermined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 36
- 230000008451 emotion Effects 0.000 claims description 268
- 230000009471 action Effects 0.000 claims description 173
- 230000006399 behavior Effects 0.000 claims description 114
- 230000001364 causal effect Effects 0.000 claims description 61
- 238000005516 engineering process Methods 0.000 claims description 5
- 230000000875 corresponding effect Effects 0.000 description 23
- 230000008569 process Effects 0.000 description 14
- 238000013500 data storage Methods 0.000 description 12
- 238000012706 support-vector machine Methods 0.000 description 12
- 238000012545 processing Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 230000003542 behavioural effect Effects 0.000 description 9
- 238000011156 evaluation Methods 0.000 description 7
- 230000010365 information processing Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000006461 physiological response Effects 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 230000036760 body temperature Effects 0.000 description 4
- 230000011514 reflex Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000013145 classification model Methods 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 206010024264 Lethargy Diseases 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本発明は、推定装置、推定方法及び推定プログラムに関する。 The present invention relates to an estimating device, an estimating method, and an estimating program.
近年、利用者の感情に応じた評価を行う技術が知られている。このような情報配信の一例として、利用者の生体情報から感情を推定し、推定した感情に基づいて製品の評価や利用者が閲覧したコンテンツの評価を行う技術が知られている。 In recent years, techniques for performing evaluation according to user's emotions have been known. As an example of such information distribution, there is known a technique of estimating a user's emotion from biometric information and evaluating a product or content viewed by the user based on the estimated emotion.
しかしながら、上述した従来技術では、利用者の感情を適切に推定しているとは言えない場合がある。 However, it may not be possible to say that the user's emotion is properly estimated by the conventional technology described above.
例えば、利用者の感情は、瞬間的な生体情報と対応する感情に基づいて評価を行うにすぎないので、例えば、生体情報がある感情を示していたとしても、利用者は、既に異なる感情を有している、若しくは、まだ生体情報が示す感情を有していない場合が考えられる。この結果、瞬間的な生体情報と対応する感情を推定した場合は、利用者の感情を適切に推定できない恐れがある。 For example, the user's emotion is only evaluated based on the momentary biometric information and the corresponding emotion. It is conceivable that the person may have the emotion indicated by the biometric information, or may not yet have the emotion indicated by the biometric information. As a result, when estimating instantaneous biological information and corresponding emotions, there is a risk that the user's emotions cannot be estimated appropriately.
本願は、上記に鑑みてなされたものであって、利用者の感情を適切に推定することを目的とする。 This application was made in view of the above, and an object of this application is to estimate a user's emotion appropriately.
本願に係る推定装置は、所定の利用者の行動を示す行動情報を取得する取得部と、前記取得部により取得された行動情報に基づいて、前記所定の利用者による一連の行動と因果関係を有する感情を推定する推定部とを有することを特徴とする。 An estimating device according to the present application includes an acquisition unit that acquires behavior information indicating behavior of a predetermined user, and based on the behavior information acquired by the acquisition unit, determines a series of behaviors and a causal relationship of the predetermined user. and an estimating unit for estimating the emotion.
実施形態の一態様によれば、利用者の感情を適切に推定することができるという効果を奏する。 According to one aspect of the embodiment, it is possible to appropriately estimate the user's emotion.
以下に、本願に係る推定装置、推定方法及び推定プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る推定装置、推定方法及び推定プログラムが限定されるものではない。また、各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略する。 Embodiments for implementing the estimation device, estimation method, and estimation program according to the present application (hereinafter referred to as "embodiments") will be described in detail below with reference to the drawings. Note that the estimation device, estimation method, and estimation program according to the present application are not limited by this embodiment. Further, each embodiment can be appropriately combined within a range that does not contradict the processing contents. Further, in each of the following embodiments, the same parts are denoted by the same reference numerals, and overlapping descriptions are omitted.
〔1.ネットワークシステムの構成〕
まず、図1を参照して、実施形態に係るネットワークシステム1の構成について説明する。図1は、実施形態に係るネットワークシステム1の構成例を示す図である。
[1. Network system configuration]
First, the configuration of a
図1に示すように、実施形態に係るネットワークシステム1には、ユーザ装置101~10nと、推定装置100とが含まれる(nは任意の自然数)。本明細書では、ユーザ装置101~10nを区別する必要がない場合は、ユーザ装置101~10nを「ユーザ装置10」と総称する。ユーザ装置10および推定装置100は、それぞれネットワークNと有線又は無線により接続される。図1中では図示していないが、ネットワークシステム1は、複数台の推定装置100を含んでもよい。
As shown in FIG. 1, a
ユーザ装置10は、ユーザによって利用される情報処理装置である。ユーザ装置10は、デスクトップ型PC(Personal Computer)、ノート型PC、スマートフォン、タブレット型PCを含む、任意のタイプの情報処理装置であってもよい。 The user device 10 is an information processing device used by a user. The user device 10 may be any type of information processing device including a desktop PC (Personal Computer), a notebook PC, a smart phone, and a tablet PC.
推定装置100は、ユーザの感情を推定する情報処理装置である。推定装置100は、ネットワークNを介して、有線又は無線によりユーザ装置10と通信を行う。
〔2.推定処理〕
次に、図2を参照して、実施形態に係る推定処理の一例について説明する。図2は、実施形態に係る推定処理の一例を示す図である。
[2. Estimation process]
Next, an example of estimation processing according to the embodiment will be described with reference to FIG. FIG. 2 is a diagram illustrating an example of estimation processing according to the embodiment.
従来、ネットワーク上のサービスを評価するための様々な評価指標が提案されている。例えば、CTR(Click Through Rate)、PV(Page Views)等の評価指標が提案されている。CTR、PV等の評価指標は、明確に定義されているため、サービス提供者は、このような評価指標を用いて、ネットワーク上のサービスの内容を、客観的な数値で評価することができる。 Conventionally, various evaluation indices have been proposed for evaluating services on networks. For example, evaluation indexes such as CTR (Click Through Rate) and PV (Page Views) have been proposed. Since evaluation indices such as CTR and PV are clearly defined, service providers can use such evaluation indices to objectively evaluate the content of services on the network.
一方、近年、「感情」といった比較的明確に定義されていないものも、ネットワーク上のサービスを評価するための評価指標として提案されている。感情は、幸福、嫌悪等の主観的な意識体験であると考えられる。ネットワークを利用するユーザの感情は、例えば、センサデータ(例えば、ユーザに生じた生理的な反応)、テキストデータ(例えば、ユーザによって書かれた文章)、音声データ(例えば、ユーザの発話)、画像データ(例えば、ユーザの表情)等のデータから推定される場合がある。 On the other hand, in recent years, something relatively undefined such as "emotion" has also been proposed as an evaluation index for evaluating services on networks. Emotions can be thought of as subjective conscious experiences such as happiness and disgust. Emotions of users using the network are, for example, sensor data (e.g., physiological reactions occurring in the user), text data (e.g., sentences written by the user), voice data (e.g., user's utterances), images, and so on. It may be estimated from data such as data (eg, user's facial expression).
上述の感情推定に関しては、一般的に、ユーザの感情は、「各瞬間」におけるデータから推定される。 With respect to emotion estimation above, generally the user's emotion is estimated from the data at "moments".
例えば、ユーザの感情を示すフラグが、ある時刻におけるセンサデータに、正解ラベルとして付与される。例えば、ある感情(例えば、「幸福」)が、ある時刻における生理的な反応(例えば、心拍数、体温)に関連付けられる。また、例えば、別の感情(例えば、「嫌悪」)が、別の時刻における生理的な反応に関連付けられる。このような場合、センサデータと正解ラベルとを含む学習データを用いて機械学習を行うことにより、ユーザの感情を推定するモデルが生成される。あるターゲットユーザの心拍数や体温を示すセンサデータが、生成されたモデルに入力された場合に、生成されたモデルは、このターゲットユーザの感情を示すデータ(例えば、ユーザの感情が「幸福」である確率)を出力することができる。 For example, a flag indicating the user's emotion is attached as a correct label to sensor data at a certain time. For example, an emotion (eg, "happiness") is associated with a physiological response (eg, heart rate, body temperature) at a certain time. Also, for example, other emotions (eg, "disgust") are associated with physiological responses at other times. In such a case, a model for estimating the user's emotion is generated by performing machine learning using learning data including sensor data and correct labels. When sensor data indicating a certain target user's heart rate and body temperature is input to the generated model, the generated model will receive data indicating this target user's emotion (for example, the user's emotion is "happiness"). probability) can be output.
言い換えると、一般的に、ユーザの感情を推定するモデルを生成するために、ある瞬間における感情を示すデータが作成される。すなわち、このようなデータは、ユーザの感情のスナップショットである、と考えられる。一般的に、ユーザの感情を推定するモデルは、このような感情のスナップショットに基づいて生成される。 In other words, data indicative of emotions at a given moment are generally created in order to generate a model that estimates the user's emotions. Such data is thus considered to be a snapshot of the user's emotions. In general, a model for estimating a user's emotions is generated based on such emotional snapshots.
このように、一般的な感情推定では、ユーザの感情は、ある瞬間における意識的体験として定義されている。この場合、ユーザの感情は、ある時刻におけるインスタンス(instance)や、ある時刻における特徴ベクトル(feature vector)に関連付けられている。しかしながら、ユーザの感情は、ある瞬間における意識的体験であるとは限らない。例えば、ユーザの感情はある「過程」における意識的体験である、とも考えられる。このような感情と行動との有効理論の観点からは、たとえ、ユーザの感情が、「各時刻」におけるインスタンスに対応するとしても、ユーザの感情は、「所定の期間」におけるインスタンスにも対応し得る。 Thus, in general emotion estimation, a user's emotion is defined as the conscious experience at a given moment. In this case, the user's emotion is associated with an instance at a certain time and a feature vector at a certain time. However, a user's emotions are not necessarily conscious experiences at a given moment. For example, a user's emotions can be thought of as a conscious experience in a certain "process." From the perspective of such effective theory of emotion and action, even if the user's emotion corresponds to an instance at "each time", the user's emotion also corresponds to an instance at a "predetermined time period". obtain.
説明のための一例として、ユーザの行動は、細かい行動の線が集まった1つの太い束であると仮定する。細かい行動の線が集まった1つの太い束とは、複数の行動の線の束のことである。例えば、ユーザの行動は、「調べる」、「買う」といった行動に相当する。この場合、細かい行動の線は、ユーザによって閲覧されている画面の内容(すなわち、閲覧するという行動)、ユーザの操作等の行動に相当する。この例では、ユーザの感情は、ユーザの行動の推移(すなわち、ユーザの行動過程)における意識的体験である、と考えられる。 As an illustrative example, assume that a user's behavior is a thick bundle of fine behavior lines. One thick bundle of fine action lines is a bundle of a plurality of action lines. For example, user actions correspond to actions such as "search" and "buy". In this case, the detailed action lines correspond to the content of the screen being viewed by the user (that is, the action of viewing) and actions such as user operations. In this example, the user's emotion is considered to be the conscious experience of the user's course of action (ie, the user's course of action).
言い換えると、上述の「複数の行動の線の束」の観点からは、ユーザの感情を上述の「感情のスナップショット」で定義することは適切でない、と考えられる。一方、上述の「感情と行動との有効理論」の観点からは、ユーザの感情を「複数の行動の線の束」で定義することは妥当である、と考えられる。例えば、ユーザの感情は、複数の行動が集まった1つの太い束の結果である、と考えられる。より具体的には、ユーザの感情は、ユーザの一連の行動に応じて決まるものである、と考えられる。 In other words, it is considered inappropriate to define the user's emotion by the above-described "snapshot of emotion" from the viewpoint of the above-described "bundle of lines of behavior". On the other hand, from the viewpoint of the above-mentioned "effective theory of emotion and action", it is considered appropriate to define the user's emotion as a "bundle of lines of a plurality of actions". For example, a user's emotions can be thought of as the result of one big bundle of actions. More specifically, the user's emotions are considered to be determined according to a series of actions of the user.
例えば、ある人物があるユーザに「この瞬間どんな気分?」と質問した場合に、このユーザは、自分の感情を適切に把握できないかもしれない。一方、ある人物があるユーザに「あの時はどんな気分?」と質問した場合には、このユーザは、自分の感情を適切に把握できるかもしれない。この場合、このようなユーザの感情は、「雰囲気」に近いものである、といえる。 For example, when a person asks a user, "How are you feeling at this moment?", this user may not be able to properly grasp his/her emotions. On the other hand, if a person asks a user, "How are you feeling at that time?" In this case, it can be said that such a user's emotion is close to the "atmosphere".
そこで、図2の例示的な実施形態では、推定装置100は、ユーザの感情を分析するために、以下に説明される推定処理を実行する。
Thus, in the exemplary embodiment of FIG. 2, the
以下に説明される推定処理の一例では、推定装置100は、ユーザの一連の行動(例えば、ユーザによって閲覧されている画面の内容(すなわち、閲覧するという行動)、ユーザの操作等のウェブ行動)と、このユーザの感情との因果関係を分析する。なお、この推定処理の一例では、推定装置100が因果関係を分析した後に、推定装置100は、因果関係の分析結果を利用して、コンテンツをユーザに提供する。
In an example of the estimation process described below, the
上述の因果関係の分析に関しては、推定装置100は、上述の「複数の行動の線の束」としてのユーザの一連の行動を解きほぐし、全体を統括する感情と、複数の行動の線の各々の有無とに基づいて、ユーザの一連の行動と、このユーザの感情との因果関係を調べる。このように、推定装置100は、ユーザが一連の行動をとった状況下において、個々のユーザの行動(例えば、個別の商品に関する閲覧行動、個別の商品に関する購入行動)を切り分けて、ユーザの感情(すなわち、雰囲気に近いような感情)を追跡する。
Regarding the analysis of the causal relationship described above, the
図2の例では、はじめに、推定装置100は、ユーザの行動情報を取得する(ステップS11)。
In the example of FIG. 2, first, the
図2には図示されていないが、推定装置100は、例えば、検索やポータル、SNS(Social Network Service)、オークションサービス、地図情報サービス等のネットワーク上のサービス(例えば、ウェブサービス)を、ユーザに提供してもよい。そして、推定装置100は、ネットワーク上のサービスを介して、ユーザの行動情報を、ユーザのユーザ装置10から受信してもよい。このようにして、推定装置100は、ユーザの行動情報を取得することができる。
Although not shown in FIG. 2, the
取得されたユーザ情報は、ネットワーク上のユーザの行動を示す。例えば、取得された行動情報は、クリック履歴、閲覧されたコンテンツの履歴、広告の選択履歴、SNSの投稿履歴、オークションの出品履歴、オークションの落札履歴、購入履歴、位置履歴(例えば、GPS(Global Positioning System)の履歴、ビーコン検知履歴)等のネットワーク上の各種ログを示す。 The obtained user information indicates user behavior on the network. For example, the acquired behavior information includes the click history, the history of browsed content, the selection history of advertisements, the posting history of SNS, the exhibition history of auctions, the winning bid history of auctions, the purchase history, the location history (for example, GPS (Global Positioning System) history, beacon detection history), etc.
次いで、推定装置100は、取得された行動情報に基づいて、ユーザが所定の取引対象(例えば、商品、サービス)を購入したタイミングを特定し、取得された行動情報のうち、特定されたタイミングを含む所定の期間におけるユーザの行動を示す行動情報を決定する(ステップS12)。
Next, the
図2の例では、決定された行動情報は、行動UA11、行動UA12、行動UA13、行動UA14等の所定の期間における行動を示すデータとして示されている。また、決定された行動情報は、ユーザが所定の期間において所定の商品を購入したことを示す。 In the example of FIG. 2, the determined action information is shown as data indicating actions in a predetermined period, such as action UA11, action UA12, action UA13, action UA14. Also, the determined behavior information indicates that the user has purchased a predetermined product in a predetermined period.
例えば、決定された行動情報は、ユーザが、行動UA11をとり、行動UA12をとり、行動UA13をとり、行動UA14をとり、その後所定の商品を購入したことを示してもよい。また、例えば、決定された行動情報は、ユーザが、行動UA11をとり、行動UA12をとり、所定の商品を購入し、行動UA13をとり、その後行動UA14をとったことを示してもよい。 For example, the determined action information may indicate that the user took action UA11, action UA12, action UA13, action UA14, and then purchased a predetermined product. Further, for example, the determined action information may indicate that the user took action UA11, action UA12, purchased a predetermined product, action UA13, and then action UA14.
次いで、推定装置100は、上述の所定の期間におけるユーザの感情を推定し、推定されたユーザの感情と、決定された行動情報とを含む学習データ(すなわち、訓練データ)を生成する(ステップS13)。
Next, the estimating
例示のために、図2の例では、ユーザが、ウェアラブルデバイス等のセンシングデバイスを利用していると仮定する。この例では、推定装置100は、センシングデバイスを用いて、ユーザの生理的な反応(例えば、心拍数や体温の変化)を特定する。センシングデバイスは、ユーザ装置10であってもよい。そして、推定装置100は、特定された生理的な反応に基づいて、上述の所定の期間におけるユーザの感情を推定することができる。例えば、推定装置100は、特定された生理的な反応に基づいて、「幸福」、「驚き」、「恐れ」等の感情(例えば、基本6感情)を、所定の期間におけるユーザの感情として推定する。このような感情は、取引対象の購入と関連性がある感情であってもよい。例えば、推定装置100は、幸福、喜び、情熱、楽しみ等のポジティブ感情を、所定の期間におけるユーザの感情として推定してもよい。
For illustrative purposes, the example of FIG. 2 assumes that the user is utilizing a sensing device, such as a wearable device. In this example, the estimating
このようにして、推定装置100は、推定されたユーザの感情を、決定された行動情報に関連付けることができる。その結果、推定装置100は、推定されたユーザの感情と、決定された行動情報とを含む学習データを生成することができる。
In this way, the
なお、上述の所定の期間におけるユーザの感情は、例えば、所定の期間の途中におけるユーザの感情である。上述の所定の期間におけるユーザの感情は、所定の期間の後におけるユーザの感情であってもよい。すなわち、上述の所定の期間におけるユーザの感情は、一連の行動の直後の感情であってもよい。 It should be noted that the user's emotion during the predetermined period described above is, for example, the user's emotion during the predetermined period. The user's emotion during the predetermined time period described above may be the user's emotion after the predetermined time period. That is, the user's emotion in the above-described predetermined period may be the emotion immediately after the series of actions.
次いで、推定装置100は、生成された学習データに基づいて、MIL(Multiple Instance Learning)を行い、ユーザの感情を予測する予測モデルを生成する(ステップS14)。
上述のMILは、教師あり学習(supervised learning)の一手法である。MILとは、1つまたは複数のインスタンスに1つの正解ラベルが関連付けられた学習データを用いて、「ラベルが未知のインスタンス」または「ラベルが未知の1つまたは複数のインスタンス」のラベルを予測する手法を指す。なお、インスタンスは、特徴ベクトルとも呼ばれる。 MIL, described above, is a method of supervised learning. MIL predicts the label of "an instance with an unknown label" or "one or more instances with an unknown label" using learning data in which one or more instances are associated with one correct label. refers to the method. An instance is also called a feature vector.
例えば、MILでは、1つまたは複数のインスタンスに対応する1つまたは複数のタプル(tuple)に、1つの正解ラベルが関連付けられている。より具体的には、1つまたは複数のインスタンスが、ポジティブバッグ(positive bag)またはネガティブバッグ(negative bag)に含まれる。ポジティブバッグは、1つまたは複数のポジティブインスタンス(positive instance)を含む。一方、ネガティブバッグは、1つまたは複数のネガティブインスタンス(negative instance)のみを含む。この点に関し、一般的な教師あり学習では、1つのインスタンス(すなわち、1つのタプル)に、1つの正解ラベルが関連付けられている。 For example, in MIL, one correct label is associated with one or more tuples corresponding to one or more instances. More specifically, one or more instances are included in a positive bag or a negative bag. A positive bag contains one or more positive instances. A negative bag, on the other hand, contains only one or more negative instances. In this regard, in general supervised learning, one correct label is associated with one instance (ie, one tuple).
なお、MILでは、一般的な教師あり学習の場合と同様に、インスタンスの次元は、予め設定されている。すなわち、インスタンスは、N次元のインスタンス空間(Nは、次元の数)上で定義される。しかしながら、上述のように、MILでは、1つまたは複数のインスタンスに、1つの正解ラベルが関連付けられている。したがって、MILでは、学習データの入力として用いられるインスタンスの数(すなわち、タプルの数)は、固定されていない。言い換えると、カーディナリティ(cardinality)は、バッグ(すなわち、ポジティブバッグまたはネガティブバッグ)によって異なり得る。 In MIL, the dimensions of instances are set in advance, as in general supervised learning. That is, an instance is defined on an N-dimensional instance space (N is the number of dimensions). However, as noted above, in MIL one correct label is associated with one or more instances. Therefore, in MIL, the number of instances (that is, the number of tuples) used as input for training data is not fixed. In other words, the cardinality can be different for different bags (ie positive or negative bags).
予測モデルの生成に関しては、MILでは、上述の1つまたは複数のインスタンスに1つの正解ラベルが関連付けられた学習データを用いて、ラベルを予測する予測モデルが生成される。 Regarding the generation of the prediction model, MIL generates a prediction model that predicts labels using learning data in which one correct label is associated with one or more of the instances described above.
例えば、EMDD(Expectation Maximization Diverse Density)の手法により、あるインスタンスがポジティブインスタンスである事後確率を出力する確率モデルが生成される。また、例えば、MILブースト(boost)の手法により、このような確率モデルが生成され得る。また、例えば、SVM(Support Vector Machine)の手法(例えば、miSVM、MISVM)により、あるインスタンスをポジティブインスタンスまたはネガティブインスタンスのうちの1つに分類する分類モデルが生成される。 For example, an EMDD (Expectation Maximization Diverse Density) technique generates a probabilistic model that outputs the posterior probability that a given instance is a positive instance. Such probabilistic models can also be generated, for example, by the MIL boost technique. Also, for example, a classification model that classifies a certain instance into either a positive instance or a negative instance is generated by a SVM (Support Vector Machine) technique (eg, miSVM, MISVM).
また、例えば、SVMの手法により、あるバッグをポジティブバッグまたはネガティブバッグのうちの1つに分類する分類モデルも生成され得る。より具体的には、バッグ空間におけるバッグ間の距離(例えば、ハウスドルフ距離)に基づく距離関数(distance function)を用いたSVMの手法により、このような分類モデルが生成され得る。 Also, for example, the SVM approach can generate a classification model that classifies a bag into one of a positive bag or a negative bag. More specifically, an SVM approach using a distance function based on the distance between bags in bag space (eg, the Hausdorff distance) can generate such a classification model.
なお、MILでは、ラベルを予測する予測モデルを生成することなく、ラベルが予測され得る。例えば、MILでは、パターン分類のアルゴリズムによって、ラベルが予測され得る。例えば、CKNN(Citation k Nearest Neighbor)の手法により、あるバッグは、ポジティブバッグまたはネガティブバッグのうちの1つに分類されてもよい。 Note that in MIL, labels can be predicted without creating a prediction model to predict the labels. For example, in MIL labels can be predicted by pattern classification algorithms. For example, according to the Citation k Nearest Neighbor (CKNN) approach, a bag may be classified as one of a positive bag or a negative bag.
図2の例では、1つのユーザの行動が、上述の1つのインスタンスに対応する。 In the example of FIG. 2, one user's action corresponds to one instance described above.
例えば、インスタンスの11番目の成分が、スクロール操作に対応してもよい。また、例えば、インスタンスの12番目の成分が、ジェスチャに対応してもよい。また、例えば、インスタンスの13番目の成分が、センサデータ(例えば、ユーザ装置10のモーション)に対応してもよい。 For example, the eleventh component of an instance may correspond to a scroll operation. Also, for example, the twelfth component of an instance may correspond to a gesture. Also, for example, the thirteenth component of the instance may correspond to sensor data (eg, motion of the user device 10).
また、例えば、インスタンスの21番目の成分が、閲覧されたコンテンツに対応してもよい。また、例えば、インスタンスの22番目の成分が、選択されたコンテンツに対応してもよい。また、例えば、インスタンスの23番目の成分が、検索されたコンテンツに対応してもよい。 Also, for example, the 21st component of the instance may correspond to the viewed content. Also, for example, the 22nd component of the instance may correspond to the selected content. Also, for example, the 23rd component of the instance may correspond to the retrieved content.
また、例えば、インスタンスの31番目の成分が、購入された取引対象に対応してもよい。また、例えば、インスタンスの32番目の成分が、支払われたコスト(例えば、ユーザによりサービス提供者へ支払われた金額)に対応してもよい。また、例えば、インスタンスの33番目の成分が、利用されたサービスに対応してもよい。 Also, for example, the 31st component of an instance may correspond to a purchased trade object. Also, for example, the 32nd component of an instance may correspond to the cost paid (eg, the amount paid by the user to the service provider). Also, for example, the 33rd component of the instance may correspond to the service used.
また、図2の例では、1つまたは複数のユーザの行動に、1つの感情が関連付けられている。言い換えると、この1つの感情は、上述のラベルに対応する。また、1つまたは複数のユーザの行動は、この1つの感情のバッグ(例えば、ポジティブバッグまたはネガティブバッグ)に含まれる。 Also, in the example of FIG. 2, one emotion is associated with one or more user actions. In other words, this one emotion corresponds to the above label. Also, one or more user actions are included in this one emotional bag (eg, positive bag or negative bag).
例えば、行動UA11、行動UA12、行動UA13および行動UA14に、感情「幸福」が関連付けられていてもよい。また、例えば、行動UA21および行動UA22(図示せず)に、感情「情熱」が関連付けられていてもよい。また、例えば、行動UA31、行動UA32および行動UA33(図示せず)に、感情「楽しみ」が関連付けられていてもよい。 For example, action UA11, action UA12, action UA13, and action UA14 may be associated with the emotion "happiness." Also, for example, the action UA21 and the action UA22 (not shown) may be associated with the emotion "passion". Also, for example, the action UA31, the action UA32, and the action UA33 (not shown) may be associated with the emotion "enjoyment".
言い換えると、行動UA11、行動UA12、行動UA13および行動UA14は、感情「幸福」のポジティブバッグに含まれてもよい。この場合、例えば、行動UA41および行動UA42(図示せず)が、感情「幸福」のネガティブバッグに含まれてもよい。感情「幸福」のポジティブバッグは、感情「幸福」に対応する1つまたは複数の行動を含む。一方、感情「幸福」のネガティブバッグは、1つまたは複数の感情「幸福」に対応しない行動のみを含む。 In other words, action UA11, action UA12, action UA13 and action UA14 may be included in the positive bag of the emotion "happiness". In this case, for example, action UA41 and action UA42 (not shown) may be included in the negative bag of the emotion "happiness". The positive bag for the emotion Happiness contains one or more actions corresponding to the emotion Happiness. On the other hand, the negative bag for the emotion Happiness contains only behaviors that do not correspond to one or more emotions Happiness.
すなわち、感情「幸福」のポジティブバッグは、ユーザが行動UA11をとり、行動UA12をとり、行動UA13をとり、その後行動UA14をとった期間において、このユーザが感情「幸福」を経験したことを示す。一方、感情「幸福」のネガティブバッグは、ユーザが行動A41をとり、その後行動A42をとった期間において、このユーザが感情「幸福」を経験しなかったことを示す。このようにして、MILが、感情分析(sentiment analysis)のドメインに適用される。 That is, the positive bag of the emotion “happiness” indicates that the user experienced the emotion “happiness” during the period in which the user took action UA11, action UA12, action UA13, and then action UA14. . On the other hand, the negative bag for the emotion “happiness” indicates that the user did not experience the emotion “happiness” during the period in which the user took action A41 and then took action A42. In this way, MIL is applied to the domain of sentiment analysis.
例示のために、図2の例では、推定装置100は、生成された学習データに基づいて、MILを行い、ユーザの感情を予測する予測モデルとして、ユーザの感情を分類するSVMを生成すると仮定する。この例では、1つまたは複数のユーザの行動を示す行動情報が、生成されたSVMに入力された場合に、生成されたSVMは、ユーザが1つまたは複数のユーザの行動をとった期間におけるユーザの感情を分類する。
For illustration purposes, in the example of FIG. 2, it is assumed that the
例えば、生成されたSVMは、1つまたは複数のユーザの行動を、感情「幸福」に対応する行動に分類する。また、例えば、生成されたSVMは、別の1つまたは複数のユーザの行動を、感情「幸福」に対応しない行動に分類する。 For example, the generated SVM classifies one or more user actions into actions corresponding to the emotion "happiness". Also, for example, the generated SVM classifies the actions of another one or more users into actions that do not correspond to the emotion "happiness".
次いで、推定装置100は、ターゲットユーザの行動情報を取得する(ステップS15)。
Next, the
上述のターゲットユーザは、上述のMILを用いた感情推定の対象(target)となるユーザである。図2には図示されていないが、例えば、推定装置100は、上述のネットワーク上のサービスを介して、ターゲットユーザの行動情報を、ターゲットユーザのユーザ装置10から受信してもよい。このようにして、推定装置100は、ターゲットユーザの行動情報を取得することができる。
The above-mentioned target user is a user who is the target of emotion estimation using the above-mentioned MIL. Although not shown in FIG. 2, for example, the
次いで、推定装置100は、取得されたターゲットユーザの行動情報を、生成された予測モデルに入力することによって、ターゲットユーザの感情と、この感情と因果関係を有するターゲットユーザの一連の行動とを推定する(ステップS16)。
Next, the
例示のために、図2の例では、推定装置100は、第1のターゲットユーザの行動TUA11および行動TUA12にそれぞれ対応する複数のインスタンスを、生成された予測モデルに入力することによって、第1のターゲットユーザの行動TUA11および行動TUA12を、感情「幸福」に対応する行動に分類すると仮定する。さらに、第1のターゲットユーザの行動TUA11および行動TUA12が、「取引対象を調べる」という行動に対応すると仮定する。この例では、推定装置100は、「取引対象を調べる」という行動を、感情「幸福」と因果関係を有する一連の行動として推定する。
For illustration purposes, in the example of FIG. 2 , the
さらに、図2の例では、推定装置100は、第2のターゲットユーザの行動TUA21および行動TUA22にそれぞれ対応する複数のインスタンスを、生成された予測モデルに入力することによって、第2のターゲットユーザの行動TUA21および行動TUA22を、感情「楽しみ」に対応する行動に分類すると仮定する。さらに、第2のターゲットユーザの行動TUA21および行動TUA22が、「取引対象を購入する」という行動に対応すると仮定する。この例では、推定装置100は、この例では、推定装置100は、「取引対象を購入する」という行動を、感情「楽しみ」と因果関係を有する一連の行動として推定する。
Furthermore, in the example of FIG. 2 , the
その後、推定装置100は、推定された「ターゲットユーザの感情」と、推定された「ターゲットユーザの一連の行動」との組み合わせが所定の条件を満たすか否かを判定し、組み合わせが所定の条件を満たすと判定された場合に、ターゲットユーザに広告を提供する(ステップS17)。
Thereafter, the estimating
例示のために、図2の例では、ターゲットユーザに広告を提供するための所定の条件が、「推定されたターゲットユーザの感情と、推定されたターゲットユーザの一連の行動との組み合わせが、幸福、喜び、情熱、楽しみ等のポジティブ感情と、取引対象に出会うという行動、取引対象を調べるという行動、取引対象を購入するという行動、サービス提供者にコストを支払うという行動、サービスを利用する等の行動との組み合わせである」という条件であると仮定する。この例では、推定装置100は、第1のターゲットユーザの「取引対象を調べる」という行動と、第1のターゲットユーザの感情「幸福」の組み合わせが、ターゲットユーザに広告を提供するための所定の条件を満たすと判定する。また、推定装置100は、第2のターゲットユーザの「取引対象を購入する」という行動と、第2のターゲットユーザの感情「楽しみ」の組み合わせが、ターゲットユーザに広告を提供するための所定の条件を満たすと判定する。したがって、推定装置100は、第1のターゲットユーザおよび第2のターゲットユーザに、広告を提供する。
For purposes of illustration, in the example of FIG. 2, the predetermined condition for providing advertisements to the target user is "the combination of the estimated target user's emotion and the estimated target user's set of behaviors is happiness. , positive emotions such as joy, passion, and enjoyment; the behavior of encountering transaction objects; the behavior of examining transaction objects; the behavior of purchasing transaction objects; It is assumed that it is a condition that it is a combination with behavior. In this example, the
上述のように、実施形態に係る推定装置100は、ユーザの一連の行動と、このユーザの感情との因果関係を分析する。そして、推定装置100は、因果関係の分析結果を利用して、コンテンツ(例えば、広告)をユーザに提供する。これにより、推定装置100は、サービス提供者が、サービスの利用を促進させることを可能にする。
As described above, the
例えば、サービスのサイクルは、取引対象(例えば、商品またはサービス)に出会う過程、取引対象を調べる過程、取引対象を購入する過程、サービス提供者にコストを支払う過程、およびサービスを利用する過程を含む。これらの過程のいずれかにおいて、ユーザが不快な経験をした場合に、このユーザは、サービスから離脱する可能性がある。これに関して、推定装置100は、サービス提供者が、ユーザの一連の行動と因果関係を有する感情を、サービスを評価するための評価指標として利用することを可能にする。これにより、推定装置100は、サービス提供者が、サービスを利用するユーザの視点に立ち、ユーザエクスペリエンスを向上させることを可能にする。このため、推定装置100は、上述の過程のいずれかにおいて、ユーザがサービスから離脱する可能性を低減することができる。以下、このような推定処理を実現する推定装置100について詳細に説明する。
For example, the service cycle includes the process of encountering a transaction object (e.g., goods or services), examining the transaction object, purchasing the transaction object, paying a cost to the service provider, and using the service. . If the user has an unpleasant experience during any of these processes, the user may leave the service. In this regard, the
〔3.推定装置の構成〕
次に、図3を参照して、実施形態に係る推定装置100の構成例について説明する。図3は、実施形態に係る推定装置100の構成例を示す図である。図3に示すように、推定装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、推定装置100は、推定装置100を利用する管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(液晶ディスプレイ等)を有してもよい。
[3. Configuration of estimation device]
Next, a configuration example of the
(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。通信部110は、ネットワーク網と有線又は無線により接続され、ネットワーク網を介して、ユーザ装置10との間で情報の送受信を行う。
(Communication unit 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card) or the like. The communication unit 110 is connected to a network by wire or wirelessly, and transmits and receives information to and from the user device 10 via the network.
(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。図3に示すように、記憶部120は、学習データ記憶部121を有する。
(storage unit 120)
The
(学習データ記憶部121)
図4は、実施形態に係る学習データ記憶部121の一例を示す図である。学習データ記憶部121は、学習データのセット(すなわち、データセット)を記憶する。
(Learning data storage unit 121)
FIG. 4 is a diagram showing an example of the learning
例えば、学習データ記憶部121は、ユーザの感情と、この感情と因果関係を有するこのユーザの一連の行動との間の関係性を学習するための学習データのセットを記憶する。より具体的には、学習データ記憶部121は、MILの手法により、ユーザの感情と、この感情と因果関係を有するこのユーザの一連の行動との間の関係性を学習するための学習データのセットを記憶する。
For example, the learning
学習データ記憶部121は、例えば、受信部131によって受信された学習データを記憶する。図4の例では、学習データ記憶部121には、「学習データ」が「学習データID」ごとに記憶される。例示として、「学習データ」には、項目「バッグ」および項目「ラベル」が含まれる。
The learning
「学習データID」は、学習データを識別するための識別子を示す。「バッグ」は、学習データのセットに含まれるバッグを示す。「ラベル」は、バッグに関連付けられた正解ラベルを示す。 “Learning data ID” indicates an identifier for identifying learning data. "Bag" indicates a bag included in the training data set. "Label" indicates the correct label associated with the bag.
上述のように、MILでは、1つまたは複数のインスタンスに対応する1つまたは複数のタプルに、1つの正解ラベルが関連付けられている。より具体的には、1つまたは複数のインスタンスが、ポジティブバッグまたはネガティブバッグに含まれる。ポジティブバッグは、1つまたは複数のポジティブインスタンスを含む。一方、ネガティブバッグは、1つまたは複数のネガティブインスタンスのみを含む。 As noted above, in MIL, one correct label is associated with one or more tuples corresponding to one or more instances. More specifically, one or more instances are included in either the positive bag or the negative bag. A positive bag contains one or more positive instances. A negative bag, on the other hand, contains only one or more negative instances.
例えば、図4は、学習データID「D1」で識別される学習データのバッグが、「行動UA11」、「行動UA12」、「行動UA13」および「行動UA14」にそれぞれ対応する複数のインスタンスを含む「ポジティブバッグ」であることを示している。 For example, in FIG. 4, the learning data bag identified by the learning data ID "D1" includes a plurality of instances respectively corresponding to "action UA11", "action UA12", "action UA13" and "action UA14". It shows that it is a "positive bag".
また、例えば、図4は、学習データID「D1」で識別される学習データのバッグに関連付けられた正解ラベルが、感情「幸福」であることを示している。 Also, for example, FIG. 4 shows that the correct label associated with the learning data bag identified by the learning data ID “D1” is the emotion “happiness”.
すなわち、図4は、あるユーザが行動UA11をとり、行動UA12をとり、行動UA13をとり、行動UA14をとった所定の期間において、このユーザが感情「幸福」を経験したことを示している。 That is, FIG. 4 shows that the user experienced the emotion "happiness" during a predetermined period of time during which the user took action UA11, action UA12, action UA13, and action UA14.
また、例えば、図4は、学習データID「D2」で識別される学習データのバッグが、「行動UA21」および「行動UA22」にそれぞれ対応する複数のインスタンスを含む「ネガティブバッグ」であることを示している。 Also, for example, FIG. 4 shows that the bag of learning data identified by the learning data ID “D2” is a “negative bag” that includes a plurality of instances respectively corresponding to “action UA21” and “action UA22”. showing.
また、例えば、図4は、学習データID「D2」で識別される学習データのバッグに関連付けられた正解ラベルが、感情「情熱」であることを示している。 Also, for example, FIG. 4 shows that the correct label associated with the learning data bag identified by the learning data ID “D2” is the emotion “passion”.
すなわち、図4は、あるユーザが行動UA21をとり、行動UA22をとった所定の期間において、このユーザが感情「情熱」を経験しなかったことを示す。 That is, FIG. 4 shows that a certain user did not experience the emotion “passion” during a predetermined period of time during which the user took action UA21 and took action UA22.
なお、所定の期間におけるユーザの感情は、例えば、所定の期間の途中におけるユーザの感情であるが、これに限定されるものではない。上述の所定の期間におけるユーザの感情は、所定の期間の後におけるユーザの感情であってもよい。すなわち、上述の所定の期間におけるユーザの感情は、一連の行動の直後の感情であってもよい。また、上述の所定の期間におけるユーザの感情は、所定の期間の前におけるユーザの感情であってもよい。すなわち、上述の所定の期間におけるユーザの感情は、一連の行動の直前の感情であってもよい。 Note that the user's emotion during the predetermined period is, for example, the user's emotion during the predetermined period, but is not limited to this. The user's emotion during the predetermined time period described above may be the user's emotion after the predetermined time period. That is, the user's emotion in the above-described predetermined period may be the emotion immediately after the series of actions. Also, the user's emotion during the predetermined period may be the user's emotion before the predetermined period. That is, the user's emotion in the above-described predetermined period may be the emotion immediately before the series of actions.
すなわち、所定の期間におけるユーザの感情は、所定の期間全体にわたる感情であってもよい。また、所定の期間におけるユーザの感情は、所定の期間の直後の感情であってもよい。また、所定の期間におけるユーザの感情は、所定の期間の直前の感情であってもよい。 That is, the user's emotion over a predetermined period of time may be the emotion over the entire predetermined period of time. Also, the user's emotion during the predetermined period may be the emotion immediately after the predetermined period. Also, the user's emotion during the predetermined period may be the emotion immediately before the predetermined period.
行動と感情との関係に関しては、ユーザが一連の行動をとっている間に、ある感情が生まれる場合がある。一方、ユーザの一連の行動が、ある感情を生み出す場合もある。また、ある感情が生まれたために、ユーザが一連の行動をとる場合もある。 Regarding the relationship between actions and emotions, certain emotions may arise while the user is performing a series of actions. On the other hand, a series of actions of the user may produce certain emotions. There are also cases in which the user takes a series of actions due to an emotion.
(制御部130)
制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等のプロセッサによって、推定装置100内部の記憶装置に記憶されている各種プログラム(推定プログラムの一例に相当)がRAM等を作業領域として実行されることにより実現される。また、制御部130は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。
(control unit 130)
The
制御部130は、図3に示すように、受信部131と、取得部132と、推定部133と、第1提供部134と、第2提供部135とを有し、以下に説明する情報処理の機能や作用を実現又は実行する。なお、制御部130の内部構成は、図3に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。
As shown in FIG. 3, the
(受信部131)
受信部131は、学習データを受信する。例えば、受信部131は、所定の情報処理装置から、学習データを受信する。例えば、受信部131は、推定装置100に関係するエンティティ(例えば、ユーザ、企業)の装置から、学習データを受信する。受信部131は、受信された学習データを、学習データ記憶部121に格納してもよい。
(Receiver 131)
The receiving
受信部131は、ユーザインタフェースを介して、推定装置100のユーザから学習データを受信してもよい。受信部131は、受信された学習データを、学習データ記憶部121に格納してもよい。
The receiving
受信部131は、利用者(例えば、ユーザ、ターゲットユーザ)の行動情報を受信する。例えば、受信部131は、所定の情報処理装置から、行動情報を受信する。例えば、受信部131は、推定装置100に関係するエンティティ(例えば、ユーザ、企業)の装置から、行動情報を受信する。受信部131は、受信された行動情報を、記憶部120内の所定の記憶領域である行動情報記憶部(図示せず)に格納してもよい。
The receiving
受信部131は、ユーザインタフェースを介して、推定装置100のユーザから行動情報を受信してもよい。受信部131は、受信された行動情報を、上述の行動情報記憶部に格納してもよい。
The receiving
受信部131は、第3提供部136によって提供されたサービスを介して、利用者(例えば、ユーザ、ターゲットユーザ)の行動情報を、ユーザのユーザ装置10から受信してもよい。第3提供部136によって提供されたサービスは、例えば、検索やポータル、SNS、オークションサービス、地図情報サービス等のネットワーク上のサービスであってもよい。
The receiving
受信部131は、第3提供部136によって提供されたコンテンツを介して、利用者(例えば、ユーザ、ターゲットユーザ)の行動情報を受信してもよい。第3提供部136によって提供されたコンテンツは、検索、ポータル、ショッピング、オークション、ニュース、ファイナンス、旅行、飲食店紹介、スポーツ、テレビ、動画、ゲーム、地図、路線情報、料理、不動産、自動車、ブログ、結婚、漫画、占い、地域情報等のコンテンツであってもよい。
The receiving
(取得部132)
取得部132は、所定の利用者(例えば、ターゲットユーザ)の行動を示す行動情報を取得する。
(Acquisition unit 132)
The
取得部132は、例えば、受信部131によって受信された行動情報を取得する。取得部132は、所定の記憶装置から、行動情報を取得してもよい。例えば、取得部132は、上述の行動情報記憶部から、行動情報を取得してもよい。取得部132は、取得された行動情報を、上述の行動情報記憶部に格納してもよい。
The
一例では、取得部132は、ユーザの行動情報を取得する。
In one example, the
取得部132によって取得されたユーザ情報は、ネットワーク上のユーザの行動を示す。例えば、取得された行動情報は、クリック履歴、閲覧されたコンテンツの履歴、広告の選択履歴、SNSの投稿履歴、オークションの出品履歴、オークションの落札履歴、購入履歴、位置履歴(例えば、GPSの履歴、ビーコン検知履歴)等のネットワーク上の各種ログを示す。
The user information acquired by the
一例では、取得部132は、ターゲットユーザの行動情報を取得する。
In one example, the
(推定部133)
推定部133は、取得部132により取得された行動情報に基づいて、所定の利用者(例えば、ターゲットユーザ)による一連の行動と因果関係を有する感情を推定する。
(Estimation unit 133)
Based on the action information acquired by the
例えば、推定部133は、利用者(例えば、ユーザ)の感情と、この感情と因果関係を有するこの利用者の一連の行動との間の関係性を学習したモデルを用いて、所定の利用者(例えば、ターゲットユーザ)の行動情報に基づき、この所定の利用者の一連の行動と因果関係を有する感情を推定する。
For example, the estimating
また、例えば、推定部133は、利用者の複数の行動を示す行動情報が入力された場合に、この複数の行動に含まれる一連の行動と、この一連の行動と因果関係を有するこの利用者の感情とを出力するように学習が行われたモデルを用いて、所定の利用者の感情を推定する。
Further, for example, when behavior information indicating a plurality of behaviors of a user is input, the
また、例えば、推定部133は、MILの技術により、利用者の感情と、この感情と因果関係を有するこの利用者の一連の行動との間の関係性を学習したモデルを用いて、所定の利用者の感情を推定する。
Also, for example, the estimating
また、例えば、推定部133は、一連の行動と因果関係を有する感情として、所定の利用者がこの一連の行動を行っている際の感情を推定する。
Also, for example, the estimating
また、例えば、推定部133は、一連の行動と因果関係を有する感情として、所定の利用者がこの一連の行動を行った後の感情を推定する。
Also, for example, the estimating
また、例えば、推定部133は、一連の行動と因果関係を有する感情として、所定の利用者がこの一連の行動を行う前の感情を推定する。
Also, for example, the estimating
また、例えば、推定部133は、所定の利用者による一連の行動であって、所定の取引対象に関する一連の行動と因果関係を有する感情を推定する。
Also, for example, the estimating
また、例えば、推定部133は、所定の取引対象を発見してから所定の取引対象を購入するまでの行動に含まれる一連の行動と因果関係を有する感情を推定する。
Also, for example, the estimating
一例では、はじめに、推定部133は、取得部132によって取得された行動情報に基づいて、ユーザが所定の取引対象(例えば、商品、サービス)を購入したタイミングを特定し、取得部132によって取得された行動情報のうち、特定されたタイミングを含む所定の期間におけるユーザの行動を示す行動情報を決定する。
In one example, first, the estimating
次いで、推定部133は、上述の所定の期間におけるユーザの感情を推定し、推定されたユーザの感情と、決定された行動情報とを含む学習データ(すなわち、訓練データ)を生成する。
Next, the
例示のために、ユーザが、ウェアラブルデバイス等のセンシングデバイスを利用していると仮定する。この例では、推定部133は、センシングデバイスを用いて、ユーザの生理的な反応(例えば、心拍数や体温の変化)を特定する。センシングデバイスは、ユーザ装置10であってもよい。そして、推定部133は、特定された生理的な反応に基づいて、上述の所定の期間におけるユーザの感情を推定することができる。例えば、推定部133は、特定された生理的な反応に基づいて、「幸福」、「驚き」、「恐れ」等の感情(例えば、基本6感情)を、所定の期間におけるユーザの感情として推定する。このような感情は、取引対象の購入と関連性がある感情であってもよい。例えば、推定部133は、幸福、喜び、情熱、楽しみ等のポジティブ感情を、所定の期間におけるユーザの感情として推定してもよい。
For purposes of illustration, assume a user is utilizing a sensing device such as a wearable device. In this example, the
このようにして、推定部133は、推定されたユーザの感情を、決定された行動情報に関連付けることができる。その結果、推定部133は、推定されたユーザの感情と、決定された行動情報とを含む学習データを生成することができる。
In this way, the
次いで、推定部133は、生成された学習データに基づいて、MILを行い、ユーザの感情を予測する予測モデルを生成する。
Next, the
例示のために、推定部133は、生成された学習データに基づいて、MILを行い、ユーザの感情を予測する予測モデルとして、ユーザの感情を分類するSVMを生成すると仮定する。この例では、1つまたは複数のユーザの行動を示す行動情報が、生成されたSVMに入力された場合に、生成されたSVMは、ユーザが1つまたは複数のユーザの行動をとった期間におけるユーザの感情を分類する。
For illustration purposes, it is assumed that the
その後、推定部133は、取得部132によって取得されたターゲットユーザの行動情報を、生成された予測モデルに入力することによって、ターゲットユーザの感情と、この感情と因果関係を有するターゲットユーザの一連の行動とを推定する。
After that, the estimating
(第1提供部134)
第1提供部134は、推定部133により推定された感情に応じた内容の情報を所定の利用者に提供する。
(First providing unit 134)
The first providing
例えば、第1提供部134は、ターゲットユーザの一連の行動に対応する複数のインスタンスを、推定部133によって生成された予測モデルに入力することによって、ターゲットユーザの一連の行動を、所定の感情に対応する行動に分類する。そして、第1提供部134は、所定の感情に対応する情報を、ターゲットユーザに提供する。
For example, the
例えば、ターゲットユーザの一連の行動が、取引対象に出会い、取引対象を調べ、取引対象を購入し、サービス提供者にコストを支払い、サービスを利用するという一連の行動のうちの一部に対応する場合、第1提供部134は、所定の感情に対応する情報として、取引対象やサービスに関する情報を、ターゲットユーザに提供してもよい。
For example, a series of actions of the target user corresponds to a part of a series of actions of encountering the transaction object, researching the transaction object, purchasing the transaction object, paying the cost to the service provider, and using the service. In this case, the first providing
一例として、取引対象に出会い、取引対象を調べるという一連の行動が、所定の感情「幸福」に対応してもよい。この例では、第1提供部134は、この取引対象に関する広告を、ターゲットユーザに提供してもよい。
As an example, the sequence of actions of encountering a transaction object and examining the transaction object may correspond to the predetermined emotion "happiness". In this example, the first providing
別の例として、取引対象に出会い、取引対象を調べるという一連の行動が、所定の感情「無気力」に対応してもよい。この例では、第1提供部134は、この取引対象に関する広告を、ターゲットユーザに提供しなくてもよい。この場合、第1提供部134は、ターゲットユーザが、取引対象に関する情報を探しやすくするために、取引対象の詳細な情報を、ターゲットユーザに提供してもよい。
As another example, the course of action of encountering a transaction object and examining the transaction object may correspond to the predetermined emotion "lethargy." In this example, the first providing
さらに別の例として、取引対象に出会い、取引対象を調べ、取引対象を購入するという一連の行動が、所定の感情「動転」に対応してもよい。この例では、第1提供部134は、サービスで使用可能なクーポンを、ターゲットユーザに提供してもよい。
As yet another example, the sequence of actions of encountering a transaction object, researching the transaction object, and purchasing the transaction object may correspond to a predetermined emotion "upset." In this example, the first providing
(第2提供部135)
第2提供部135は、推定部133によって推定された感情に応じたタイミングで、所定の内容の情報を所定の利用者に提供してもよい。
(Second providing unit 135)
The second providing
一例では、第2提供部135は、推定部133によって推定された「ターゲットユーザの感情」と、推定部133によって推定された「ターゲットユーザの一連の行動」との組み合わせが所定の条件を満たすか否かを判定し、組み合わせが所定の条件を満たすと判定された場合に、ターゲットユーザに広告を提供する。
In one example, the second providing
〔4.推定処理のフロー〕
次に、実施形態に係る推定装置100による推定処理の手順について説明する。図5は、実施形態に係る推定装置100による推定処理手順を示すフローチャートである。
[4. Estimation process flow]
Next, a procedure of estimation processing by the
図5に示すように、はじめに、推定装置100は、所定の利用者の行動を示す行動情報を取得する(ステップS101)。
As shown in FIG. 5, first, the
次いで、推定装置100は、取得された行動情報に基づいて、所定の利用者による一連の行動と因果関係を有する感情を推定する(ステップS102)。
Next, the
例えば、推定装置100は、利用者の感情と、この感情と因果関係を有するこの利用者の一連の行動との間の関係性を学習したモデルを用いて、所定の利用者の行動情報に基づき、この所定の利用者の一連の行動と因果関係を有する感情を推定する。
For example, the
また、例えば、推定装置100は、利用者の複数の行動を示す行動情報が入力された場合に、この複数の行動に含まれる一連の行動と、この一連の行動と因果関係を有するこの利用者の感情とを出力するように学習が行われたモデルを用いて、所定の利用者の感情を推定する。
Further, for example, when behavior information indicating a plurality of behaviors of a user is input, the estimating
また、例えば、推定装置100は、MIL(Multiple Instance Learning)の技術により、利用者の感情と、この感情と因果関係を有するこの利用者の一連の行動との間の関係性を学習したモデルを用いて、所定の利用者の感情を推定する。
Also, for example, the
また、例えば、推定装置100は、一連の行動と因果関係を有する感情として、所定の利用者がこの一連の行動を行っている際の感情を推定する。
Also, for example, the
また、例えば、推定装置100は、一連の行動と因果関係を有する感情として、所定の利用者がこの一連の行動を行った後の感情を推定する。
Also, for example, the
また、例えば、推定装置100は、一連の行動と因果関係を有する感情として、所定の利用者がこの一連の行動を行う前の感情を推定する。
Also, for example, the
また、例えば、推定装置100は、所定の利用者による一連の行動であって、所定の取引対象に関する一連の行動と因果関係を有する感情を推定する。
Also, for example, the
また、例えば、推定装置100は、所定の取引対象を発見してから所定の取引対象を購入するまでの行動に含まれる一連の行動と因果関係を有する感情を推定する。
Also, for example, the
次いで、推定装置100は、推定された感情に応じた内容の情報を所定の利用者に提供する(ステップS103)。推定装置100は、推定された感情に応じたタイミングで、所定の内容の情報を所定の利用者に提供してもよい。
Next, the
〔5.変形例〕
上述の実施形態に係る推定装置100は、上記の実施形態以外にも、種々の異なる形態で実施されてよい。そこで、以下では、上記の推定装置100の他の実施形態について説明する。
[5. Modification]
The
〔5-1.感情の変遷の推定〕
推定部133は、一連の行動と因果関係を有する感情の変遷を推定してもよい。
[5-1. Estimation of changes in emotions]
The estimating
例えば、推定部133は、第1の所定の期間におけるターゲットユーザの一連の行動に対応する複数のインスタンスを、推定部133によって生成された予測モデルに入力することによって、第1の所定の期間におけるターゲットユーザの一連の行動を、第1の所定の感情に対応する行動に分類してもよい。同様に、推定部133は、第2の所定の期間におけるターゲットユーザの一連の行動に対応する複数のインスタンスを、推定部133によって生成された予測モデルに入力することによって、第2の所定の期間におけるターゲットユーザの一連の行動を、第2の所定の感情に対応する行動に分類してもよい。この場合、推定部133は、第1の所定の感情から第2の所定の感情への感情の推移を、一連の行動と因果関係を有する感情の変遷として推定してもよい。
For example, the estimating
なお、上述の第1の所定の期間は、上述の第2の所定の期間の後の期間であってもよい。また、上述の第1の所定の期間は、上述の第2の所定の期間の前の期間であってもよい。また、上述の第1の所定の期間と、上述の第2の所定の期間とは、重複してもよい。 Note that the first predetermined period described above may be a period after the second predetermined period described above. Also, the first predetermined period described above may be a period before the second predetermined period described above. Also, the first predetermined period described above and the second predetermined period described above may overlap.
感情の変遷に関しては、ターゲットユーザの感情は、時々刻々と変化すると考えられる。これに関して、例えば、ターゲットユーザの感情が、ネガティブ感情からポジティブ感情に推移している場合に、第2提供部135は、所定の内容の情報を、ターゲットユーザに提供してもよい。例えば、ターゲットユーザの感情が、感情「神経質」から感情「楽しみ」に推移している場合に、第2提供部135は、広告を、ターゲットユーザに提供してもよい。また、例えば、ターゲットユーザの感情が、ネガティブ感情からポジティブ感情に推移している場合に、第2提供部135は、所定の内容の情報を、ターゲットユーザに提供してもよい。例えば、ターゲットユーザの感情が、感情「幸福」から感情「怒り」に推移している場合に、第2提供部135は、サービスで使用可能なクーポンを、ターゲットユーザに提供してもよい。
As for changes in emotions, the target user's emotions are considered to change from moment to moment. In this regard, for example, when the target user's emotion changes from negative emotion to positive emotion, the second providing
一例として、取引対象に出会い、取引対象を調べるという一連の行動が、感情「神経質」から感情「楽しみ」に推移した感情に対応してもよい。この例では、第2提供部135は、この取引対象に関する広告を、ターゲットユーザに提供してもよい。
As an example, a series of actions of encountering a transaction target and investigating the transaction target may correspond to an emotion that changes from the emotion "nervous" to the emotion "enjoyment". In this example, the second providing
別の例として、取引対象を調べ、取引対象を購入するという一連の行動が、感情「幸福」から感情「怒り」に推移した感情に対応してもよい。この例では、第2提供部135は、サービスで使用可能なクーポンを、ターゲットユーザに提供してもよい。
As another example, a series of actions of examining a transaction object and purchasing a transaction object may correspond to an emotion that transitions from the emotion "happiness" to the emotion "anger." In this example, the second providing
〔5-2.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の一部を手動的に行うこともできる。あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[5-2. others〕
Also, among the processes described in the above embodiments, some of the processes described as being automatically performed can also be performed manually. Alternatively, all or part of the processes described as being performed manually can be performed automatically by known methods. In addition, information including processing procedures, specific names, various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each drawing is not limited to the illustrated information.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Also, each component of each device illustrated is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution and integration of each device is not limited to the one shown in the figure, and all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions. Can be integrated and configured.
例えば、図3に示した記憶部120の一部又は全部は、推定装置100によって保持されるのではなく、ストレージサーバ等に保持されてもよい。この場合、推定装置100は、ストレージサーバにアクセスすることで、学習データ等の各種情報を取得する。
For example, part or all of the
〔5-3.ハードウェア構成〕
また、上述してきた実施形態に係る推定装置100は、例えば図6に示すような構成のコンピュータ1000によって実現される。図6は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
[5-3. Hardware configuration]
Also, the
演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。一次記憶装置1040は、RAM等、演算装置1030が各種の演算に用いるデータを一時的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD、フラッシュメモリ等により実現される。
The
出力IF1060は、モニタやプリンタといった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインタフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力IF1070は、マウス、キーボード、およびスキャナ等といった各種の入力装置1020から情報を受信するためのインタフェースであり、例えば、USB等により実現される。
The output IF 1060 is an interface for transmitting information to be output to the output device 1010 that outputs various types of information such as a monitor and a printer. It is realized by a connector conforming to a standard such as HDMI (registered trademark) (High Definition Multimedia Interface). Also, the input IF 1070 is an interface for receiving information from
なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等から情報を読み出す装置であってもよい。また、入力装置1020は、USBメモリ等の外付け記憶媒体であってもよい。
Note that the
ネットワークIF1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。
Network IF 1080 receives data from other devices via network N and sends the data to
演算装置1030は、出力IF1060や入力IF1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。
The
例えば、コンピュータ1000が推定装置100として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部130の機能を実現する。
For example, when the computer 1000 functions as the
〔6.効果〕
上述してきたように、実施形態に係る推定装置100は、取得部132と、推定部133とを有する。取得部132は、所定の利用者の行動を示す行動情報を取得する。推定部133は、取得部132により取得された行動情報に基づいて、所定の利用者による一連の行動と因果関係を有する感情を推定する。
[6. effect〕
As described above, the
また、実施形態に係る推定装置100において、推定部133は、利用者の感情と、この感情と因果関係を有するこの利用者の一連の行動との間の関係性を学習したモデルを用いて、所定の利用者の行動情報に基づき、この所定の利用者の一連の行動と因果関係を有する感情を推定する。
In addition, in the
また、実施形態に係る推定装置100において、推定部133は、利用者の複数の行動を示す行動情報が入力された場合に、この複数の行動に含まれる一連の行動と、この一連の行動と因果関係を有するこの利用者の感情とを出力するように学習が行われたモデルを用いて、所定の利用者の感情を推定する。
Further, in the
また、実施形態に係る推定装置100において、推定部133は、MIL(Multiple Instance Learning)の技術により、利用者の感情と、この感情と因果関係を有するこの利用者の一連の行動との間の関係性を学習したモデルを用いて、所定の利用者の感情を推定する。
In addition, in the
また、実施形態に係る推定装置100において、推定部133は、一連の行動と因果関係を有する感情として、所定の利用者がこの一連の行動を行っている際の感情を推定する。
In addition, in the
また、実施形態に係る推定装置100において、推定部133は、一連の行動と因果関係を有する感情として、所定の利用者がこの一連の行動を行った後の感情を推定する。
Also, in the
また、実施形態に係る推定装置100において、推定部133は、一連の行動と因果関係を有する感情として、所定の利用者がこの一連の行動を行う前の感情を推定する。
Further, in the
また、実施形態に係る推定装置100において、推定部133は、一連の行動と因果関係を有する感情の変遷を推定する。
In addition, in the
また、実施形態に係る推定装置100において、推定部133は、所定の利用者による一連の行動であって、所定の取引対象に関する一連の行動と因果関係を有する感情を推定する。
In addition, in the
また、実施形態に係る推定装置100において、推定部133は、所定の取引対象を発見してから所定の取引対象を購入するまでの行動に含まれる一連の行動と因果関係を有する感情を推定する。
In addition, in the
また、実施形態に係る推定装置100は、推定部133により推定された感情に応じた内容の情報を所定の利用者に提供する第1提供部134を有する。
Further, the
また、実施形態に係る推定装置100は、推定部133により推定された感情に応じたタイミングで、所定の内容の情報を所定の利用者に提供する第2提供部135を有する。
The
上述した各処理により、推定装置100は、利用者の感情を適切に推定することができる。
Through the processes described above,
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 As described above, some of the embodiments of the present application have been described in detail based on the drawings. It is possible to carry out the invention in other forms with modifications.
また、上述した推定装置100は、複数のサーバコンピュータで実現してもよく、また、機能によっては外部のプラットフォーム等をAPI(Application Programming Interface)やネットワークコンピューティングなどで呼び出して実現するなど、構成は柔軟に変更できる。
In addition, the above-described
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、受信部は、受信手段や受信回路に読み替えることができる。 Also, the above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the receiving section can be read as receiving means or a receiving circuit.
1 ネットワークシステム
10 ユーザ装置
100 推定装置
110 通信部
120 記憶部
121 学習データ記憶部
130 制御部
131 受信部
132 取得部
133 推定部
134 第1提供部
135 第2提供部
1 network system 10
Claims (13)
所定の期間と紐づけられた利用者の単一の感情と、当該所定の期間における当該利用者による一連の行動であって、当該感情と因果関係を有する当該利用者による一連の行動との間の関係性を学習したモデルを、前記取得部により取得された行動情報に適用することによって、前記所定の利用者が一連の行動をとった期間における前記所定の利用者の感情であって、当該期間における前記所定の利用者による一連の行動と因果関係を有する感情を推定する推定部と
を有することを特徴とする推定装置。 an acquisition unit that acquires behavior information indicating behavior of a predetermined user;
Between a user's single emotion associated with a predetermined period and a series of actions by the user during the predetermined period that have a causal relationship with the emotion to the action information acquired by the acquisition unit, the emotion of the predetermined user during the period in which the predetermined user took a series of actions, an estimation device for estimating an emotion having a causal relationship with a series of actions by the predetermined user during a period of time.
ことを特徴とする請求項1に記載の推定装置。 When behavior information indicating a plurality of behaviors of a user is input, the estimating unit determines a series of behaviors included in the plurality of behaviors and emotions of the user having a causal relationship with the series of behaviors. The estimating device according to claim 1, wherein the emotion of the predetermined user is estimated using a model that has been trained to output.
ことを特徴とする請求項1または2に記載の推定装置。 The estimating unit uses a model that has learned the relationship between the user's emotion and a series of actions of the user that have a causal relationship with the user's emotion by MIL (Multiple Instance Learning) technology, 3. The estimating device according to claim 1, wherein the emotion of the predetermined user is estimated.
ことを特徴とする請求項1~3のうちいずれか1つに記載の推定装置。 4. The estimating unit estimates, as the emotion having a causal relationship with the series of actions, the emotion of the predetermined user performing the series of actions. or the estimating device according to one.
ことを特徴とする請求項1~3のうちいずれか1つに記載の推定装置。 4. The estimating unit estimates, as an emotion having a causal relationship with the series of actions, an emotion after the predetermined user performs the series of actions. 1. The estimating device according to 1.
ことを特徴とする請求項1~3のうちいずれか1つに記載の推定装置。 4. Any one of claims 1 to 3, wherein the estimating unit estimates, as an emotion having a causal relationship with the series of actions, an emotion before the predetermined user performs the series of actions. The estimating device according to 1.
ことを特徴とする請求項1~6のうちいずれか1つに記載の推定装置。 The estimating device according to any one of claims 1 to 6, wherein the estimating unit estimates changes in emotion having a causal relationship with the series of actions.
ことを特徴とする請求項1~7のうちいずれか1つに記載の推定装置。 The estimating unit estimates an emotion having a causal relationship with a series of actions by the predetermined user, which are related to a predetermined transaction object. The estimating device according to 1.
ことを特徴とする請求項8に記載の推定装置。 9. The method according to claim 8, wherein the estimating unit estimates an emotion having a causal relationship with a series of actions included in actions from discovering the predetermined transaction object to purchasing the predetermined transaction object. Estimation device as described.
ことを特徴とする請求項1~9のうちいずれか1つに記載の推定装置。 The estimating device according to any one of claims 1 to 9, further comprising: a first providing unit that provides the predetermined user with information corresponding to the emotion estimated by the estimating unit. .
ことを特徴とする請求項1~10のうちいずれか1つに記載の推定装置。 11. Any one of claims 1 to 10, further comprising a second providing unit that provides information of predetermined content to the predetermined user at a timing corresponding to the emotion estimated by the estimating unit. The estimating device described in .
所定の利用者の行動を示す行動情報を取得する取得工程と、
所定の期間と紐づけられた利用者の単一の感情と、当該所定の期間における当該利用者による一連の行動であって、当該感情と因果関係を有する当該利用者による一連の行動との間の関係性を学習したモデルを、前記取得工程により取得された行動情報に適用することによって、前記所定の利用者が一連の行動をとった期間における前記所定の利用者の感情であって、当該期間における前記所定の利用者による一連の行動と因果関係を有する感情を推定する推定工程と
を含むことを特徴とする推定方法。 An estimation method executed by an estimation device,
an acquisition step of acquiring behavior information indicating behavior of a predetermined user;
Between a user's single emotion associated with a predetermined period and a series of actions by the user during the predetermined period that have a causal relationship with the emotion By applying a model that has learned the relationship between the an estimating step of estimating an emotion having a causal relationship with a series of actions by the given user over a period of time.
所定の期間と紐づけられた利用者の単一の感情と、当該所定の期間における当該利用者による一連の行動であって、当該感情と因果関係を有する当該利用者による一連の行動との間の関係性を学習したモデルを、前記取得手順により取得された行動情報に適用することによって、前記所定の利用者が一連の行動をとった期間における前記所定の利用者の感情であって、当該期間における前記所定の利用者による一連の行動と因果関係を有する感情を推定する推定手順と
をコンピュータに実行させるための推定プログラム。 an acquisition procedure for acquiring behavior information indicating behavior of a predetermined user;
Between a user's single emotion associated with a predetermined period and a series of actions by the user during the predetermined period that have a causal relationship with the emotion to the action information acquired by the acquisition procedure, the emotion of the predetermined user during the period in which the predetermined user took a series of actions, an estimation program for causing a computer to execute: an estimation procedure for estimating a series of behaviors and emotions having a causal relationship by the predetermined user during a period;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019050413A JP7139270B2 (en) | 2019-03-18 | 2019-03-18 | Estimation device, estimation method and estimation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019050413A JP7139270B2 (en) | 2019-03-18 | 2019-03-18 | Estimation device, estimation method and estimation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020154464A JP2020154464A (en) | 2020-09-24 |
JP7139270B2 true JP7139270B2 (en) | 2022-09-20 |
Family
ID=72559047
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019050413A Active JP7139270B2 (en) | 2019-03-18 | 2019-03-18 | Estimation device, estimation method and estimation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7139270B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7388619B2 (en) | 2021-05-20 | 2023-11-29 | Lineヤフー株式会社 | Information processing device, information processing method, and information processing program |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014073366A1 (en) | 2012-11-12 | 2014-05-15 | 日本電気株式会社 | Information processing system, recognition dictionary learning method, and recognition dictionary learning program |
JP2017167752A (en) | 2016-03-15 | 2017-09-21 | ヤフー株式会社 | Device, method, and program for determination |
JP2017188031A (en) | 2016-04-08 | 2017-10-12 | ソフトバンク・テクノロジー株式会社 | Re-marketing system based on action data and emotion data and management method for the same |
JP2018041460A (en) | 2016-09-09 | 2018-03-15 | ソニー株式会社 | System and method for providing recommendation on electronic device on the basis of affective state detection |
JP2019036114A (en) | 2017-08-15 | 2019-03-07 | ヤフー株式会社 | Generation device, method for generation, generation program, learning data, and model |
JP2019036116A (en) | 2017-08-15 | 2019-03-07 | ヤフー株式会社 | Decision device, decision method, and decision program |
JP2019067056A (en) | 2017-09-29 | 2019-04-25 | 富士通株式会社 | Message output control method and message output control program and message output control device |
-
2019
- 2019-03-18 JP JP2019050413A patent/JP7139270B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014073366A1 (en) | 2012-11-12 | 2014-05-15 | 日本電気株式会社 | Information processing system, recognition dictionary learning method, and recognition dictionary learning program |
JP2017167752A (en) | 2016-03-15 | 2017-09-21 | ヤフー株式会社 | Device, method, and program for determination |
JP2017188031A (en) | 2016-04-08 | 2017-10-12 | ソフトバンク・テクノロジー株式会社 | Re-marketing system based on action data and emotion data and management method for the same |
JP2018041460A (en) | 2016-09-09 | 2018-03-15 | ソニー株式会社 | System and method for providing recommendation on electronic device on the basis of affective state detection |
JP2019036114A (en) | 2017-08-15 | 2019-03-07 | ヤフー株式会社 | Generation device, method for generation, generation program, learning data, and model |
JP2019036116A (en) | 2017-08-15 | 2019-03-07 | ヤフー株式会社 | Decision device, decision method, and decision program |
JP2019067056A (en) | 2017-09-29 | 2019-04-25 | 富士通株式会社 | Message output control method and message output control program and message output control device |
Also Published As
Publication number | Publication date |
---|---|
JP2020154464A (en) | 2020-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yang et al. | Exploiting user experience from online customer reviews for product design | |
Wang et al. | Understanding multi-channel research shoppers: an analysis of Internet and physical channels | |
Huseynov et al. | Behavioral Issues in B2C E-commerce: The-state-of-the-art | |
US20180101576A1 (en) | Content Recommendation and Display | |
WO2017190610A1 (en) | Target user orientation method and device, and computer storage medium | |
US20160140627A1 (en) | Generating high quality leads for marketing campaigns | |
US10783431B2 (en) | Image search using emotions | |
CN111061979B (en) | User tag pushing method and device, electronic equipment and medium | |
CN111967924A (en) | Commodity recommendation method, commodity recommendation device, computer device, and medium | |
Guarino et al. | A machine learning-based approach to identify unlawful practices in online terms of service: analysis, implementation and evaluation | |
Barbosa et al. | Who am i? a design probe exploring real-time transparency about online and offline user profiling underlying targeted ads | |
KR20220117425A (en) | Marketability analysis and commercialization methodology analysis system using big data | |
Zhang et al. | Implicit look-alike modelling in display ads: Transfer collaborative filtering to ctr estimation | |
Liu | Toward A Two-Sided Fairness Framework in Search and Recommendation | |
Avolicino et al. | AI-based emotion recognition to study users’ perception of dark patterns | |
JP7139270B2 (en) | Estimation device, estimation method and estimation program | |
JP7231585B2 (en) | Evaluation device, evaluation method and evaluation program | |
JP6679448B2 (en) | Generation device, generation method, and generation program | |
JP6043840B1 (en) | Classification device, classification method, and classification program | |
Chishti et al. | Identify Website Personality by Using Unsupervised Learning Based on Quantitative Website Elements | |
JP2018067215A (en) | Data analysis system, control method thereof, program, and recording medium | |
Sakaki et al. | Corpus for customer purchase behavior prediction in social media | |
JP2008146610A (en) | Method of recommendation to user on network, recommendation server, and program | |
JP7260439B2 (en) | Extraction device, extraction method and extraction program | |
Shiu et al. | Identifying price sensitive customers in e-commerce platforms for recommender systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20191101 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191108 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201216 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211020 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220621 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220809 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220823 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220907 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7139270 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |