JP7139270B2 - Estimation device, estimation method and estimation program - Google Patents

Estimation device, estimation method and estimation program Download PDF

Info

Publication number
JP7139270B2
JP7139270B2 JP2019050413A JP2019050413A JP7139270B2 JP 7139270 B2 JP7139270 B2 JP 7139270B2 JP 2019050413 A JP2019050413 A JP 2019050413A JP 2019050413 A JP2019050413 A JP 2019050413A JP 7139270 B2 JP7139270 B2 JP 7139270B2
Authority
JP
Japan
Prior art keywords
user
emotion
series
actions
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019050413A
Other languages
Japanese (ja)
Other versions
JP2020154464A (en
Inventor
美晴 永田
孝太 坪内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2019050413A priority Critical patent/JP7139270B2/en
Publication of JP2020154464A publication Critical patent/JP2020154464A/en
Application granted granted Critical
Publication of JP7139270B2 publication Critical patent/JP7139270B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、推定装置、推定方法及び推定プログラムに関する。 The present invention relates to an estimating device, an estimating method, and an estimating program.

近年、利用者の感情に応じた評価を行う技術が知られている。このような情報配信の一例として、利用者の生体情報から感情を推定し、推定した感情に基づいて製品の評価や利用者が閲覧したコンテンツの評価を行う技術が知られている。 In recent years, techniques for performing evaluation according to user's emotions have been known. As an example of such information distribution, there is known a technique of estimating a user's emotion from biometric information and evaluating a product or content viewed by the user based on the estimated emotion.

特開2006-012171号公報Japanese Unexamined Patent Application Publication No. 2006-012171 特開2006-313483号公報JP 2006-313483 A

しかしながら、上述した従来技術では、利用者の感情を適切に推定しているとは言えない場合がある。 However, it may not be possible to say that the user's emotion is properly estimated by the conventional technology described above.

例えば、利用者の感情は、瞬間的な生体情報と対応する感情に基づいて評価を行うにすぎないので、例えば、生体情報がある感情を示していたとしても、利用者は、既に異なる感情を有している、若しくは、まだ生体情報が示す感情を有していない場合が考えられる。この結果、瞬間的な生体情報と対応する感情を推定した場合は、利用者の感情を適切に推定できない恐れがある。 For example, the user's emotion is only evaluated based on the momentary biometric information and the corresponding emotion. It is conceivable that the person may have the emotion indicated by the biometric information, or may not yet have the emotion indicated by the biometric information. As a result, when estimating instantaneous biological information and corresponding emotions, there is a risk that the user's emotions cannot be estimated appropriately.

本願は、上記に鑑みてなされたものであって、利用者の感情を適切に推定することを目的とする。 This application was made in view of the above, and an object of this application is to estimate a user's emotion appropriately.

本願に係る推定装置は、所定の利用者の行動を示す行動情報を取得する取得部と、前記取得部により取得された行動情報に基づいて、前記所定の利用者による一連の行動と因果関係を有する感情を推定する推定部とを有することを特徴とする。 An estimating device according to the present application includes an acquisition unit that acquires behavior information indicating behavior of a predetermined user, and based on the behavior information acquired by the acquisition unit, determines a series of behaviors and a causal relationship of the predetermined user. and an estimating unit for estimating the emotion.

実施形態の一態様によれば、利用者の感情を適切に推定することができるという効果を奏する。 According to one aspect of the embodiment, it is possible to appropriately estimate the user's emotion.

図1は、実施形態に係るネットワークシステムの構成例を示す図である。FIG. 1 is a diagram illustrating a configuration example of a network system according to an embodiment. 図2は、実施形態に係る推定処理の一例を示す図である。FIG. 2 is a diagram illustrating an example of estimation processing according to the embodiment. 図3は、実施形態に係る推定装置の構成例を示す図である。FIG. 3 is a diagram illustrating a configuration example of an estimation device according to the embodiment; 図4は、実施形態に係る学習データ記憶部の一例を示す図である。4 is a diagram illustrating an example of a learning data storage unit according to the embodiment; FIG. 図5は、実施形態に係る推定装置による推定処理手順を示すフローチャートである。FIG. 5 is a flowchart showing an estimation processing procedure by the estimation device according to the embodiment. 図6は、ハードウェア構成の一例を示す図である。FIG. 6 is a diagram illustrating an example of a hardware configuration;

以下に、本願に係る推定装置、推定方法及び推定プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る推定装置、推定方法及び推定プログラムが限定されるものではない。また、各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略する。 Embodiments for implementing the estimation device, estimation method, and estimation program according to the present application (hereinafter referred to as "embodiments") will be described in detail below with reference to the drawings. Note that the estimation device, estimation method, and estimation program according to the present application are not limited by this embodiment. Further, each embodiment can be appropriately combined within a range that does not contradict the processing contents. Further, in each of the following embodiments, the same parts are denoted by the same reference numerals, and overlapping descriptions are omitted.

〔1.ネットワークシステムの構成〕
まず、図1を参照して、実施形態に係るネットワークシステム1の構成について説明する。図1は、実施形態に係るネットワークシステム1の構成例を示す図である。
[1. Network system configuration]
First, the configuration of a network system 1 according to an embodiment will be described with reference to FIG. FIG. 1 is a diagram showing a configuration example of a network system 1 according to an embodiment.

図1に示すように、実施形態に係るネットワークシステム1には、ユーザ装置10~10と、推定装置100とが含まれる(nは任意の自然数)。本明細書では、ユーザ装置10~10を区別する必要がない場合は、ユーザ装置10~10を「ユーザ装置10」と総称する。ユーザ装置10および推定装置100は、それぞれネットワークNと有線又は無線により接続される。図1中では図示していないが、ネットワークシステム1は、複数台の推定装置100を含んでもよい。 As shown in FIG. 1, a network system 1 according to the embodiment includes user devices 10 1 to 10 n and an estimating device 100 (n is any natural number). In this specification, the user devices 10 1 to 10 n are collectively referred to as "user devices 10" when there is no need to distinguish between the user devices 10 1 to 10 n . The user device 10 and the estimation device 100 are each connected to the network N by wire or wirelessly. Although not shown in FIG. 1, the network system 1 may include multiple estimating devices 100 .

ユーザ装置10は、ユーザによって利用される情報処理装置である。ユーザ装置10は、デスクトップ型PC(Personal Computer)、ノート型PC、スマートフォン、タブレット型PCを含む、任意のタイプの情報処理装置であってもよい。 The user device 10 is an information processing device used by a user. The user device 10 may be any type of information processing device including a desktop PC (Personal Computer), a notebook PC, a smart phone, and a tablet PC.

推定装置100は、ユーザの感情を推定する情報処理装置である。推定装置100は、ネットワークNを介して、有線又は無線によりユーザ装置10と通信を行う。 Estimation device 100 is an information processing device that estimates a user's emotion. The estimation device 100 communicates with the user device 10 via the network N by wire or wirelessly.

〔2.推定処理〕
次に、図2を参照して、実施形態に係る推定処理の一例について説明する。図2は、実施形態に係る推定処理の一例を示す図である。
[2. Estimation process]
Next, an example of estimation processing according to the embodiment will be described with reference to FIG. FIG. 2 is a diagram illustrating an example of estimation processing according to the embodiment.

従来、ネットワーク上のサービスを評価するための様々な評価指標が提案されている。例えば、CTR(Click Through Rate)、PV(Page Views)等の評価指標が提案されている。CTR、PV等の評価指標は、明確に定義されているため、サービス提供者は、このような評価指標を用いて、ネットワーク上のサービスの内容を、客観的な数値で評価することができる。 Conventionally, various evaluation indices have been proposed for evaluating services on networks. For example, evaluation indexes such as CTR (Click Through Rate) and PV (Page Views) have been proposed. Since evaluation indices such as CTR and PV are clearly defined, service providers can use such evaluation indices to objectively evaluate the content of services on the network.

一方、近年、「感情」といった比較的明確に定義されていないものも、ネットワーク上のサービスを評価するための評価指標として提案されている。感情は、幸福、嫌悪等の主観的な意識体験であると考えられる。ネットワークを利用するユーザの感情は、例えば、センサデータ(例えば、ユーザに生じた生理的な反応)、テキストデータ(例えば、ユーザによって書かれた文章)、音声データ(例えば、ユーザの発話)、画像データ(例えば、ユーザの表情)等のデータから推定される場合がある。 On the other hand, in recent years, something relatively undefined such as "emotion" has also been proposed as an evaluation index for evaluating services on networks. Emotions can be thought of as subjective conscious experiences such as happiness and disgust. Emotions of users using the network are, for example, sensor data (e.g., physiological reactions occurring in the user), text data (e.g., sentences written by the user), voice data (e.g., user's utterances), images, and so on. It may be estimated from data such as data (eg, user's facial expression).

上述の感情推定に関しては、一般的に、ユーザの感情は、「各瞬間」におけるデータから推定される。 With respect to emotion estimation above, generally the user's emotion is estimated from the data at "moments".

例えば、ユーザの感情を示すフラグが、ある時刻におけるセンサデータに、正解ラベルとして付与される。例えば、ある感情(例えば、「幸福」)が、ある時刻における生理的な反応(例えば、心拍数、体温)に関連付けられる。また、例えば、別の感情(例えば、「嫌悪」)が、別の時刻における生理的な反応に関連付けられる。このような場合、センサデータと正解ラベルとを含む学習データを用いて機械学習を行うことにより、ユーザの感情を推定するモデルが生成される。あるターゲットユーザの心拍数や体温を示すセンサデータが、生成されたモデルに入力された場合に、生成されたモデルは、このターゲットユーザの感情を示すデータ(例えば、ユーザの感情が「幸福」である確率)を出力することができる。 For example, a flag indicating the user's emotion is attached as a correct label to sensor data at a certain time. For example, an emotion (eg, "happiness") is associated with a physiological response (eg, heart rate, body temperature) at a certain time. Also, for example, other emotions (eg, "disgust") are associated with physiological responses at other times. In such a case, a model for estimating the user's emotion is generated by performing machine learning using learning data including sensor data and correct labels. When sensor data indicating a certain target user's heart rate and body temperature is input to the generated model, the generated model will receive data indicating this target user's emotion (for example, the user's emotion is "happiness"). probability) can be output.

言い換えると、一般的に、ユーザの感情を推定するモデルを生成するために、ある瞬間における感情を示すデータが作成される。すなわち、このようなデータは、ユーザの感情のスナップショットである、と考えられる。一般的に、ユーザの感情を推定するモデルは、このような感情のスナップショットに基づいて生成される。 In other words, data indicative of emotions at a given moment are generally created in order to generate a model that estimates the user's emotions. Such data is thus considered to be a snapshot of the user's emotions. In general, a model for estimating a user's emotions is generated based on such emotional snapshots.

このように、一般的な感情推定では、ユーザの感情は、ある瞬間における意識的体験として定義されている。この場合、ユーザの感情は、ある時刻におけるインスタンス(instance)や、ある時刻における特徴ベクトル(feature vector)に関連付けられている。しかしながら、ユーザの感情は、ある瞬間における意識的体験であるとは限らない。例えば、ユーザの感情はある「過程」における意識的体験である、とも考えられる。このような感情と行動との有効理論の観点からは、たとえ、ユーザの感情が、「各時刻」におけるインスタンスに対応するとしても、ユーザの感情は、「所定の期間」におけるインスタンスにも対応し得る。 Thus, in general emotion estimation, a user's emotion is defined as the conscious experience at a given moment. In this case, the user's emotion is associated with an instance at a certain time and a feature vector at a certain time. However, a user's emotions are not necessarily conscious experiences at a given moment. For example, a user's emotions can be thought of as a conscious experience in a certain "process." From the perspective of such effective theory of emotion and action, even if the user's emotion corresponds to an instance at "each time", the user's emotion also corresponds to an instance at a "predetermined time period". obtain.

説明のための一例として、ユーザの行動は、細かい行動の線が集まった1つの太い束であると仮定する。細かい行動の線が集まった1つの太い束とは、複数の行動の線の束のことである。例えば、ユーザの行動は、「調べる」、「買う」といった行動に相当する。この場合、細かい行動の線は、ユーザによって閲覧されている画面の内容(すなわち、閲覧するという行動)、ユーザの操作等の行動に相当する。この例では、ユーザの感情は、ユーザの行動の推移(すなわち、ユーザの行動過程)における意識的体験である、と考えられる。 As an illustrative example, assume that a user's behavior is a thick bundle of fine behavior lines. One thick bundle of fine action lines is a bundle of a plurality of action lines. For example, user actions correspond to actions such as "search" and "buy". In this case, the detailed action lines correspond to the content of the screen being viewed by the user (that is, the action of viewing) and actions such as user operations. In this example, the user's emotion is considered to be the conscious experience of the user's course of action (ie, the user's course of action).

言い換えると、上述の「複数の行動の線の束」の観点からは、ユーザの感情を上述の「感情のスナップショット」で定義することは適切でない、と考えられる。一方、上述の「感情と行動との有効理論」の観点からは、ユーザの感情を「複数の行動の線の束」で定義することは妥当である、と考えられる。例えば、ユーザの感情は、複数の行動が集まった1つの太い束の結果である、と考えられる。より具体的には、ユーザの感情は、ユーザの一連の行動に応じて決まるものである、と考えられる。 In other words, it is considered inappropriate to define the user's emotion by the above-described "snapshot of emotion" from the viewpoint of the above-described "bundle of lines of behavior". On the other hand, from the viewpoint of the above-mentioned "effective theory of emotion and action", it is considered appropriate to define the user's emotion as a "bundle of lines of a plurality of actions". For example, a user's emotions can be thought of as the result of one big bundle of actions. More specifically, the user's emotions are considered to be determined according to a series of actions of the user.

例えば、ある人物があるユーザに「この瞬間どんな気分?」と質問した場合に、このユーザは、自分の感情を適切に把握できないかもしれない。一方、ある人物があるユーザに「あの時はどんな気分?」と質問した場合には、このユーザは、自分の感情を適切に把握できるかもしれない。この場合、このようなユーザの感情は、「雰囲気」に近いものである、といえる。 For example, when a person asks a user, "How are you feeling at this moment?", this user may not be able to properly grasp his/her emotions. On the other hand, if a person asks a user, "How are you feeling at that time?" In this case, it can be said that such a user's emotion is close to the "atmosphere".

そこで、図2の例示的な実施形態では、推定装置100は、ユーザの感情を分析するために、以下に説明される推定処理を実行する。 Thus, in the exemplary embodiment of FIG. 2, the estimating device 100 performs an estimating process described below to analyze the user's emotions.

以下に説明される推定処理の一例では、推定装置100は、ユーザの一連の行動(例えば、ユーザによって閲覧されている画面の内容(すなわち、閲覧するという行動)、ユーザの操作等のウェブ行動)と、このユーザの感情との因果関係を分析する。なお、この推定処理の一例では、推定装置100が因果関係を分析した後に、推定装置100は、因果関係の分析結果を利用して、コンテンツをユーザに提供する。 In an example of the estimation process described below, the estimation device 100 performs a series of actions of the user (for example, contents of the screen being viewed by the user (that is, action of browsing), web actions such as user operations). and the causal relationship with this user's emotion. In addition, in this example of the estimation process, after the estimation device 100 analyzes the causal relationship, the estimation device 100 uses the causal relationship analysis result to provide the content to the user.

上述の因果関係の分析に関しては、推定装置100は、上述の「複数の行動の線の束」としてのユーザの一連の行動を解きほぐし、全体を統括する感情と、複数の行動の線の各々の有無とに基づいて、ユーザの一連の行動と、このユーザの感情との因果関係を調べる。このように、推定装置100は、ユーザが一連の行動をとった状況下において、個々のユーザの行動(例えば、個別の商品に関する閲覧行動、個別の商品に関する購入行動)を切り分けて、ユーザの感情(すなわち、雰囲気に近いような感情)を追跡する。 Regarding the analysis of the causal relationship described above, the estimation device 100 unravels the series of actions of the user as the above-described “bundling of a plurality of behavior lines”, Based on presence or absence, the causal relationship between the user's series of actions and the user's emotions is examined. In this way, the estimating apparatus 100 separates individual user behavior (for example, viewing behavior regarding individual products, purchasing behavior regarding individual products) under a situation in which the user has taken a series of actions, and determines the emotions of the user. (i.e. emotions that are close to mood).

図2の例では、はじめに、推定装置100は、ユーザの行動情報を取得する(ステップS11)。 In the example of FIG. 2, first, the estimation device 100 acquires user behavior information (step S11).

図2には図示されていないが、推定装置100は、例えば、検索やポータル、SNS(Social Network Service)、オークションサービス、地図情報サービス等のネットワーク上のサービス(例えば、ウェブサービス)を、ユーザに提供してもよい。そして、推定装置100は、ネットワーク上のサービスを介して、ユーザの行動情報を、ユーザのユーザ装置10から受信してもよい。このようにして、推定装置100は、ユーザの行動情報を取得することができる。 Although not shown in FIG. 2, the estimating device 100 provides services (for example, web services) on the network such as search, portal, SNS (Social Network Service), auction service, map information service, etc. to the user. may provide. Then, the estimation device 100 may receive the user's behavior information from the user's user device 10 via a service on the network. Thus, the estimation device 100 can acquire the user's behavior information.

取得されたユーザ情報は、ネットワーク上のユーザの行動を示す。例えば、取得された行動情報は、クリック履歴、閲覧されたコンテンツの履歴、広告の選択履歴、SNSの投稿履歴、オークションの出品履歴、オークションの落札履歴、購入履歴、位置履歴(例えば、GPS(Global Positioning System)の履歴、ビーコン検知履歴)等のネットワーク上の各種ログを示す。 The obtained user information indicates user behavior on the network. For example, the acquired behavior information includes the click history, the history of browsed content, the selection history of advertisements, the posting history of SNS, the exhibition history of auctions, the winning bid history of auctions, the purchase history, the location history (for example, GPS (Global Positioning System) history, beacon detection history), etc.

次いで、推定装置100は、取得された行動情報に基づいて、ユーザが所定の取引対象(例えば、商品、サービス)を購入したタイミングを特定し、取得された行動情報のうち、特定されたタイミングを含む所定の期間におけるユーザの行動を示す行動情報を決定する(ステップS12)。 Next, the estimating device 100 identifies the timing at which the user purchased a predetermined transaction object (for example, a product or service) based on the acquired behavioral information, and identifies the identified timing from the acquired behavioral information. Behavior information indicating the behavior of the user during a predetermined period of time is determined (step S12).

図2の例では、決定された行動情報は、行動UA11、行動UA12、行動UA13、行動UA14等の所定の期間における行動を示すデータとして示されている。また、決定された行動情報は、ユーザが所定の期間において所定の商品を購入したことを示す。 In the example of FIG. 2, the determined action information is shown as data indicating actions in a predetermined period, such as action UA11, action UA12, action UA13, action UA14. Also, the determined behavior information indicates that the user has purchased a predetermined product in a predetermined period.

例えば、決定された行動情報は、ユーザが、行動UA11をとり、行動UA12をとり、行動UA13をとり、行動UA14をとり、その後所定の商品を購入したことを示してもよい。また、例えば、決定された行動情報は、ユーザが、行動UA11をとり、行動UA12をとり、所定の商品を購入し、行動UA13をとり、その後行動UA14をとったことを示してもよい。 For example, the determined action information may indicate that the user took action UA11, action UA12, action UA13, action UA14, and then purchased a predetermined product. Further, for example, the determined action information may indicate that the user took action UA11, action UA12, purchased a predetermined product, action UA13, and then action UA14.

次いで、推定装置100は、上述の所定の期間におけるユーザの感情を推定し、推定されたユーザの感情と、決定された行動情報とを含む学習データ(すなわち、訓練データ)を生成する(ステップS13)。 Next, the estimating apparatus 100 estimates the user's emotion during the predetermined period described above, and generates learning data (that is, training data) including the estimated user's emotion and the determined behavioral information (step S13). ).

例示のために、図2の例では、ユーザが、ウェアラブルデバイス等のセンシングデバイスを利用していると仮定する。この例では、推定装置100は、センシングデバイスを用いて、ユーザの生理的な反応(例えば、心拍数や体温の変化)を特定する。センシングデバイスは、ユーザ装置10であってもよい。そして、推定装置100は、特定された生理的な反応に基づいて、上述の所定の期間におけるユーザの感情を推定することができる。例えば、推定装置100は、特定された生理的な反応に基づいて、「幸福」、「驚き」、「恐れ」等の感情(例えば、基本6感情)を、所定の期間におけるユーザの感情として推定する。このような感情は、取引対象の購入と関連性がある感情であってもよい。例えば、推定装置100は、幸福、喜び、情熱、楽しみ等のポジティブ感情を、所定の期間におけるユーザの感情として推定してもよい。 For illustrative purposes, the example of FIG. 2 assumes that the user is utilizing a sensing device, such as a wearable device. In this example, the estimating apparatus 100 uses the sensing device to identify the user's physiological response (for example, changes in heart rate or body temperature). The sensing device may be the user equipment 10 . Estimation device 100 can then estimate the user's emotion during the above-described predetermined period based on the identified physiological response. For example, the estimation device 100 estimates emotions such as “happiness”, “surprise”, and “fear” (for example, six basic emotions) as the emotions of the user during a predetermined period based on the specified physiological reaction. do. Such emotions may be emotions associated with the purchase of a transactional object. For example, the estimation device 100 may estimate positive emotions such as happiness, joy, passion, fun, etc., as the user's emotions during a predetermined period.

このようにして、推定装置100は、推定されたユーザの感情を、決定された行動情報に関連付けることができる。その結果、推定装置100は、推定されたユーザの感情と、決定された行動情報とを含む学習データを生成することができる。 In this way, the estimation device 100 can associate the estimated user's emotion with the determined behavioral information. As a result, estimation device 100 can generate learning data including the estimated user's emotion and the determined behavioral information.

なお、上述の所定の期間におけるユーザの感情は、例えば、所定の期間の途中におけるユーザの感情である。上述の所定の期間におけるユーザの感情は、所定の期間の後におけるユーザの感情であってもよい。すなわち、上述の所定の期間におけるユーザの感情は、一連の行動の直後の感情であってもよい。 It should be noted that the user's emotion during the predetermined period described above is, for example, the user's emotion during the predetermined period. The user's emotion during the predetermined time period described above may be the user's emotion after the predetermined time period. That is, the user's emotion in the above-described predetermined period may be the emotion immediately after the series of actions.

次いで、推定装置100は、生成された学習データに基づいて、MIL(Multiple Instance Learning)を行い、ユーザの感情を予測する予測モデルを生成する(ステップS14)。 Estimation apparatus 100 then performs MIL (Multiple Instance Learning) based on the generated learning data to generate a prediction model that predicts the user's emotion (step S14).

上述のMILは、教師あり学習(supervised learning)の一手法である。MILとは、1つまたは複数のインスタンスに1つの正解ラベルが関連付けられた学習データを用いて、「ラベルが未知のインスタンス」または「ラベルが未知の1つまたは複数のインスタンス」のラベルを予測する手法を指す。なお、インスタンスは、特徴ベクトルとも呼ばれる。 MIL, described above, is a method of supervised learning. MIL predicts the label of "an instance with an unknown label" or "one or more instances with an unknown label" using learning data in which one or more instances are associated with one correct label. refers to the method. An instance is also called a feature vector.

例えば、MILでは、1つまたは複数のインスタンスに対応する1つまたは複数のタプル(tuple)に、1つの正解ラベルが関連付けられている。より具体的には、1つまたは複数のインスタンスが、ポジティブバッグ(positive bag)またはネガティブバッグ(negative bag)に含まれる。ポジティブバッグは、1つまたは複数のポジティブインスタンス(positive instance)を含む。一方、ネガティブバッグは、1つまたは複数のネガティブインスタンス(negative instance)のみを含む。この点に関し、一般的な教師あり学習では、1つのインスタンス(すなわち、1つのタプル)に、1つの正解ラベルが関連付けられている。 For example, in MIL, one correct label is associated with one or more tuples corresponding to one or more instances. More specifically, one or more instances are included in a positive bag or a negative bag. A positive bag contains one or more positive instances. A negative bag, on the other hand, contains only one or more negative instances. In this regard, in general supervised learning, one correct label is associated with one instance (ie, one tuple).

なお、MILでは、一般的な教師あり学習の場合と同様に、インスタンスの次元は、予め設定されている。すなわち、インスタンスは、N次元のインスタンス空間(Nは、次元の数)上で定義される。しかしながら、上述のように、MILでは、1つまたは複数のインスタンスに、1つの正解ラベルが関連付けられている。したがって、MILでは、学習データの入力として用いられるインスタンスの数(すなわち、タプルの数)は、固定されていない。言い換えると、カーディナリティ(cardinality)は、バッグ(すなわち、ポジティブバッグまたはネガティブバッグ)によって異なり得る。 In MIL, the dimensions of instances are set in advance, as in general supervised learning. That is, an instance is defined on an N-dimensional instance space (N is the number of dimensions). However, as noted above, in MIL one correct label is associated with one or more instances. Therefore, in MIL, the number of instances (that is, the number of tuples) used as input for training data is not fixed. In other words, the cardinality can be different for different bags (ie positive or negative bags).

予測モデルの生成に関しては、MILでは、上述の1つまたは複数のインスタンスに1つの正解ラベルが関連付けられた学習データを用いて、ラベルを予測する予測モデルが生成される。 Regarding the generation of the prediction model, MIL generates a prediction model that predicts labels using learning data in which one correct label is associated with one or more of the instances described above.

例えば、EMDD(Expectation Maximization Diverse Density)の手法により、あるインスタンスがポジティブインスタンスである事後確率を出力する確率モデルが生成される。また、例えば、MILブースト(boost)の手法により、このような確率モデルが生成され得る。また、例えば、SVM(Support Vector Machine)の手法(例えば、miSVM、MISVM)により、あるインスタンスをポジティブインスタンスまたはネガティブインスタンスのうちの1つに分類する分類モデルが生成される。 For example, an EMDD (Expectation Maximization Diverse Density) technique generates a probabilistic model that outputs the posterior probability that a given instance is a positive instance. Such probabilistic models can also be generated, for example, by the MIL boost technique. Also, for example, a classification model that classifies a certain instance into either a positive instance or a negative instance is generated by a SVM (Support Vector Machine) technique (eg, miSVM, MISVM).

また、例えば、SVMの手法により、あるバッグをポジティブバッグまたはネガティブバッグのうちの1つに分類する分類モデルも生成され得る。より具体的には、バッグ空間におけるバッグ間の距離(例えば、ハウスドルフ距離)に基づく距離関数(distance function)を用いたSVMの手法により、このような分類モデルが生成され得る。 Also, for example, the SVM approach can generate a classification model that classifies a bag into one of a positive bag or a negative bag. More specifically, an SVM approach using a distance function based on the distance between bags in bag space (eg, the Hausdorff distance) can generate such a classification model.

なお、MILでは、ラベルを予測する予測モデルを生成することなく、ラベルが予測され得る。例えば、MILでは、パターン分類のアルゴリズムによって、ラベルが予測され得る。例えば、CKNN(Citation k Nearest Neighbor)の手法により、あるバッグは、ポジティブバッグまたはネガティブバッグのうちの1つに分類されてもよい。 Note that in MIL, labels can be predicted without creating a prediction model to predict the labels. For example, in MIL labels can be predicted by pattern classification algorithms. For example, according to the Citation k Nearest Neighbor (CKNN) approach, a bag may be classified as one of a positive bag or a negative bag.

図2の例では、1つのユーザの行動が、上述の1つのインスタンスに対応する。 In the example of FIG. 2, one user's action corresponds to one instance described above.

例えば、インスタンスの11番目の成分が、スクロール操作に対応してもよい。また、例えば、インスタンスの12番目の成分が、ジェスチャに対応してもよい。また、例えば、インスタンスの13番目の成分が、センサデータ(例えば、ユーザ装置10のモーション)に対応してもよい。 For example, the eleventh component of an instance may correspond to a scroll operation. Also, for example, the twelfth component of an instance may correspond to a gesture. Also, for example, the thirteenth component of the instance may correspond to sensor data (eg, motion of the user device 10).

また、例えば、インスタンスの21番目の成分が、閲覧されたコンテンツに対応してもよい。また、例えば、インスタンスの22番目の成分が、選択されたコンテンツに対応してもよい。また、例えば、インスタンスの23番目の成分が、検索されたコンテンツに対応してもよい。 Also, for example, the 21st component of the instance may correspond to the viewed content. Also, for example, the 22nd component of the instance may correspond to the selected content. Also, for example, the 23rd component of the instance may correspond to the retrieved content.

また、例えば、インスタンスの31番目の成分が、購入された取引対象に対応してもよい。また、例えば、インスタンスの32番目の成分が、支払われたコスト(例えば、ユーザによりサービス提供者へ支払われた金額)に対応してもよい。また、例えば、インスタンスの33番目の成分が、利用されたサービスに対応してもよい。 Also, for example, the 31st component of an instance may correspond to a purchased trade object. Also, for example, the 32nd component of an instance may correspond to the cost paid (eg, the amount paid by the user to the service provider). Also, for example, the 33rd component of the instance may correspond to the service used.

また、図2の例では、1つまたは複数のユーザの行動に、1つの感情が関連付けられている。言い換えると、この1つの感情は、上述のラベルに対応する。また、1つまたは複数のユーザの行動は、この1つの感情のバッグ(例えば、ポジティブバッグまたはネガティブバッグ)に含まれる。 Also, in the example of FIG. 2, one emotion is associated with one or more user actions. In other words, this one emotion corresponds to the above label. Also, one or more user actions are included in this one emotional bag (eg, positive bag or negative bag).

例えば、行動UA11、行動UA12、行動UA13および行動UA14に、感情「幸福」が関連付けられていてもよい。また、例えば、行動UA21および行動UA22(図示せず)に、感情「情熱」が関連付けられていてもよい。また、例えば、行動UA31、行動UA32および行動UA33(図示せず)に、感情「楽しみ」が関連付けられていてもよい。 For example, action UA11, action UA12, action UA13, and action UA14 may be associated with the emotion "happiness." Also, for example, the action UA21 and the action UA22 (not shown) may be associated with the emotion "passion". Also, for example, the action UA31, the action UA32, and the action UA33 (not shown) may be associated with the emotion "enjoyment".

言い換えると、行動UA11、行動UA12、行動UA13および行動UA14は、感情「幸福」のポジティブバッグに含まれてもよい。この場合、例えば、行動UA41および行動UA42(図示せず)が、感情「幸福」のネガティブバッグに含まれてもよい。感情「幸福」のポジティブバッグは、感情「幸福」に対応する1つまたは複数の行動を含む。一方、感情「幸福」のネガティブバッグは、1つまたは複数の感情「幸福」に対応しない行動のみを含む。 In other words, action UA11, action UA12, action UA13 and action UA14 may be included in the positive bag of the emotion "happiness". In this case, for example, action UA41 and action UA42 (not shown) may be included in the negative bag of the emotion "happiness". The positive bag for the emotion Happiness contains one or more actions corresponding to the emotion Happiness. On the other hand, the negative bag for the emotion Happiness contains only behaviors that do not correspond to one or more emotions Happiness.

すなわち、感情「幸福」のポジティブバッグは、ユーザが行動UA11をとり、行動UA12をとり、行動UA13をとり、その後行動UA14をとった期間において、このユーザが感情「幸福」を経験したことを示す。一方、感情「幸福」のネガティブバッグは、ユーザが行動A41をとり、その後行動A42をとった期間において、このユーザが感情「幸福」を経験しなかったことを示す。このようにして、MILが、感情分析(sentiment analysis)のドメインに適用される。 That is, the positive bag of the emotion “happiness” indicates that the user experienced the emotion “happiness” during the period in which the user took action UA11, action UA12, action UA13, and then action UA14. . On the other hand, the negative bag for the emotion “happiness” indicates that the user did not experience the emotion “happiness” during the period in which the user took action A41 and then took action A42. In this way, MIL is applied to the domain of sentiment analysis.

例示のために、図2の例では、推定装置100は、生成された学習データに基づいて、MILを行い、ユーザの感情を予測する予測モデルとして、ユーザの感情を分類するSVMを生成すると仮定する。この例では、1つまたは複数のユーザの行動を示す行動情報が、生成されたSVMに入力された場合に、生成されたSVMは、ユーザが1つまたは複数のユーザの行動をとった期間におけるユーザの感情を分類する。 For illustration purposes, in the example of FIG. 2, it is assumed that the estimating apparatus 100 performs MIL based on the generated learning data and generates an SVM that classifies the user's emotion as a prediction model that predicts the user's emotion. do. In this example, when behavior information indicative of one or more user behaviors is input into the generated SVM, the generated SVM may be Classify user sentiment.

例えば、生成されたSVMは、1つまたは複数のユーザの行動を、感情「幸福」に対応する行動に分類する。また、例えば、生成されたSVMは、別の1つまたは複数のユーザの行動を、感情「幸福」に対応しない行動に分類する。 For example, the generated SVM classifies one or more user actions into actions corresponding to the emotion "happiness". Also, for example, the generated SVM classifies the actions of another one or more users into actions that do not correspond to the emotion "happiness".

次いで、推定装置100は、ターゲットユーザの行動情報を取得する(ステップS15)。 Next, the estimation device 100 acquires behavior information of the target user (step S15).

上述のターゲットユーザは、上述のMILを用いた感情推定の対象(target)となるユーザである。図2には図示されていないが、例えば、推定装置100は、上述のネットワーク上のサービスを介して、ターゲットユーザの行動情報を、ターゲットユーザのユーザ装置10から受信してもよい。このようにして、推定装置100は、ターゲットユーザの行動情報を取得することができる。 The above-mentioned target user is a user who is the target of emotion estimation using the above-mentioned MIL. Although not shown in FIG. 2, for example, the estimation device 100 may receive the target user's behavior information from the target user's user device 10 via the service on the network described above. In this way, the estimation device 100 can acquire behavior information of the target user.

次いで、推定装置100は、取得されたターゲットユーザの行動情報を、生成された予測モデルに入力することによって、ターゲットユーザの感情と、この感情と因果関係を有するターゲットユーザの一連の行動とを推定する(ステップS16)。 Next, the estimating device 100 inputs the acquired behavior information of the target user into the generated prediction model, thereby estimating the emotion of the target user and a series of behaviors of the target user having a causal relationship with this emotion. (step S16).

例示のために、図2の例では、推定装置100は、第1のターゲットユーザの行動TUA11および行動TUA12にそれぞれ対応する複数のインスタンスを、生成された予測モデルに入力することによって、第1のターゲットユーザの行動TUA11および行動TUA12を、感情「幸福」に対応する行動に分類すると仮定する。さらに、第1のターゲットユーザの行動TUA11および行動TUA12が、「取引対象を調べる」という行動に対応すると仮定する。この例では、推定装置100は、「取引対象を調べる」という行動を、感情「幸福」と因果関係を有する一連の行動として推定する。 For illustration purposes, in the example of FIG. 2 , the estimating device 100 generates a first Assume that the target user's behavior TUA11 and behavior TUA12 are classified into behaviors corresponding to the emotion "happiness". Further, assume that the behavior TUA11 and the behavior TUA12 of the first target user correspond to the behavior "investigate trading object". In this example, the estimating device 100 estimates the action of “examining the transaction target” as a series of actions having a causal relationship with the emotion “happiness”.

さらに、図2の例では、推定装置100は、第2のターゲットユーザの行動TUA21および行動TUA22にそれぞれ対応する複数のインスタンスを、生成された予測モデルに入力することによって、第2のターゲットユーザの行動TUA21および行動TUA22を、感情「楽しみ」に対応する行動に分類すると仮定する。さらに、第2のターゲットユーザの行動TUA21および行動TUA22が、「取引対象を購入する」という行動に対応すると仮定する。この例では、推定装置100は、この例では、推定装置100は、「取引対象を購入する」という行動を、感情「楽しみ」と因果関係を有する一連の行動として推定する。 Furthermore, in the example of FIG. 2 , the estimation device 100 inputs a plurality of instances respectively corresponding to the behavior TUA21 and the behavior TUA22 of the second target user to the generated prediction model, thereby Assume that action TUA21 and action TUA22 are classified into actions corresponding to the emotion "enjoyment". Further assume that the behavior TUA21 and the behavior TUA22 of the second target user correspond to the behavior "purchase the transaction object". In this example, the estimation device 100 estimates the action of "purchasing a transaction target" as a series of actions having a causal relationship with the emotion of "enjoyment".

その後、推定装置100は、推定された「ターゲットユーザの感情」と、推定された「ターゲットユーザの一連の行動」との組み合わせが所定の条件を満たすか否かを判定し、組み合わせが所定の条件を満たすと判定された場合に、ターゲットユーザに広告を提供する(ステップS17)。 Thereafter, the estimating apparatus 100 determines whether a combination of the estimated "target user's emotions" and the estimated "target user's series of actions" satisfies a predetermined condition, and the combination satisfies the predetermined condition. is provided to the target user (step S17).

例示のために、図2の例では、ターゲットユーザに広告を提供するための所定の条件が、「推定されたターゲットユーザの感情と、推定されたターゲットユーザの一連の行動との組み合わせが、幸福、喜び、情熱、楽しみ等のポジティブ感情と、取引対象に出会うという行動、取引対象を調べるという行動、取引対象を購入するという行動、サービス提供者にコストを支払うという行動、サービスを利用する等の行動との組み合わせである」という条件であると仮定する。この例では、推定装置100は、第1のターゲットユーザの「取引対象を調べる」という行動と、第1のターゲットユーザの感情「幸福」の組み合わせが、ターゲットユーザに広告を提供するための所定の条件を満たすと判定する。また、推定装置100は、第2のターゲットユーザの「取引対象を購入する」という行動と、第2のターゲットユーザの感情「楽しみ」の組み合わせが、ターゲットユーザに広告を提供するための所定の条件を満たすと判定する。したがって、推定装置100は、第1のターゲットユーザおよび第2のターゲットユーザに、広告を提供する。 For purposes of illustration, in the example of FIG. 2, the predetermined condition for providing advertisements to the target user is "the combination of the estimated target user's emotion and the estimated target user's set of behaviors is happiness. , positive emotions such as joy, passion, and enjoyment; the behavior of encountering transaction objects; the behavior of examining transaction objects; the behavior of purchasing transaction objects; It is assumed that it is a condition that it is a combination with behavior. In this example, the estimating device 100 determines that the combination of the first target user's action of "examining transaction objects" and the first target user's emotion of "happiness" is a predetermined value for providing advertisements to the target user. It is determined that the conditions are satisfied. Further, the estimation device 100 determines that the combination of the second target user's action of "purchasing the transaction object" and the second target user's emotion of "enjoyment" is a predetermined condition for providing the target user with the advertisement. is determined to be satisfied. Accordingly, the estimating device 100 provides advertisements to the first target user and the second target user.

上述のように、実施形態に係る推定装置100は、ユーザの一連の行動と、このユーザの感情との因果関係を分析する。そして、推定装置100は、因果関係の分析結果を利用して、コンテンツ(例えば、広告)をユーザに提供する。これにより、推定装置100は、サービス提供者が、サービスの利用を促進させることを可能にする。 As described above, the estimation device 100 according to the embodiment analyzes the causal relationship between the user's series of actions and the user's emotions. Then, the estimation device 100 uses the causal relationship analysis result to provide the user with content (for example, an advertisement). Thereby, the estimation device 100 enables the service provider to promote the use of the service.

例えば、サービスのサイクルは、取引対象(例えば、商品またはサービス)に出会う過程、取引対象を調べる過程、取引対象を購入する過程、サービス提供者にコストを支払う過程、およびサービスを利用する過程を含む。これらの過程のいずれかにおいて、ユーザが不快な経験をした場合に、このユーザは、サービスから離脱する可能性がある。これに関して、推定装置100は、サービス提供者が、ユーザの一連の行動と因果関係を有する感情を、サービスを評価するための評価指標として利用することを可能にする。これにより、推定装置100は、サービス提供者が、サービスを利用するユーザの視点に立ち、ユーザエクスペリエンスを向上させることを可能にする。このため、推定装置100は、上述の過程のいずれかにおいて、ユーザがサービスから離脱する可能性を低減することができる。以下、このような推定処理を実現する推定装置100について詳細に説明する。 For example, the service cycle includes the process of encountering a transaction object (e.g., goods or services), examining the transaction object, purchasing the transaction object, paying a cost to the service provider, and using the service. . If the user has an unpleasant experience during any of these processes, the user may leave the service. In this regard, the estimating device 100 enables service providers to use emotions that have a causal relationship with a series of user actions as an evaluation index for evaluating services. Thereby, the estimation device 100 enables the service provider to improve the user experience from the viewpoint of the user who uses the service. Therefore, the estimating apparatus 100 can reduce the possibility that the user will withdraw from the service in any of the processes described above. The estimation device 100 that implements such estimation processing will be described in detail below.

〔3.推定装置の構成〕
次に、図3を参照して、実施形態に係る推定装置100の構成例について説明する。図3は、実施形態に係る推定装置100の構成例を示す図である。図3に示すように、推定装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、推定装置100は、推定装置100を利用する管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(液晶ディスプレイ等)を有してもよい。
[3. Configuration of estimation device]
Next, a configuration example of the estimation device 100 according to the embodiment will be described with reference to FIG. FIG. 3 is a diagram illustrating a configuration example of the estimation device 100 according to the embodiment. As shown in FIG. 3 , estimation device 100 includes communication unit 110 , storage unit 120 , and control unit 130 . Note that the estimation apparatus 100 has an input unit (for example, keyboard, mouse, etc.) that receives various operations from an administrator or the like who uses the estimation apparatus 100, and a display unit (liquid crystal display, etc.) for displaying various information. may

(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。通信部110は、ネットワーク網と有線又は無線により接続され、ネットワーク網を介して、ユーザ装置10との間で情報の送受信を行う。
(Communication unit 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card) or the like. The communication unit 110 is connected to a network by wire or wirelessly, and transmits and receives information to and from the user device 10 via the network.

(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。図3に示すように、記憶部120は、学習データ記憶部121を有する。
(storage unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory device such as a RAM (Random Access Memory) or flash memory, or a storage device such as a hard disk or an optical disk. As shown in FIG. 3 , the storage section 120 has a learning data storage section 121 .

(学習データ記憶部121)
図4は、実施形態に係る学習データ記憶部121の一例を示す図である。学習データ記憶部121は、学習データのセット(すなわち、データセット)を記憶する。
(Learning data storage unit 121)
FIG. 4 is a diagram showing an example of the learning data storage unit 121 according to the embodiment. The learning data storage unit 121 stores sets of learning data (that is, data sets).

例えば、学習データ記憶部121は、ユーザの感情と、この感情と因果関係を有するこのユーザの一連の行動との間の関係性を学習するための学習データのセットを記憶する。より具体的には、学習データ記憶部121は、MILの手法により、ユーザの感情と、この感情と因果関係を有するこのユーザの一連の行動との間の関係性を学習するための学習データのセットを記憶する。 For example, the learning data storage unit 121 stores a set of learning data for learning the relationship between a user's emotion and a series of actions of the user that have a causal relationship with this emotion. More specifically, the learning data storage unit 121 stores learning data for learning the relationship between the user's emotion and the user's series of actions that have a causal relationship with the user's emotion using the MIL technique. memorize the set.

学習データ記憶部121は、例えば、受信部131によって受信された学習データを記憶する。図4の例では、学習データ記憶部121には、「学習データ」が「学習データID」ごとに記憶される。例示として、「学習データ」には、項目「バッグ」および項目「ラベル」が含まれる。 The learning data storage unit 121 stores learning data received by the receiving unit 131, for example. In the example of FIG. 4, the learning data storage unit 121 stores "learning data" for each "learning data ID". Illustratively, the “learning data” includes the item “bag” and the item “label”.

「学習データID」は、学習データを識別するための識別子を示す。「バッグ」は、学習データのセットに含まれるバッグを示す。「ラベル」は、バッグに関連付けられた正解ラベルを示す。 “Learning data ID” indicates an identifier for identifying learning data. "Bag" indicates a bag included in the training data set. "Label" indicates the correct label associated with the bag.

上述のように、MILでは、1つまたは複数のインスタンスに対応する1つまたは複数のタプルに、1つの正解ラベルが関連付けられている。より具体的には、1つまたは複数のインスタンスが、ポジティブバッグまたはネガティブバッグに含まれる。ポジティブバッグは、1つまたは複数のポジティブインスタンスを含む。一方、ネガティブバッグは、1つまたは複数のネガティブインスタンスのみを含む。 As noted above, in MIL, one correct label is associated with one or more tuples corresponding to one or more instances. More specifically, one or more instances are included in either the positive bag or the negative bag. A positive bag contains one or more positive instances. A negative bag, on the other hand, contains only one or more negative instances.

例えば、図4は、学習データID「D1」で識別される学習データのバッグが、「行動UA11」、「行動UA12」、「行動UA13」および「行動UA14」にそれぞれ対応する複数のインスタンスを含む「ポジティブバッグ」であることを示している。 For example, in FIG. 4, the learning data bag identified by the learning data ID "D1" includes a plurality of instances respectively corresponding to "action UA11", "action UA12", "action UA13" and "action UA14". It shows that it is a "positive bag".

また、例えば、図4は、学習データID「D1」で識別される学習データのバッグに関連付けられた正解ラベルが、感情「幸福」であることを示している。 Also, for example, FIG. 4 shows that the correct label associated with the learning data bag identified by the learning data ID “D1” is the emotion “happiness”.

すなわち、図4は、あるユーザが行動UA11をとり、行動UA12をとり、行動UA13をとり、行動UA14をとった所定の期間において、このユーザが感情「幸福」を経験したことを示している。 That is, FIG. 4 shows that the user experienced the emotion "happiness" during a predetermined period of time during which the user took action UA11, action UA12, action UA13, and action UA14.

また、例えば、図4は、学習データID「D2」で識別される学習データのバッグが、「行動UA21」および「行動UA22」にそれぞれ対応する複数のインスタンスを含む「ネガティブバッグ」であることを示している。 Also, for example, FIG. 4 shows that the bag of learning data identified by the learning data ID “D2” is a “negative bag” that includes a plurality of instances respectively corresponding to “action UA21” and “action UA22”. showing.

また、例えば、図4は、学習データID「D2」で識別される学習データのバッグに関連付けられた正解ラベルが、感情「情熱」であることを示している。 Also, for example, FIG. 4 shows that the correct label associated with the learning data bag identified by the learning data ID “D2” is the emotion “passion”.

すなわち、図4は、あるユーザが行動UA21をとり、行動UA22をとった所定の期間において、このユーザが感情「情熱」を経験しなかったことを示す。 That is, FIG. 4 shows that a certain user did not experience the emotion “passion” during a predetermined period of time during which the user took action UA21 and took action UA22.

なお、所定の期間におけるユーザの感情は、例えば、所定の期間の途中におけるユーザの感情であるが、これに限定されるものではない。上述の所定の期間におけるユーザの感情は、所定の期間の後におけるユーザの感情であってもよい。すなわち、上述の所定の期間におけるユーザの感情は、一連の行動の直後の感情であってもよい。また、上述の所定の期間におけるユーザの感情は、所定の期間の前におけるユーザの感情であってもよい。すなわち、上述の所定の期間におけるユーザの感情は、一連の行動の直前の感情であってもよい。 Note that the user's emotion during the predetermined period is, for example, the user's emotion during the predetermined period, but is not limited to this. The user's emotion during the predetermined time period described above may be the user's emotion after the predetermined time period. That is, the user's emotion in the above-described predetermined period may be the emotion immediately after the series of actions. Also, the user's emotion during the predetermined period may be the user's emotion before the predetermined period. That is, the user's emotion in the above-described predetermined period may be the emotion immediately before the series of actions.

すなわち、所定の期間におけるユーザの感情は、所定の期間全体にわたる感情であってもよい。また、所定の期間におけるユーザの感情は、所定の期間の直後の感情であってもよい。また、所定の期間におけるユーザの感情は、所定の期間の直前の感情であってもよい。 That is, the user's emotion over a predetermined period of time may be the emotion over the entire predetermined period of time. Also, the user's emotion during the predetermined period may be the emotion immediately after the predetermined period. Also, the user's emotion during the predetermined period may be the emotion immediately before the predetermined period.

行動と感情との関係に関しては、ユーザが一連の行動をとっている間に、ある感情が生まれる場合がある。一方、ユーザの一連の行動が、ある感情を生み出す場合もある。また、ある感情が生まれたために、ユーザが一連の行動をとる場合もある。 Regarding the relationship between actions and emotions, certain emotions may arise while the user is performing a series of actions. On the other hand, a series of actions of the user may produce certain emotions. There are also cases in which the user takes a series of actions due to an emotion.

(制御部130)
制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等のプロセッサによって、推定装置100内部の記憶装置に記憶されている各種プログラム(推定プログラムの一例に相当)がRAM等を作業領域として実行されることにより実現される。また、制御部130は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。
(control unit 130)
The control unit 130 is a controller. For example, a processor such as a CPU (Central Processing Unit) or an MPU (Micro Processing Unit) executes various programs (estimation programs) stored in a storage device inside the estimation device 100. (equivalent to one example) is implemented by executing the RAM or the like as a work area. Also, the control unit 130 is a controller, and may be realized by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

制御部130は、図3に示すように、受信部131と、取得部132と、推定部133と、第1提供部134と、第2提供部135とを有し、以下に説明する情報処理の機能や作用を実現又は実行する。なお、制御部130の内部構成は、図3に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。 As shown in FIG. 3, the control unit 130 includes a receiving unit 131, an acquiring unit 132, an estimating unit 133, a first providing unit 134, and a second providing unit 135, and performs information processing described below. realize or perform the function or action of Note that the internal configuration of the control unit 130 is not limited to the configuration shown in FIG. 3, and may be another configuration as long as it performs information processing described later.

(受信部131)
受信部131は、学習データを受信する。例えば、受信部131は、所定の情報処理装置から、学習データを受信する。例えば、受信部131は、推定装置100に関係するエンティティ(例えば、ユーザ、企業)の装置から、学習データを受信する。受信部131は、受信された学習データを、学習データ記憶部121に格納してもよい。
(Receiver 131)
The receiving unit 131 receives learning data. For example, the receiving unit 131 receives learning data from a predetermined information processing device. For example, the receiving unit 131 receives learning data from a device of an entity (eg, user, company) related to the estimating device 100 . The receiving unit 131 may store the received learning data in the learning data storage unit 121 .

受信部131は、ユーザインタフェースを介して、推定装置100のユーザから学習データを受信してもよい。受信部131は、受信された学習データを、学習データ記憶部121に格納してもよい。 The receiving unit 131 may receive learning data from the user of the estimation device 100 via a user interface. The receiving unit 131 may store the received learning data in the learning data storage unit 121 .

受信部131は、利用者(例えば、ユーザ、ターゲットユーザ)の行動情報を受信する。例えば、受信部131は、所定の情報処理装置から、行動情報を受信する。例えば、受信部131は、推定装置100に関係するエンティティ(例えば、ユーザ、企業)の装置から、行動情報を受信する。受信部131は、受信された行動情報を、記憶部120内の所定の記憶領域である行動情報記憶部(図示せず)に格納してもよい。 The receiving unit 131 receives behavior information of a user (eg, user, target user). For example, the receiving unit 131 receives behavior information from a predetermined information processing device. For example, the receiving unit 131 receives behavior information from devices of entities (for example, users, companies) related to the estimation device 100 . The receiving unit 131 may store the received behavior information in a behavior information storage unit (not shown), which is a predetermined storage area within the storage unit 120 .

受信部131は、ユーザインタフェースを介して、推定装置100のユーザから行動情報を受信してもよい。受信部131は、受信された行動情報を、上述の行動情報記憶部に格納してもよい。 The receiving unit 131 may receive behavior information from the user of the estimation device 100 via the user interface. The receiving unit 131 may store the received behavior information in the behavior information storage unit described above.

受信部131は、第3提供部136によって提供されたサービスを介して、利用者(例えば、ユーザ、ターゲットユーザ)の行動情報を、ユーザのユーザ装置10から受信してもよい。第3提供部136によって提供されたサービスは、例えば、検索やポータル、SNS、オークションサービス、地図情報サービス等のネットワーク上のサービスであってもよい。 The receiving unit 131 may receive the behavior information of the user (for example, the user, the target user) from the user's user device 10 via the service provided by the third providing unit 136 . The services provided by the third providing unit 136 may be, for example, network services such as search, portal, SNS, auction service, and map information service.

受信部131は、第3提供部136によって提供されたコンテンツを介して、利用者(例えば、ユーザ、ターゲットユーザ)の行動情報を受信してもよい。第3提供部136によって提供されたコンテンツは、検索、ポータル、ショッピング、オークション、ニュース、ファイナンス、旅行、飲食店紹介、スポーツ、テレビ、動画、ゲーム、地図、路線情報、料理、不動産、自動車、ブログ、結婚、漫画、占い、地域情報等のコンテンツであってもよい。 The receiving unit 131 may receive behavior information of a user (eg, user, target user) via content provided by the third providing unit 136 . Contents provided by the third providing unit 136 include search, portal, shopping, auction, news, finance, travel, restaurant introduction, sports, television, video, game, map, route information, cuisine, real estate, automobile, blog. , marriage, comics, fortune-telling, local information, and the like.

(取得部132)
取得部132は、所定の利用者(例えば、ターゲットユーザ)の行動を示す行動情報を取得する。
(Acquisition unit 132)
The acquisition unit 132 acquires behavior information indicating behavior of a predetermined user (for example, target user).

取得部132は、例えば、受信部131によって受信された行動情報を取得する。取得部132は、所定の記憶装置から、行動情報を取得してもよい。例えば、取得部132は、上述の行動情報記憶部から、行動情報を取得してもよい。取得部132は、取得された行動情報を、上述の行動情報記憶部に格納してもよい。 The acquisition unit 132 acquires the behavior information received by the reception unit 131, for example. The acquisition unit 132 may acquire behavior information from a predetermined storage device. For example, the acquisition unit 132 may acquire behavior information from the behavior information storage unit described above. The acquisition unit 132 may store the acquired behavior information in the behavior information storage unit described above.

一例では、取得部132は、ユーザの行動情報を取得する。 In one example, the acquisition unit 132 acquires user behavior information.

取得部132によって取得されたユーザ情報は、ネットワーク上のユーザの行動を示す。例えば、取得された行動情報は、クリック履歴、閲覧されたコンテンツの履歴、広告の選択履歴、SNSの投稿履歴、オークションの出品履歴、オークションの落札履歴、購入履歴、位置履歴(例えば、GPSの履歴、ビーコン検知履歴)等のネットワーク上の各種ログを示す。 The user information acquired by the acquisition unit 132 indicates user behavior on the network. For example, the acquired behavior information includes the click history, the history of browsed content, the selection history of advertisements, the posting history of SNS, the exhibition history of auctions, the successful bid history of auctions, the purchase history, the location history (for example, the history of GPS , beacon detection history), etc., on the network.

一例では、取得部132は、ターゲットユーザの行動情報を取得する。 In one example, the acquisition unit 132 acquires behavior information of the target user.

(推定部133)
推定部133は、取得部132により取得された行動情報に基づいて、所定の利用者(例えば、ターゲットユーザ)による一連の行動と因果関係を有する感情を推定する。
(Estimation unit 133)
Based on the action information acquired by the acquisition unit 132, the estimation unit 133 estimates an emotion having a causal relationship with a series of actions by a predetermined user (for example, a target user).

例えば、推定部133は、利用者(例えば、ユーザ)の感情と、この感情と因果関係を有するこの利用者の一連の行動との間の関係性を学習したモデルを用いて、所定の利用者(例えば、ターゲットユーザ)の行動情報に基づき、この所定の利用者の一連の行動と因果関係を有する感情を推定する。 For example, the estimating unit 133 uses a model that has learned the relationship between a user's (for example, user's) emotion and a series of behaviors of this user that have a causal relationship with this emotion. Based on the behavioral information of (for example, the target user), an emotion having a causal relationship with the series of behaviors of this predetermined user is estimated.

また、例えば、推定部133は、利用者の複数の行動を示す行動情報が入力された場合に、この複数の行動に含まれる一連の行動と、この一連の行動と因果関係を有するこの利用者の感情とを出力するように学習が行われたモデルを用いて、所定の利用者の感情を推定する。 Further, for example, when behavior information indicating a plurality of behaviors of a user is input, the estimation unit 133 determines a series of behaviors included in the plurality of behaviors, Predict the emotion of a given user using a model that has been trained to output the emotion of the user.

また、例えば、推定部133は、MILの技術により、利用者の感情と、この感情と因果関係を有するこの利用者の一連の行動との間の関係性を学習したモデルを用いて、所定の利用者の感情を推定する。 Also, for example, the estimating unit 133 uses a model that has learned the relationship between the user's emotion and a series of actions of the user that have a causal relationship with the user's emotion, using MIL technology, to obtain a predetermined Estimate user sentiment.

また、例えば、推定部133は、一連の行動と因果関係を有する感情として、所定の利用者がこの一連の行動を行っている際の感情を推定する。 Also, for example, the estimating unit 133 estimates, as an emotion having a causal relationship with a series of actions, an emotion when a predetermined user is performing this series of actions.

また、例えば、推定部133は、一連の行動と因果関係を有する感情として、所定の利用者がこの一連の行動を行った後の感情を推定する。 Also, for example, the estimating unit 133 estimates, as an emotion having a causal relationship with a series of actions, an emotion after a predetermined user performs this series of actions.

また、例えば、推定部133は、一連の行動と因果関係を有する感情として、所定の利用者がこの一連の行動を行う前の感情を推定する。 Also, for example, the estimating unit 133 estimates, as an emotion having a causal relationship with a series of actions, an emotion before a predetermined user performs this series of actions.

また、例えば、推定部133は、所定の利用者による一連の行動であって、所定の取引対象に関する一連の行動と因果関係を有する感情を推定する。 Also, for example, the estimating unit 133 estimates an emotion that is a series of behaviors of a predetermined user and has a causal relationship with a series of behaviors related to a predetermined transaction target.

また、例えば、推定部133は、所定の取引対象を発見してから所定の取引対象を購入するまでの行動に含まれる一連の行動と因果関係を有する感情を推定する。 Also, for example, the estimating unit 133 estimates an emotion having a causal relationship with a series of actions included in actions from discovering a predetermined transaction object to purchasing the predetermined transaction object.

一例では、はじめに、推定部133は、取得部132によって取得された行動情報に基づいて、ユーザが所定の取引対象(例えば、商品、サービス)を購入したタイミングを特定し、取得部132によって取得された行動情報のうち、特定されたタイミングを含む所定の期間におけるユーザの行動を示す行動情報を決定する。 In one example, first, the estimating unit 133 identifies the timing at which the user purchased a predetermined transaction object (for example, a product or service) based on the behavior information acquired by the acquiring unit 132, and determines the timing acquired by the acquiring unit 132. Action information indicating the action of the user in a predetermined period including the specified timing is determined from the action information obtained.

次いで、推定部133は、上述の所定の期間におけるユーザの感情を推定し、推定されたユーザの感情と、決定された行動情報とを含む学習データ(すなわち、訓練データ)を生成する。 Next, the estimation unit 133 estimates the user's emotion during the above-described predetermined period, and generates learning data (that is, training data) including the estimated user's emotion and the determined behavioral information.

例示のために、ユーザが、ウェアラブルデバイス等のセンシングデバイスを利用していると仮定する。この例では、推定部133は、センシングデバイスを用いて、ユーザの生理的な反応(例えば、心拍数や体温の変化)を特定する。センシングデバイスは、ユーザ装置10であってもよい。そして、推定部133は、特定された生理的な反応に基づいて、上述の所定の期間におけるユーザの感情を推定することができる。例えば、推定部133は、特定された生理的な反応に基づいて、「幸福」、「驚き」、「恐れ」等の感情(例えば、基本6感情)を、所定の期間におけるユーザの感情として推定する。このような感情は、取引対象の購入と関連性がある感情であってもよい。例えば、推定部133は、幸福、喜び、情熱、楽しみ等のポジティブ感情を、所定の期間におけるユーザの感情として推定してもよい。 For purposes of illustration, assume a user is utilizing a sensing device such as a wearable device. In this example, the estimation unit 133 uses the sensing device to identify the user's physiological response (for example, changes in heart rate or body temperature). The sensing device may be the user equipment 10 . Then, the estimating unit 133 can estimate the user's emotion during the above-described predetermined period based on the specified physiological reaction. For example, the estimation unit 133 estimates emotions such as “happiness”, “surprise”, and “fear” (for example, six basic emotions) as the emotions of the user during a predetermined period based on the specified physiological reaction. do. Such emotions may be emotions associated with the purchase of a transactional object. For example, the estimation unit 133 may estimate positive emotions such as happiness, joy, passion, and enjoyment as the user's emotions during a predetermined period of time.

このようにして、推定部133は、推定されたユーザの感情を、決定された行動情報に関連付けることができる。その結果、推定部133は、推定されたユーザの感情と、決定された行動情報とを含む学習データを生成することができる。 In this way, the estimation unit 133 can associate the estimated user's emotion with the determined behavioral information. As a result, the estimation unit 133 can generate learning data including the estimated user's emotion and the determined behavioral information.

次いで、推定部133は、生成された学習データに基づいて、MILを行い、ユーザの感情を予測する予測モデルを生成する。 Next, the estimation unit 133 performs MIL based on the generated learning data to generate a prediction model that predicts the user's emotion.

例示のために、推定部133は、生成された学習データに基づいて、MILを行い、ユーザの感情を予測する予測モデルとして、ユーザの感情を分類するSVMを生成すると仮定する。この例では、1つまたは複数のユーザの行動を示す行動情報が、生成されたSVMに入力された場合に、生成されたSVMは、ユーザが1つまたは複数のユーザの行動をとった期間におけるユーザの感情を分類する。 For illustration purposes, it is assumed that the estimator 133 performs MIL based on the generated learning data and generates an SVM that classifies the user's emotion as a prediction model that predicts the user's emotion. In this example, when behavior information indicative of one or more user behaviors is input into the generated SVM, the generated SVM may be Classify user sentiment.

その後、推定部133は、取得部132によって取得されたターゲットユーザの行動情報を、生成された予測モデルに入力することによって、ターゲットユーザの感情と、この感情と因果関係を有するターゲットユーザの一連の行動とを推定する。 After that, the estimating unit 133 inputs the target user's behavior information acquired by the acquiring unit 132 into the generated prediction model, thereby obtaining a series of emotions of the target user and a target user having a causal relationship with this emotion. Estimate behavior and.

(第1提供部134)
第1提供部134は、推定部133により推定された感情に応じた内容の情報を所定の利用者に提供する。
(First providing unit 134)
The first providing unit 134 provides a predetermined user with information of content corresponding to the emotion estimated by the estimating unit 133 .

例えば、第1提供部134は、ターゲットユーザの一連の行動に対応する複数のインスタンスを、推定部133によって生成された予測モデルに入力することによって、ターゲットユーザの一連の行動を、所定の感情に対応する行動に分類する。そして、第1提供部134は、所定の感情に対応する情報を、ターゲットユーザに提供する。 For example, the first provision unit 134 inputs a plurality of instances corresponding to a series of behaviors of the target user to the prediction model generated by the estimation unit 133, thereby converting the series of behaviors of the target user into a predetermined emotion. Categorize into corresponding actions. Then, the first providing unit 134 provides the target user with information corresponding to the predetermined emotion.

例えば、ターゲットユーザの一連の行動が、取引対象に出会い、取引対象を調べ、取引対象を購入し、サービス提供者にコストを支払い、サービスを利用するという一連の行動のうちの一部に対応する場合、第1提供部134は、所定の感情に対応する情報として、取引対象やサービスに関する情報を、ターゲットユーザに提供してもよい。 For example, a series of actions of the target user corresponds to a part of a series of actions of encountering the transaction object, researching the transaction object, purchasing the transaction object, paying the cost to the service provider, and using the service. In this case, the first providing unit 134 may provide the target user with information on transaction objects and services as information corresponding to predetermined emotions.

一例として、取引対象に出会い、取引対象を調べるという一連の行動が、所定の感情「幸福」に対応してもよい。この例では、第1提供部134は、この取引対象に関する広告を、ターゲットユーザに提供してもよい。 As an example, the sequence of actions of encountering a transaction object and examining the transaction object may correspond to the predetermined emotion "happiness". In this example, the first providing unit 134 may provide the target user with an advertisement regarding this trading object.

別の例として、取引対象に出会い、取引対象を調べるという一連の行動が、所定の感情「無気力」に対応してもよい。この例では、第1提供部134は、この取引対象に関する広告を、ターゲットユーザに提供しなくてもよい。この場合、第1提供部134は、ターゲットユーザが、取引対象に関する情報を探しやすくするために、取引対象の詳細な情報を、ターゲットユーザに提供してもよい。 As another example, the course of action of encountering a transaction object and examining the transaction object may correspond to the predetermined emotion "lethargy." In this example, the first providing unit 134 may not provide the target user with the advertisement related to this transaction object. In this case, the first providing unit 134 may provide the target user with detailed information on the transaction object so that the target user can easily search for information on the transaction object.

さらに別の例として、取引対象に出会い、取引対象を調べ、取引対象を購入するという一連の行動が、所定の感情「動転」に対応してもよい。この例では、第1提供部134は、サービスで使用可能なクーポンを、ターゲットユーザに提供してもよい。 As yet another example, the sequence of actions of encountering a transaction object, researching the transaction object, and purchasing the transaction object may correspond to a predetermined emotion "upset." In this example, the first providing unit 134 may provide the target user with a coupon that can be used for the service.

(第2提供部135)
第2提供部135は、推定部133によって推定された感情に応じたタイミングで、所定の内容の情報を所定の利用者に提供してもよい。
(Second providing unit 135)
The second providing unit 135 may provide information of predetermined content to a predetermined user at a timing corresponding to the emotion estimated by the estimating unit 133 .

一例では、第2提供部135は、推定部133によって推定された「ターゲットユーザの感情」と、推定部133によって推定された「ターゲットユーザの一連の行動」との組み合わせが所定の条件を満たすか否かを判定し、組み合わせが所定の条件を満たすと判定された場合に、ターゲットユーザに広告を提供する。 In one example, the second providing unit 135 determines whether the combination of the "target user's emotion" estimated by the estimation unit 133 and the "target user's series of actions" estimated by the estimation unit 133 satisfies a predetermined condition. If it is determined that the combination satisfies a predetermined condition, the advertisement is provided to the target user.

〔4.推定処理のフロー〕
次に、実施形態に係る推定装置100による推定処理の手順について説明する。図5は、実施形態に係る推定装置100による推定処理手順を示すフローチャートである。
[4. Estimation process flow]
Next, a procedure of estimation processing by the estimation device 100 according to the embodiment will be described. FIG. 5 is a flowchart showing an estimation processing procedure by the estimation device 100 according to the embodiment.

図5に示すように、はじめに、推定装置100は、所定の利用者の行動を示す行動情報を取得する(ステップS101)。 As shown in FIG. 5, first, the estimating device 100 acquires behavior information indicating behavior of a predetermined user (step S101).

次いで、推定装置100は、取得された行動情報に基づいて、所定の利用者による一連の行動と因果関係を有する感情を推定する(ステップS102)。 Next, the estimation device 100 estimates an emotion having a causal relationship with a series of behaviors of a given user based on the acquired behavior information (step S102).

例えば、推定装置100は、利用者の感情と、この感情と因果関係を有するこの利用者の一連の行動との間の関係性を学習したモデルを用いて、所定の利用者の行動情報に基づき、この所定の利用者の一連の行動と因果関係を有する感情を推定する。 For example, the estimating device 100 uses a model that has learned the relationship between the user's emotion and a series of actions of the user that have a causal relationship with this emotion, and based on predetermined user behavior information , to estimate an emotion that has a causal relationship with this series of actions of the given user.

また、例えば、推定装置100は、利用者の複数の行動を示す行動情報が入力された場合に、この複数の行動に含まれる一連の行動と、この一連の行動と因果関係を有するこの利用者の感情とを出力するように学習が行われたモデルを用いて、所定の利用者の感情を推定する。 Further, for example, when behavior information indicating a plurality of behaviors of a user is input, the estimating apparatus 100 can determine a series of behaviors included in the plurality of behaviors and a series of behaviors of the user having a causal relationship with the series of behaviors. Predict the emotion of a given user using a model that has been trained to output the emotion of the user.

また、例えば、推定装置100は、MIL(Multiple Instance Learning)の技術により、利用者の感情と、この感情と因果関係を有するこの利用者の一連の行動との間の関係性を学習したモデルを用いて、所定の利用者の感情を推定する。 Also, for example, the estimation apparatus 100 creates a model that has learned the relationship between the user's emotion and the user's series of behaviors that have a causal relationship with the user's emotion, using MIL (Multiple Instance Learning) technology. is used to estimate the emotion of a given user.

また、例えば、推定装置100は、一連の行動と因果関係を有する感情として、所定の利用者がこの一連の行動を行っている際の感情を推定する。 Also, for example, the estimating device 100 estimates, as an emotion having a causal relationship with a series of actions, an emotion when a predetermined user is performing this series of actions.

また、例えば、推定装置100は、一連の行動と因果関係を有する感情として、所定の利用者がこの一連の行動を行った後の感情を推定する。 Also, for example, the estimating device 100 estimates an emotion after a predetermined user performs this series of actions as an emotion having a causal relationship with the series of actions.

また、例えば、推定装置100は、一連の行動と因果関係を有する感情として、所定の利用者がこの一連の行動を行う前の感情を推定する。 Also, for example, the estimating device 100 estimates, as an emotion having a causal relationship with a series of actions, the emotion of a predetermined user before performing this series of actions.

また、例えば、推定装置100は、所定の利用者による一連の行動であって、所定の取引対象に関する一連の行動と因果関係を有する感情を推定する。 Also, for example, the estimation device 100 estimates an emotion that is a series of actions by a predetermined user and that has a causal relationship with a series of actions regarding a predetermined transaction target.

また、例えば、推定装置100は、所定の取引対象を発見してから所定の取引対象を購入するまでの行動に含まれる一連の行動と因果関係を有する感情を推定する。 Also, for example, the estimation device 100 estimates an emotion having a causal relationship with a series of actions included in actions from discovering a predetermined transaction object to purchasing the predetermined transaction object.

次いで、推定装置100は、推定された感情に応じた内容の情報を所定の利用者に提供する(ステップS103)。推定装置100は、推定された感情に応じたタイミングで、所定の内容の情報を所定の利用者に提供してもよい。 Next, the estimating device 100 provides a predetermined user with information of content corresponding to the estimated emotion (step S103). The estimating device 100 may provide information of predetermined content to a predetermined user at a timing according to the estimated emotion.

〔5.変形例〕
上述の実施形態に係る推定装置100は、上記の実施形態以外にも、種々の異なる形態で実施されてよい。そこで、以下では、上記の推定装置100の他の実施形態について説明する。
[5. Modification]
The estimation apparatus 100 according to the above embodiments may be implemented in various different forms other than the above embodiments. Therefore, other embodiments of the estimation device 100 will be described below.

〔5-1.感情の変遷の推定〕
推定部133は、一連の行動と因果関係を有する感情の変遷を推定してもよい。
[5-1. Estimation of changes in emotions]
The estimating unit 133 may estimate changes in emotions having a causal relationship with a series of actions.

例えば、推定部133は、第1の所定の期間におけるターゲットユーザの一連の行動に対応する複数のインスタンスを、推定部133によって生成された予測モデルに入力することによって、第1の所定の期間におけるターゲットユーザの一連の行動を、第1の所定の感情に対応する行動に分類してもよい。同様に、推定部133は、第2の所定の期間におけるターゲットユーザの一連の行動に対応する複数のインスタンスを、推定部133によって生成された予測モデルに入力することによって、第2の所定の期間におけるターゲットユーザの一連の行動を、第2の所定の感情に対応する行動に分類してもよい。この場合、推定部133は、第1の所定の感情から第2の所定の感情への感情の推移を、一連の行動と因果関係を有する感情の変遷として推定してもよい。 For example, the estimating unit 133 inputs a plurality of instances corresponding to a series of actions of the target user during the first predetermined period into the prediction model generated by the estimating unit 133, thereby obtaining A set of actions of the target user may be grouped into actions corresponding to a first predetermined emotion. Similarly, the estimating unit 133 inputs a plurality of instances corresponding to a series of behaviors of the target user during the second predetermined period to the prediction model generated by the estimating unit 133, so that the second predetermined period may be classified into behaviors corresponding to a second predetermined emotion. In this case, the estimation unit 133 may estimate the transition of emotion from the first predetermined emotion to the second predetermined emotion as the transition of emotion having a causal relationship with a series of actions.

なお、上述の第1の所定の期間は、上述の第2の所定の期間の後の期間であってもよい。また、上述の第1の所定の期間は、上述の第2の所定の期間の前の期間であってもよい。また、上述の第1の所定の期間と、上述の第2の所定の期間とは、重複してもよい。 Note that the first predetermined period described above may be a period after the second predetermined period described above. Also, the first predetermined period described above may be a period before the second predetermined period described above. Also, the first predetermined period described above and the second predetermined period described above may overlap.

感情の変遷に関しては、ターゲットユーザの感情は、時々刻々と変化すると考えられる。これに関して、例えば、ターゲットユーザの感情が、ネガティブ感情からポジティブ感情に推移している場合に、第2提供部135は、所定の内容の情報を、ターゲットユーザに提供してもよい。例えば、ターゲットユーザの感情が、感情「神経質」から感情「楽しみ」に推移している場合に、第2提供部135は、広告を、ターゲットユーザに提供してもよい。また、例えば、ターゲットユーザの感情が、ネガティブ感情からポジティブ感情に推移している場合に、第2提供部135は、所定の内容の情報を、ターゲットユーザに提供してもよい。例えば、ターゲットユーザの感情が、感情「幸福」から感情「怒り」に推移している場合に、第2提供部135は、サービスで使用可能なクーポンを、ターゲットユーザに提供してもよい。 As for changes in emotions, the target user's emotions are considered to change from moment to moment. In this regard, for example, when the target user's emotion changes from negative emotion to positive emotion, the second providing unit 135 may provide the target user with information of predetermined content. For example, the second providing unit 135 may provide the advertisement to the target user when the target user's emotion changes from the emotion "nervous" to the emotion "enjoyment". Further, for example, when the target user's emotion changes from negative emotion to positive emotion, the second providing unit 135 may provide information of predetermined content to the target user. For example, when the target user's emotion changes from emotion "happiness" to emotion "anger," the second providing unit 135 may provide the target user with a coupon that can be used for the service.

一例として、取引対象に出会い、取引対象を調べるという一連の行動が、感情「神経質」から感情「楽しみ」に推移した感情に対応してもよい。この例では、第2提供部135は、この取引対象に関する広告を、ターゲットユーザに提供してもよい。 As an example, a series of actions of encountering a transaction target and investigating the transaction target may correspond to an emotion that changes from the emotion "nervous" to the emotion "enjoyment". In this example, the second providing unit 135 may provide the target user with an advertisement regarding this transaction object.

別の例として、取引対象を調べ、取引対象を購入するという一連の行動が、感情「幸福」から感情「怒り」に推移した感情に対応してもよい。この例では、第2提供部135は、サービスで使用可能なクーポンを、ターゲットユーザに提供してもよい。 As another example, a series of actions of examining a transaction object and purchasing a transaction object may correspond to an emotion that transitions from the emotion "happiness" to the emotion "anger." In this example, the second providing unit 135 may provide the target user with a coupon that can be used for the service.

〔5-2.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の一部を手動的に行うこともできる。あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[5-2. others〕
Also, among the processes described in the above embodiments, some of the processes described as being automatically performed can also be performed manually. Alternatively, all or part of the processes described as being performed manually can be performed automatically by known methods. In addition, information including processing procedures, specific names, various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each drawing is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Also, each component of each device illustrated is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution and integration of each device is not limited to the one shown in the figure, and all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions. Can be integrated and configured.

例えば、図3に示した記憶部120の一部又は全部は、推定装置100によって保持されるのではなく、ストレージサーバ等に保持されてもよい。この場合、推定装置100は、ストレージサーバにアクセスすることで、学習データ等の各種情報を取得する。 For example, part or all of the storage unit 120 shown in FIG. 3 may be held in a storage server or the like instead of being held by the estimation device 100 . In this case, the estimation device 100 acquires various information such as learning data by accessing the storage server.

〔5-3.ハードウェア構成〕
また、上述してきた実施形態に係る推定装置100は、例えば図6に示すような構成のコンピュータ1000によって実現される。図6は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
[5-3. Hardware configuration]
Also, the estimation device 100 according to the above-described embodiments is implemented by a computer 1000 configured as shown in FIG. 6, for example. FIG. 6 is a diagram illustrating an example of a hardware configuration; A computer 1000 is connected to an output device 1010 and an input device 1020, and an arithmetic device 1030, a primary storage device 1040, a secondary storage device 1050, an output IF (Interface) 1060, an input IF 1070, and a network IF 1080 are connected via a bus 1090. have

演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。一次記憶装置1040は、RAM等、演算装置1030が各種の演算に用いるデータを一時的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD、フラッシュメモリ等により実現される。 The arithmetic device 1030 operates based on programs stored in the primary storage device 1040 and the secondary storage device 1050, programs read from the input device 1020, and the like, and executes various processes. The primary storage device 1040 is a memory device such as a RAM that temporarily stores data used by the arithmetic device 1030 for various calculations. The secondary storage device 1050 is a storage device in which data used for various calculations by the arithmetic device 1030 and various databases are registered, and is implemented by a ROM (Read Only Memory), HDD, flash memory, or the like.

出力IF1060は、モニタやプリンタといった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインタフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力IF1070は、マウス、キーボード、およびスキャナ等といった各種の入力装置1020から情報を受信するためのインタフェースであり、例えば、USB等により実現される。 The output IF 1060 is an interface for transmitting information to be output to the output device 1010 that outputs various types of information such as a monitor and a printer. It is realized by a connector conforming to a standard such as HDMI (registered trademark) (High Definition Multimedia Interface). Also, the input IF 1070 is an interface for receiving information from various input devices 1020 such as a mouse, keyboard, scanner, etc., and is realized by, for example, USB.

なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等から情報を読み出す装置であってもよい。また、入力装置1020は、USBメモリ等の外付け記憶媒体であってもよい。 Note that the input device 1020 includes, for example, optical recording media such as CDs (Compact Discs), DVDs (Digital Versatile Discs), PDs (Phase change rewritable discs), magneto-optical recording media such as MOs (Magneto-Optical discs), and tapes. It may be a device that reads information from a medium, a magnetic recording medium, a semiconductor memory, or the like. Also, the input device 1020 may be an external storage medium such as a USB memory.

ネットワークIF1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。 Network IF 1080 receives data from other devices via network N and sends the data to arithmetic device 1030, and also transmits data generated by arithmetic device 1030 via network N to other devices.

演算装置1030は、出力IF1060や入力IF1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。 The arithmetic device 1030 controls the output device 1010 and the input device 1020 via the output IF 1060 and the input IF 1070 . For example, arithmetic device 1030 loads a program from input device 1020 or secondary storage device 1050 onto primary storage device 1040 and executes the loaded program.

例えば、コンピュータ1000が推定装置100として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部130の機能を実現する。 For example, when the computer 1000 functions as the estimation device 100 , the arithmetic device 1030 of the computer 1000 implements the functions of the control unit 130 by executing a program loaded on the primary storage device 1040 .

〔6.効果〕
上述してきたように、実施形態に係る推定装置100は、取得部132と、推定部133とを有する。取得部132は、所定の利用者の行動を示す行動情報を取得する。推定部133は、取得部132により取得された行動情報に基づいて、所定の利用者による一連の行動と因果関係を有する感情を推定する。
[6. effect〕
As described above, the estimation device 100 according to the embodiment has the acquisition unit 132 and the estimation unit 133 . The acquisition unit 132 acquires behavior information indicating behavior of a predetermined user. Based on the action information acquired by the acquisition unit 132, the estimation unit 133 estimates an emotion having a causal relationship with a series of actions of a predetermined user.

また、実施形態に係る推定装置100において、推定部133は、利用者の感情と、この感情と因果関係を有するこの利用者の一連の行動との間の関係性を学習したモデルを用いて、所定の利用者の行動情報に基づき、この所定の利用者の一連の行動と因果関係を有する感情を推定する。 In addition, in the estimation device 100 according to the embodiment, the estimation unit 133 uses a model that has learned the relationship between the user's emotion and the user's series of actions that have a causal relationship with this emotion, Based on the action information of a given user, an emotion having a causal relationship with a series of actions of this given user is estimated.

また、実施形態に係る推定装置100において、推定部133は、利用者の複数の行動を示す行動情報が入力された場合に、この複数の行動に含まれる一連の行動と、この一連の行動と因果関係を有するこの利用者の感情とを出力するように学習が行われたモデルを用いて、所定の利用者の感情を推定する。 Further, in the estimating apparatus 100 according to the embodiment, when behavior information indicating a plurality of behaviors of the user is input, the estimating unit 133 generates a series of behaviors included in the plurality of behaviors, and a series of behaviors. A model trained to output this user's emotion with a causal relationship is used to estimate a given user's emotion.

また、実施形態に係る推定装置100において、推定部133は、MIL(Multiple Instance Learning)の技術により、利用者の感情と、この感情と因果関係を有するこの利用者の一連の行動との間の関係性を学習したモデルを用いて、所定の利用者の感情を推定する。 In addition, in the estimation device 100 according to the embodiment, the estimation unit 133 uses MIL (Multiple Instance Learning) technology to determine the relationship between the user's emotion and the user's series of actions that have a causal relationship with the user's emotion. A model that has learned relationships is used to estimate the emotion of a given user.

また、実施形態に係る推定装置100において、推定部133は、一連の行動と因果関係を有する感情として、所定の利用者がこの一連の行動を行っている際の感情を推定する。 In addition, in the estimation device 100 according to the embodiment, the estimation unit 133 estimates the emotion when the predetermined user is performing the series of actions as the emotion having a causal relationship with the series of actions.

また、実施形態に係る推定装置100において、推定部133は、一連の行動と因果関係を有する感情として、所定の利用者がこの一連の行動を行った後の感情を推定する。 Also, in the estimation device 100 according to the embodiment, the estimation unit 133 estimates the emotion after the predetermined user performs the series of actions as the emotion having a causal relationship with the series of actions.

また、実施形態に係る推定装置100において、推定部133は、一連の行動と因果関係を有する感情として、所定の利用者がこの一連の行動を行う前の感情を推定する。 Further, in the estimation device 100 according to the embodiment, the estimation unit 133 estimates the emotion before the predetermined user performs the series of actions as the emotion having a causal relationship with the series of actions.

また、実施形態に係る推定装置100において、推定部133は、一連の行動と因果関係を有する感情の変遷を推定する。 In addition, in the estimation device 100 according to the embodiment, the estimation unit 133 estimates changes in emotions having a causal relationship with a series of actions.

また、実施形態に係る推定装置100において、推定部133は、所定の利用者による一連の行動であって、所定の取引対象に関する一連の行動と因果関係を有する感情を推定する。 In addition, in the estimation device 100 according to the embodiment, the estimation unit 133 estimates an emotion having a causal relationship with a series of behaviors of a predetermined user regarding a predetermined transaction target.

また、実施形態に係る推定装置100において、推定部133は、所定の取引対象を発見してから所定の取引対象を購入するまでの行動に含まれる一連の行動と因果関係を有する感情を推定する。 In addition, in the estimation device 100 according to the embodiment, the estimation unit 133 estimates an emotion having a causal relationship with a series of actions included in actions from discovering a predetermined transaction object to purchasing the predetermined transaction object. .

また、実施形態に係る推定装置100は、推定部133により推定された感情に応じた内容の情報を所定の利用者に提供する第1提供部134を有する。 Further, the estimation apparatus 100 according to the embodiment has a first providing unit 134 that provides a predetermined user with information of content corresponding to the emotion estimated by the estimating unit 133 .

また、実施形態に係る推定装置100は、推定部133により推定された感情に応じたタイミングで、所定の内容の情報を所定の利用者に提供する第2提供部135を有する。 The estimation apparatus 100 according to the embodiment also has a second providing unit 135 that provides information of predetermined content to a predetermined user at a timing according to the emotion estimated by the estimating unit 133 .

上述した各処理により、推定装置100は、利用者の感情を適切に推定することができる。 Through the processes described above, estimation device 100 can appropriately estimate the user's emotion.

以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 As described above, some of the embodiments of the present application have been described in detail based on the drawings. It is possible to carry out the invention in other forms with modifications.

また、上述した推定装置100は、複数のサーバコンピュータで実現してもよく、また、機能によっては外部のプラットフォーム等をAPI(Application Programming Interface)やネットワークコンピューティングなどで呼び出して実現するなど、構成は柔軟に変更できる。 In addition, the above-described estimating apparatus 100 may be implemented by a plurality of server computers, and depending on the function, may be implemented by calling an external platform or the like using an API (Application Programming Interface), network computing, or the like. Flexible to change.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、受信部は、受信手段や受信回路に読み替えることができる。 Also, the above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the receiving section can be read as receiving means or a receiving circuit.

1 ネットワークシステム
10 ユーザ装置
100 推定装置
110 通信部
120 記憶部
121 学習データ記憶部
130 制御部
131 受信部
132 取得部
133 推定部
134 第1提供部
135 第2提供部
1 network system 10 user device 100 estimation device 110 communication unit 120 storage unit 121 learning data storage unit 130 control unit 131 reception unit 132 acquisition unit 133 estimation unit 134 first provision unit 135 second provision unit

Claims (13)

所定の利用者の行動を示す行動情報を取得する取得部と、
所定の期間と紐づけられた利用者の単一の感情と、当該所定の期間における当該利用者による一連の行動であって、当該感情と因果関係を有する当該利用者による一連の行動との間の関係性を学習したモデルを、前記取得部により取得された行動情報に適用することによって、前記所定の利用者が一連の行動をとった期間における前記所定の利用者の感情であって、当該期間における前記所定の利用者による一連の行動と因果関係を有する感情を推定する推定部と
を有することを特徴とする推定装置。
an acquisition unit that acquires behavior information indicating behavior of a predetermined user;
Between a user's single emotion associated with a predetermined period and a series of actions by the user during the predetermined period that have a causal relationship with the emotion to the action information acquired by the acquisition unit, the emotion of the predetermined user during the period in which the predetermined user took a series of actions, an estimation device for estimating an emotion having a causal relationship with a series of actions by the predetermined user during a period of time.
前記推定部は、利用者の複数の行動を示す行動情報が入力された場合に、当該複数の行動に含まれる一連の行動と、当該一連の行動と因果関係を有する当該利用者の感情とを出力するように学習が行われたモデルを用いて、前記所定の利用者の感情を推定する
ことを特徴とする請求項1に記載の推定装置。
When behavior information indicating a plurality of behaviors of a user is input, the estimating unit determines a series of behaviors included in the plurality of behaviors and emotions of the user having a causal relationship with the series of behaviors. The estimating device according to claim 1, wherein the emotion of the predetermined user is estimated using a model that has been trained to output.
前記推定部は、MIL(Multiple Instance Learning)の技術により、前記利用者の感情と、当該感情と因果関係を有する当該利用者の一連の行動との間の関係性を学習したモデルを用いて、前記所定の利用者の感情を推定する
ことを特徴とする請求項1または2に記載の推定装置。
The estimating unit uses a model that has learned the relationship between the user's emotion and a series of actions of the user that have a causal relationship with the user's emotion by MIL (Multiple Instance Learning) technology, 3. The estimating device according to claim 1, wherein the emotion of the predetermined user is estimated.
前記推定部は、前記一連の行動と因果関係を有する感情として、前記所定の利用者が当該一連の行動を行っている際の感情を推定する
ことを特徴とする請求項1~3のうちいずれか1つに記載の推定装置。
4. The estimating unit estimates, as the emotion having a causal relationship with the series of actions, the emotion of the predetermined user performing the series of actions. or the estimating device according to one.
前記推定部は、前記一連の行動と因果関係を有する感情として、前記所定の利用者が当該一連の行動を行った後の感情を推定する
ことを特徴とする請求項1~3のうちいずれか1つに記載の推定装置。
4. The estimating unit estimates, as an emotion having a causal relationship with the series of actions, an emotion after the predetermined user performs the series of actions. 1. The estimating device according to 1.
前記推定部は、前記一連の行動と因果関係を有する感情として、前記所定の利用者が当該一連の行動を行う前の感情を推定する
ことを特徴とする請求項1~3のうちいずれか1つに記載の推定装置。
4. Any one of claims 1 to 3, wherein the estimating unit estimates, as an emotion having a causal relationship with the series of actions, an emotion before the predetermined user performs the series of actions. The estimating device according to 1.
前記推定部は、前記一連の行動と因果関係を有する感情の変遷を推定する
ことを特徴とする請求項1~6のうちいずれか1つに記載の推定装置。
The estimating device according to any one of claims 1 to 6, wherein the estimating unit estimates changes in emotion having a causal relationship with the series of actions.
前記推定部は、前記所定の利用者による一連の行動であって、所定の取引対象に関する一連の行動と因果関係を有する感情を推定する
ことを特徴とする請求項1~7のうちいずれか1つに記載の推定装置。
The estimating unit estimates an emotion having a causal relationship with a series of actions by the predetermined user, which are related to a predetermined transaction object. The estimating device according to 1.
前記推定部は、前記所定の取引対象を発見してから当該所定の取引対象を購入するまでの行動に含まれる一連の行動と因果関係を有する感情を推定する
ことを特徴とする請求項8に記載の推定装置。
9. The method according to claim 8, wherein the estimating unit estimates an emotion having a causal relationship with a series of actions included in actions from discovering the predetermined transaction object to purchasing the predetermined transaction object. Estimation device as described.
前記推定部により推定された感情に応じた内容の情報を前記所定の利用者に提供する第1提供部を有する
ことを特徴とする請求項1~9のうちいずれか1つに記載の推定装置。
The estimating device according to any one of claims 1 to 9, further comprising: a first providing unit that provides the predetermined user with information corresponding to the emotion estimated by the estimating unit. .
前記推定部により推定された感情に応じたタイミングで、所定の内容の情報を前記所定の利用者に提供する第2提供部を有する
ことを特徴とする請求項1~10のうちいずれか1つに記載の推定装置。
11. Any one of claims 1 to 10, further comprising a second providing unit that provides information of predetermined content to the predetermined user at a timing corresponding to the emotion estimated by the estimating unit. The estimating device described in .
推定装置が実行する推定方法であって、
所定の利用者の行動を示す行動情報を取得する取得工程と、
所定の期間と紐づけられた利用者の単一の感情と、当該所定の期間における当該利用者による一連の行動であって、当該感情と因果関係を有する当該利用者による一連の行動との間の関係性を学習したモデルを、前記取得工程により取得された行動情報に適用することによって、前記所定の利用者が一連の行動をとった期間における前記所定の利用者の感情であって、当該期間における前記所定の利用者による一連の行動と因果関係を有する感情を推定する推定工程と
を含むことを特徴とする推定方法。
An estimation method executed by an estimation device,
an acquisition step of acquiring behavior information indicating behavior of a predetermined user;
Between a user's single emotion associated with a predetermined period and a series of actions by the user during the predetermined period that have a causal relationship with the emotion By applying a model that has learned the relationship between the an estimating step of estimating an emotion having a causal relationship with a series of actions by the given user over a period of time.
所定の利用者の行動を示す行動情報を取得する取得手順と、
所定の期間と紐づけられた利用者の単一の感情と、当該所定の期間における当該利用者による一連の行動であって、当該感情と因果関係を有する当該利用者による一連の行動との間の関係性を学習したモデルを、前記取得手順により取得された行動情報に適用することによって、前記所定の利用者が一連の行動をとった期間における前記所定の利用者の感情であって、当該期間における前記所定の利用者による一連の行動と因果関係を有する感情を推定する推定手順と
をコンピュータに実行させるための推定プログラム。
an acquisition procedure for acquiring behavior information indicating behavior of a predetermined user;
Between a user's single emotion associated with a predetermined period and a series of actions by the user during the predetermined period that have a causal relationship with the emotion to the action information acquired by the acquisition procedure, the emotion of the predetermined user during the period in which the predetermined user took a series of actions, an estimation program for causing a computer to execute: an estimation procedure for estimating a series of behaviors and emotions having a causal relationship by the predetermined user during a period;
JP2019050413A 2019-03-18 2019-03-18 Estimation device, estimation method and estimation program Active JP7139270B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019050413A JP7139270B2 (en) 2019-03-18 2019-03-18 Estimation device, estimation method and estimation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019050413A JP7139270B2 (en) 2019-03-18 2019-03-18 Estimation device, estimation method and estimation program

Publications (2)

Publication Number Publication Date
JP2020154464A JP2020154464A (en) 2020-09-24
JP7139270B2 true JP7139270B2 (en) 2022-09-20

Family

ID=72559047

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019050413A Active JP7139270B2 (en) 2019-03-18 2019-03-18 Estimation device, estimation method and estimation program

Country Status (1)

Country Link
JP (1) JP7139270B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7388619B2 (en) 2021-05-20 2023-11-29 Lineヤフー株式会社 Information processing device, information processing method, and information processing program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014073366A1 (en) 2012-11-12 2014-05-15 日本電気株式会社 Information processing system, recognition dictionary learning method, and recognition dictionary learning program
JP2017167752A (en) 2016-03-15 2017-09-21 ヤフー株式会社 Device, method, and program for determination
JP2017188031A (en) 2016-04-08 2017-10-12 ソフトバンク・テクノロジー株式会社 Re-marketing system based on action data and emotion data and management method for the same
JP2018041460A (en) 2016-09-09 2018-03-15 ソニー株式会社 System and method for providing recommendation on electronic device on the basis of affective state detection
JP2019036114A (en) 2017-08-15 2019-03-07 ヤフー株式会社 Generation device, method for generation, generation program, learning data, and model
JP2019036116A (en) 2017-08-15 2019-03-07 ヤフー株式会社 Decision device, decision method, and decision program
JP2019067056A (en) 2017-09-29 2019-04-25 富士通株式会社 Message output control method and message output control program and message output control device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014073366A1 (en) 2012-11-12 2014-05-15 日本電気株式会社 Information processing system, recognition dictionary learning method, and recognition dictionary learning program
JP2017167752A (en) 2016-03-15 2017-09-21 ヤフー株式会社 Device, method, and program for determination
JP2017188031A (en) 2016-04-08 2017-10-12 ソフトバンク・テクノロジー株式会社 Re-marketing system based on action data and emotion data and management method for the same
JP2018041460A (en) 2016-09-09 2018-03-15 ソニー株式会社 System and method for providing recommendation on electronic device on the basis of affective state detection
JP2019036114A (en) 2017-08-15 2019-03-07 ヤフー株式会社 Generation device, method for generation, generation program, learning data, and model
JP2019036116A (en) 2017-08-15 2019-03-07 ヤフー株式会社 Decision device, decision method, and decision program
JP2019067056A (en) 2017-09-29 2019-04-25 富士通株式会社 Message output control method and message output control program and message output control device

Also Published As

Publication number Publication date
JP2020154464A (en) 2020-09-24

Similar Documents

Publication Publication Date Title
Yang et al. Exploiting user experience from online customer reviews for product design
Wang et al. Understanding multi-channel research shoppers: an analysis of Internet and physical channels
Huseynov et al. Behavioral Issues in B2C E-commerce: The-state-of-the-art
US20180101576A1 (en) Content Recommendation and Display
WO2017190610A1 (en) Target user orientation method and device, and computer storage medium
US20160140627A1 (en) Generating high quality leads for marketing campaigns
US10783431B2 (en) Image search using emotions
CN111061979B (en) User tag pushing method and device, electronic equipment and medium
CN111967924A (en) Commodity recommendation method, commodity recommendation device, computer device, and medium
Guarino et al. A machine learning-based approach to identify unlawful practices in online terms of service: analysis, implementation and evaluation
Barbosa et al. Who am i? a design probe exploring real-time transparency about online and offline user profiling underlying targeted ads
KR20220117425A (en) Marketability analysis and commercialization methodology analysis system using big data
Zhang et al. Implicit look-alike modelling in display ads: Transfer collaborative filtering to ctr estimation
Liu Toward A Two-Sided Fairness Framework in Search and Recommendation
Avolicino et al. AI-based emotion recognition to study users’ perception of dark patterns
JP7139270B2 (en) Estimation device, estimation method and estimation program
JP7231585B2 (en) Evaluation device, evaluation method and evaluation program
JP6679448B2 (en) Generation device, generation method, and generation program
JP6043840B1 (en) Classification device, classification method, and classification program
Chishti et al. Identify Website Personality by Using Unsupervised Learning Based on Quantitative Website Elements
JP2018067215A (en) Data analysis system, control method thereof, program, and recording medium
Sakaki et al. Corpus for customer purchase behavior prediction in social media
JP2008146610A (en) Method of recommendation to user on network, recommendation server, and program
JP7260439B2 (en) Extraction device, extraction method and extraction program
Shiu et al. Identifying price sensitive customers in e-commerce platforms for recommender systems

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220907

R150 Certificate of patent or registration of utility model

Ref document number: 7139270

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350