JP7138687B2 - Estimation device, estimation method and estimation program - Google Patents

Estimation device, estimation method and estimation program Download PDF

Info

Publication number
JP7138687B2
JP7138687B2 JP2020189515A JP2020189515A JP7138687B2 JP 7138687 B2 JP7138687 B2 JP 7138687B2 JP 2020189515 A JP2020189515 A JP 2020189515A JP 2020189515 A JP2020189515 A JP 2020189515A JP 7138687 B2 JP7138687 B2 JP 7138687B2
Authority
JP
Japan
Prior art keywords
user
information
behavior
estimation
emotion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020189515A
Other languages
Japanese (ja)
Other versions
JP2022078666A (en
Inventor
貴史 山田
知紘 小川
雄規 廣瀬
鷹志 河原
恵一 舛田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2020189515A priority Critical patent/JP7138687B2/en
Publication of JP2022078666A publication Critical patent/JP2022078666A/en
Application granted granted Critical
Publication of JP7138687B2 publication Critical patent/JP7138687B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、推定装置、推定方法及び推定プログラムに関する。 The present invention relates to an estimating device, an estimating method, and an estimating program.

近年、外面情報や生体情報から、感情を推定する感情推定システム、感情推定モデル生成システム等が開発されている。
また、個人の機械学習モデルを作成し、そのモデルから推奨行動を提供するシステム等が考案されている。
In recent years, an emotion estimation system, an emotion estimation model generation system, and the like that estimate emotions from external information and biological information have been developed.
Systems and the like have also been devised that create individual machine learning models and provide recommended actions from those models.

特開2020-068973号公報JP 2020-068973 A 特開2020-064537号公報JP 2020-064537 A

しかしながら、上述した従来技術では、専用の情報測定装置を用意しなければならず、被測定者を、ある程度束縛する必要がある。 However, in the conventional technology described above, it is necessary to prepare a dedicated information measuring device, and it is necessary to constrain the person to be measured to some extent.

また、個人機械学習モデルを作成する際、入力データとして、個人の行動内容のデータセットが用意されていることを前提としているため、個人データの取得から、その個人へのデータ提供までの処理が、一連の処理として実現されていない。 In addition, when creating an individual machine learning model, it is assumed that a data set of individual behavior details is prepared as input data, so the processing from acquiring personal data to providing data to the individual is difficult. , is not implemented as a series of processes.

本願は、利用者の行動態様及び感情に基づいて、利用者に適切なコンテンツを容易に提供することを目的とする。 An object of the present application is to easily provide appropriate content to a user based on the user's mode of behavior and emotion.

本願に係る推定装置は、利用者の所有する端末装置から利用者の位置情報及び行動情報を取得する取得部と、取得部が取得した位置情報及び行動情報に基づいて、利用者の行動態様及び感情を推定する推定部と、推定部により推定された行動態様及び感情に基づいて、利用者に配信するコンテンツを決定する決定部とを有することを特徴とする。 The estimation device according to the present application includes an acquisition unit that acquires location information and behavior information of a user from a terminal device owned by the user; It is characterized by having an estimation unit for estimating emotions, and a determination unit for determining content to be distributed to users based on the behavior mode and emotions estimated by the estimation unit.

実施形態の一態様によれば、利用者の行動態様及び感情に基づいて、利用者に適切なコンテンツを容易に提供することができるという効果を奏する。 According to one aspect of the embodiment, it is possible to easily provide appropriate content to the user based on the user's behavior and emotions.

図1は、利用者の位置情報及び行動情報に基づいて、利用者の行動態様及び感情を推定し、推定された行動態様及び感情に基づいて、利用者に配信するンテンツを決定する推定処理の一例を示す図である。FIG. 1 shows an estimation process of estimating a user's behavior mode and emotions based on the user's location information and behavior information, and determining content to be delivered to the user based on the estimated behavior mode and emotions. It is a figure which shows an example. 図2は、利用者の行動態様と感情のデータ構造の一例を示す図であるFIG. 2 is a diagram showing an example of the data structure of user behavior patterns and emotions. 図3は、利用者の感覚とそのスコアのデータ構造の一例を示す図である。FIG. 3 is a diagram showing an example of a data structure of a user's feeling and its score. 図4は、利用者の行動態様等と行動コンテキストのデータ構造の一例を示す図である。FIG. 4 is a diagram showing an example of a data structure of a user's action mode and the action context. 図5は、実施形態に係る推定装置の構成例を示す図である。FIG. 5 is a diagram illustrating a configuration example of an estimation device according to the embodiment; 図6は、実施形態に係る推定装置の記憶部の構成例を示す図である。FIG. 6 is a diagram illustrating a configuration example of a storage unit of the estimation device according to the embodiment; 図7は、実施形態に係る推定装置によって利用者の位置情報及び行動情報を取得し、利用者の行動態様と感情と感覚とを推定し、利用者の行動コンテキストを生成し、利用者に配信するコンテンツを決定し、利用者にコンテンツを配信する処理手順を示すフローチャートである。FIG. 7 shows how the estimation device according to the embodiment acquires the user's location information and behavior information, estimates the user's behavior mode, emotions, and sensations, generates the user's behavior context, and distributes it to the user. 10 is a flow chart showing a processing procedure for determining content to be distributed and distributing the content to the user. 図8は、ハードウエア構成の一例を示す図である。FIG. 8 is a diagram showing an example of a hardware configuration.

以下に、本願に係る推定装置、推定方法及び推定プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る推定装置、推定方法及び推定プログラムが限定されるものではない。1つまたは複数の実施形態の詳細は、以下の説明および図面に記載される。また、1つまたは複数の実施形態の各々は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。また、以下の1つまたは複数の実施形態において同一の部位には同一の符号を付し、重複する説明は省略する。 Embodiments for implementing the estimation device, estimation method, and estimation program according to the present application (hereinafter referred to as "embodiments") will be described in detail below with reference to the drawings. Note that the estimation device, estimation method, and estimation program according to the present application are not limited by this embodiment. The details of one or more embodiments are set forth in the following description and drawings. Also, each of one or more embodiments can be appropriately combined within a range that does not contradict the processing content. Also, in one or more embodiments below, the same parts are denoted by the same reference numerals, and overlapping descriptions are omitted.

〔1.推定処理〕
まず、図1を参照して、実施形態に係る推定処理の一例について説明する。図1は、利用者の位置情報及び行動情報に基づいて、利用者の行動態様及び感情を推定し、推定した行動態様及び感情に基づいて、利用者に配信するコンテンツを決定する推定処理の一例を示す図である。なお、図1に示す例では、実施形態に係る推定システム1によって、利用者の位置情報及び行動情報に基づいて、利用者の行動態様及び感情を推定し、推定した行動態様及び感情に基づいて、利用者に配信するコンテンツを決定する推定処理の実施形態について記載した。
[1. Estimation process]
First, an example of estimation processing according to an embodiment will be described with reference to FIG. FIG. 1 shows an example of estimation processing for estimating a user's behavior mode and emotion based on the user's location information and behavior information, and determining content to be delivered to the user based on the estimated behavior mode and emotion. It is a figure which shows. In the example shown in FIG. 1, the estimation system 1 according to the embodiment estimates the user's behavior mode and emotion based on the user's location information and behavior information, and based on the estimated behavior mode and emotion , described embodiments of an estimation process for determining content to deliver to a user.

図1に示すように、推定システム1には、端末装置10~10と、推定装置100とが含まれる(nは任意の自然数)。本願明細書では、端末装置10~10を区別する必要がない場合は、端末装置10~10を「端末装置10」と記載する。図1では図示していないが、推定システム1は、複数台の推定装置100を含んでもよい。 As shown in FIG. 1, the estimation system 1 includes terminal devices 10 1 to 10 n and an estimation device 100 (n is any natural number). In this specification, the terminal devices 10 1 to 10 n are referred to as “terminal devices 10” when there is no need to distinguish between the terminal devices 10 1 to 10 n . Although not shown in FIG. 1 , the estimation system 1 may include multiple estimation devices 100 .

端末装置10は、利用者によって利用される情報処理装置である。端末装置10は、スマートフォン、デスクトップ型PC(Personal Computer)、ノート型PC、タブレット型PCを含む、任意のタイプの情報処理装置であってもよい。 The terminal device 10 is an information processing device used by a user. The terminal device 10 may be any type of information processing device including a smart phone, a desktop PC (Personal Computer), a notebook PC, and a tablet PC.

図1の例では、端末装置10は、利用者によって利用されるクライアント装置である。例えば、端末装置10には、加速度計、ジャイロセンサー、GPS(Global Positioning System)ユニット等が搭載されている。この例では、端末装置10は、少なくともナビゲーションアプリケーションがインストールされたスマートフォンである。ナビゲーションアプリケーション(以下、ナビアプリと呼ぶ。)には、カーナビゲーションアプリケーション(以下、カーナビアプリと呼ぶ)、鉄道乗換案内アプリケーション(以下、乗換案内アプリと呼ぶ。)等がある。カーナビアプリの場合、スマートフォンは、例えば、利用者の車両に設置される。より具体的な例を挙げるとこのようなスマートフォンは、利用者の車両に搭載された車載ホルダに装着され得る。なお、「利用者の車両に設置された端末装置10」という用語は、「利用者の車両に搭載された端末装置10」を包含し得る。つまり、「端末装置10の設置」という用語は、「端末装置10の恒久的な設置(例えば、端末装置10を搭載すること)」を包含し得る。 In the example of FIG. 1, the terminal device 10 is a client device used by a user. For example, the terminal device 10 is equipped with an accelerometer, a gyro sensor, a GPS (Global Positioning System) unit, and the like. In this example, the terminal device 10 is a smart phone in which at least a navigation application is installed. Navigation applications (hereinafter referred to as navigation applications) include car navigation applications (hereinafter referred to as car navigation applications), railway transfer guidance applications (hereinafter referred to as transfer guidance applications), and the like. In the case of a car navigation application, the smartphone is installed in the user's vehicle, for example. To give a more specific example, such a smartphone can be attached to an in-vehicle holder mounted on a user's vehicle. The term "terminal device 10 installed in the user's vehicle" can include "the terminal device 10 installed in the user's vehicle." That is, the term "installation of the terminal device 10" can encompass "permanent installation of the terminal device 10 (eg, mounting the terminal device 10)".

推定装置100は、利用者の位置情報及び行動情報に基づいて、利用者の行動態様及び感情を推定し、推定した行動態様及び感情に基づいて、利用者に配信するコンテンツを決定する情報処理装置である。推定装置100は、サーバを含む、任意のタイプの情報処理装置であってもよい。図1では図示していないが、推定装置100は、ネットワーク網(例えば、インターネット網)を介して、有線又は無線により端末装置10と通信を行う。情報処理装置200は、例えば、SNS(Social Networking Service)サーバであり、ネットワーク網(例えば、インターネット網)を介して、有線又は無線により推定装置100及び端末装置10と通信を行う。推定装置100及び端末装置10は、情報処理装置200から、インターネット等を介して、例えば、SNS情報、気象情報、交通情報等を取得する(ステップS41~S43、S31)。 The estimation device 100 is an information processing device that estimates a user's behavior mode and emotion based on the user's location information and behavior information, and determines content to be distributed to the user based on the estimated behavior mode and emotion. is. The estimating device 100 may be any type of information processing device, including a server. Although not shown in FIG. 1, the estimation device 100 communicates with the terminal device 10 by wire or wirelessly via a network (for example, the Internet). The information processing device 200 is, for example, an SNS (Social Networking Service) server, and communicates with the estimation device 100 and the terminal device 10 by wire or wirelessly via a network (for example, the Internet). The estimation device 100 and the terminal device 10 acquire, for example, SNS information, weather information, traffic information, etc. from the information processing device 200 via the Internet (steps S41 to S43, S31).

〔1-1.利用者からどのような情報を取得するか〕
図1の例では、まず、端末装置10は、端末装置10に搭載されているGPSユニットを用いて、利用者の位置情報を取得する(ステップS10、S20)。具体的には、端末装置10は、時刻、緯度、経度のデータを所定の時間間隔で取得する。また、端末装置10は、端末装置10に搭載されているジャイロセンサー、加速度計等を用いて、利用者の行動情報である利用者の動きを取得する(ステップS10、S20)。具体的には、端末装置10は、加速度計、ジャイロセンサー、磁気センサー等のデータを所定の時間間隔で取得する。次いで、端末装置10は、利用者の位置情報及び行動情報を推定装置100に送信する(ステップS11、S21)。これにより、推定装置100は、利用者についての位置情報、行動情報を取得する(ステップS31)。
[1-1. What kind of information to acquire from the user]
In the example of FIG. 1, first, the terminal device 10 acquires the user's location information using the GPS unit installed in the terminal device 10 (steps S10 and S20). Specifically, the terminal device 10 acquires time, latitude, and longitude data at predetermined time intervals. In addition, the terminal device 10 acquires the movement of the user, which is the behavior information of the user, using a gyro sensor, an accelerometer, etc. mounted on the terminal device 10 (steps S10, S20). Specifically, the terminal device 10 acquires data from an accelerometer, a gyro sensor, a magnetic sensor, or the like at predetermined time intervals. Next, the terminal device 10 transmits the user's location information and action information to the estimation device 100 (steps S11 and S21). Thereby, the estimating device 100 acquires position information and action information about the user (step S31).

図1の例では、さらに、推定装置100は、利用者に係るSNS情報等を情報処理装置200から取得する(ステップS41、S31)。 In the example of FIG. 1, the estimating device 100 further acquires SNS information and the like related to the user from the information processing device 200 (steps S41 and S31).

〔1-2.取得した情報から、どのようにして行動態様を推定するか〕
本実施形態における行動態様とは、利用者が所定の場所に滞在している、利用者が所定の交通機関を使って移動している等の具体的な利用者の行動の状態である。例えば、行動態様とは、(いつ)、(どこで(へ))、(誰と)、(どのように)、(何をする)という利用者の具体的な行動の状態である。端末装置10が取得した位置情報や加速度情報等が所定の数値の範囲内の場合、例えば、推定装置100は、利用者は在宅しているという行動態様を推定する(ステップS32)。例えば、利用者が、端末装置10のナビアプリにおいて出発地、目的地、出発時刻等を入力している場合、推定装置100は、利用者の利用する交通機関、行き先を取得し、利用者が所定の場所から所定の場所へ、所定の交通機関を利用して目的地へ行くという行動態様を推定する(ステップS32)。
[1-2. How to estimate the behavior mode from the acquired information]
The behavior mode in the present embodiment is a specific behavior state of the user, such as the user staying at a predetermined place, the user moving using a predetermined transportation system, and the like. For example, the behavior mode is a specific behavior state of the user such as (when), (where (to)), (with whom), (how), and (what to do). If the position information, acceleration information, and the like acquired by the terminal device 10 are within a predetermined numerical range, the estimation device 100, for example, estimates that the user is at home (step S32). For example, when the user inputs the departure place, destination, departure time, etc. in the navigation application of the terminal device 10, the estimation device 100 acquires the transportation system used by the user and the destination, A behavior mode of going from a predetermined place to a predetermined place and using a predetermined means of transportation to a destination is estimated (step S32).

例えば、複数の利用者の上記のデータが近似している場合、推定装置100は、SNS情報等を考慮して、それらの利用者は、行動を共にしていると推定する(ステップS32)。 For example, when the above data of a plurality of users are similar, the estimating device 100 considers SNS information, etc., and estimates that those users are acting together (step S32).

具体的な行動態様の推定について、以下に説明する。取得された位置情報及び行動情報に基づいて、推定装置100は、利用者の行動態様を推定する。具体的には、例えば、利用者が、所定時間、位置情報が利用者の自宅の住所に相当する位置を表す場合、推定装置100は、利用者は在宅していると推定する。さらに、推定装置100は、位置情報の変化が所定の範囲内であると判断した場合、利用者について、リラックスしている、読書をしている、食事をしている等、時間帯に応じて行動態様を推定する。また、推定装置100は、利用者が投稿したSNS情報、閲覧した検索情報、入力した検索クエリ等を取得し、その内容に基づいて、利用者の行動態様をさらに詳しく推定する。推定装置100は、利用者の行動態様に付随する情報も、種々の情報を組み合わせて推定する。例えば、推定装置100は、位置情報と気象情報から、その位置における天気を推定し、行動態様に付加する。例えば、推定装置100は、利用者について、まず、「(休日の午後で)(雨降りで)(自宅に)(いる)。」という行動態様を推定する。この推定について、さらに、推定装置100は、この時点において、利用者が投稿したSNS情報や、閲覧した検索情報、入力した検索クエリ等を取得し、その結果、利用者が投稿したSNS情報や利用者が検索した履歴の中に外国映画や主演者に係る情報があれば、(〇〇主演の外国映画を見る)と推定する。したがって、推定装置100は、利用者について、「(休日の午後で)(雨降りで)(自宅で)(〇〇主演の外国映画を見る)。」という行動態様を推定する。 Estimation of a specific behavior mode will be described below. Based on the acquired position information and behavior information, the estimation device 100 estimates the behavior mode of the user. Specifically, for example, when the user indicates a position corresponding to the user's home address for a predetermined period of time, the estimation device 100 estimates that the user is at home. Furthermore, when estimating apparatus 100 determines that the change in position information is within a predetermined range, the user is relaxed, reading, eating, etc., depending on the time period. Estimate the behavior mode. In addition, the estimation device 100 acquires SNS information posted by the user, search information browsed, search queries entered, and the like, and further estimates the user's behavior mode based on the content thereof. The estimating apparatus 100 also estimates information associated with the behavior mode of the user by combining various types of information. For example, the estimation device 100 estimates the weather at that location from the location information and the weather information, and adds it to the behavior mode. For example, the estimating apparatus 100 first estimates the behavior mode of the user as “(in the afternoon of a holiday) (in the rain) (at home)”. For this estimation, the estimation apparatus 100 further acquires the SNS information posted by the user, the search information browsed, the search query entered, etc. at this point, and as a result, the SNS information posted by the user and the If the user's search history includes information related to foreign films and starring actors, it is presumed that (watches foreign films starring XX). Therefore, the estimating apparatus 100 estimates the behavior of the user as "(in the afternoon of a holiday) (in the rain) (at home) (watching a foreign movie starring XX)".

例えば、利用者がカーナビに目的地等を入力している場合であって、推定装置100が、加速度計やジャイロセンサー等の数値を基に、利用者が自動車を運転していると判断した場合、推定装置100は、利用者について、まず、「(土曜日の午前中)(天気は曇りで)(〇〇百貨店へ)(自動車を運転して行く)。」という行動態様を推定する。この推定について、さらに、推定装置100は、この時点において、利用者が投稿したSNS情報や、閲覧した検索情報、入力した検索クエリ等を取得し、その結果、商品やブティック等の検索履歴等があれば、外出の目的はショッピングであると推定する。また、推定装置100が、利用者の投稿等から単独行動であることを取得すれば、一人で外出していると推定する。したがって、推定装置100は、利用者について、「(土曜日の午前中)(天気は曇りで)(自分一人で)(〇〇百貨店へ)(自動車を運転して)(ショッピングへ行く)。」という行動態様を推定する。 For example, when the user inputs a destination or the like into a car navigation system, and the estimation device 100 determines that the user is driving a car based on numerical values such as an accelerometer or a gyro sensor. , the estimation device 100 first estimates the user's behavior mode of "(Saturday morning) (cloudy weather) (to OO department store) (driving a car)". For this estimation, the estimation device 100 further acquires SNS information posted by the user, search information browsed, search queries entered, etc. at this time, and as a result, the search history of products, boutiques, etc. If so, the purpose of going out is presumed to be shopping. In addition, when the estimation device 100 acquires that the user is acting alone from the user's posting or the like, it estimates that the user is going out alone. Therefore, the estimating apparatus 100 can say about the user, "(Saturday morning) (cloudy) (by myself) (to XX department store) (driving a car) (going shopping)". Estimate the behavior mode.

例えば、利用者が地図情報を検索している場合であって、推定装置100が、加速度計やジャイロセンサー等の数値を基に、利用者が自動二輪車を運転していると判断した場合、推定装置100は、利用者について、まず、「(週末に)(〇〇キャンプ場へ)(自動二輪車で)(外出する)。」という行動態様を推定する。この推定について、さらに、推定装置100は、この時点において、利用者が投稿したSNS情報や、閲覧した検索情報、入力した検索クエリ等を取得し、その結果、目的地、行動を共にする人、自動二輪車に係る遠出についての投稿や検索履歴があれば、外出の目的は友人と一緒のツーリングであると推定する。したがって、利用者について、「(週末に)(〇〇キャンプ場へ)(友人と)(自動二輪車で)(ツーリングする)。」という行動態様を推定する。 For example, when the user is searching for map information, and the estimation device 100 determines that the user is driving a motorcycle based on numerical values such as an accelerometer and a gyro sensor, the estimation The device 100 first estimates the user's behavior mode as "(on the weekend) (to OO campsite) (on a motorcycle) (going out)". For this estimation, the estimation device 100 acquires SNS information posted by the user, search information browsed, search queries entered, etc. If there is a post or a search history regarding an excursion related to a motorcycle, it is presumed that the purpose of the outing is touring with a friend. Therefore, it is estimated that the behavior of the user is "(on the weekend) (to XX campsite) (with friends) (on a motorcycle) (touring)."

〔1-3.取得した情報からどのようにして利用者の感情及び感覚を推定するか〕
感情とは、特定の主題やトピックに対して個人がどのように感じているかを表すために使われる主観的な表現である。本実施形態では、感情の対象は、物、コンセプト、イベント、人物等である。例えば、感情とは、具体的に、好き、嫌い、熱い、冷たい、楽しい、悲しい等である。通常、感情スコアは、極性と強度の2つの要素から構成される。感情の極性は、感情の方向性であり、「ネガティブ」から「ポジティブ」までを示す。また、感情の強度は、感情の強さであり、「低い」から「高い」までを表す。例えば、推定装置100は、機械学習モデルにおいて、感情の方向性に着目し、「ポジティブ」「ニュートラル」「ネガティブ」を判断し、分類する。一般的には、感情分析には、ルールベース(セマンティック)アプローチ、自動アプローチ等が採用される。本願実施形態では、これらについては、既存の手法を用いてもよい。
[1-3. How to estimate the user's feelings and sensations from the acquired information]
Emotions are subjective expressions used to describe how an individual feels about a particular subject or topic. In this embodiment, the object of emotion is an object, a concept, an event, a person, or the like. For example, emotions specifically include like, dislike, hot, cold, fun, sad, and the like. Affective scores are typically composed of two components: polarity and intensity. The polarity of emotion is the direction of emotion and indicates from "negative" to "positive." In addition, the intensity of emotion is the intensity of emotion, and represents from "low" to "high". For example, the estimating device 100 focuses on the direction of emotion in the machine learning model, determines and classifies "positive,""neutral," and "negative." In general, sentiment analysis employs a rule-based (semantic) approach, an automated approach, and the like. In the embodiment of the present application, existing methods may be used for these.

本実施形態では、例えば、感情の推定について、推定装置100は、一般的な行動に対し、汎用的な感情をリンクさせ機械学習データとして記憶しておく。図2に、そのデータ例を示す。例えば、行動態様ID,感情ID、汎用的感情、感情の方向性、感情の強さ等を記憶しておく。例えば、汎用的感情が「楽しい」の場合、感情の方向性はポジティブであり、感情の強さは「高」である。図1において、推定装置100は、汎用的な感情を基礎として、利用者が投稿したSNS情報等を取得し(ステップS41)、それを元に、形態素解析をして各単語について「ポジティブ」「ニュートラル」「ネガティブ」に振り分け、全体としていずれに該当するかを判断し、利用者の感情を総合判断する(ステップS33)。例えば、屋外イベントの場合、一般的に、利用者は「楽しい」と感じるので、推定装置100は、汎用的な感情として「楽しい」と予め記憶しておく。しかし、その開催日の天候によっては、投稿したSNS情報等から、「楽しい」のスコアは幾分下がると予想される。SNS情報等を解析する際、推定装置100は、既存の形態素解析API(Application Programming Interface)を用いてもよい。また、推定装置100は、既存の「ポジティブ」、「ニュートラル」、「ネガティブ」を判断するための既存の単語辞書を用いてもよい。 In this embodiment, for estimation of emotion, for example, the estimation device 100 links general-purpose emotions to general behaviors and stores them as machine learning data. FIG. 2 shows an example of the data. For example, behavior mode ID, emotion ID, general emotion, direction of emotion, intensity of emotion, etc. are stored. For example, when the generic emotion is "pleasant", the direction of the emotion is positive and the intensity of the emotion is "high". In FIG. 1, the estimating apparatus 100 acquires SNS information and the like posted by the user based on general emotions (step S41), and based on this, performs morphological analysis to determine whether each word is "positive" or "positive". The user's emotion is comprehensively judged by sorting into "neutral" and "negative" and judging which of them is applicable as a whole (step S33). For example, in the case of an outdoor event, the user generally feels "fun", so the estimation device 100 pre-stores "fun" as a general emotion. However, depending on the weather on the day of the event, it is expected that the score of "enjoyable" will drop somewhat from the posted SNS information. When analyzing SNS information or the like, the estimation device 100 may use an existing morphological analysis API (Application Programming Interface). Also, the estimating apparatus 100 may use existing word dictionaries for determining "positive", "neutral", and "negative".

一方、感覚は、身体由来の情報が人間の心に影響を及ぼすものであり、例えば、ウキウキ、ワクワク、ドキドキ等である。このような表現は、SNS情報等において多々、見受けられる。例えば、感情の1つである「楽しい」については、一般的に「楽しい」は「ポジティブ」な表現であるが、体性感覚と関係づけると、「ポジティブ」から「ニュートラル」の間で変わることもあり得る。例えば、「ワクワク」して「楽しい」と、「フワフワ」して「楽しい」では、「楽しい」の強弱が変わってくる。そこで、例えば、推定装置100は、感覚について、感情を表す単語の「ポジティブ」、「ニュートラル」、「ネガティブ」な表現に調整を加えるものとして扱う。図3に、そのデータ例を示す。例えば、感覚ID,汎用的感覚、スコア等を記憶させておく。例えば、汎用的感覚が「ワクワク」の場合、そのスコアは正の値をとり得る。この場合、例えば、汎用的感情「楽しい」について、「感情の方向性」は「ポジティブ」で、「感情の強さ」は「高」として処理する。例えば、汎用的感覚が「フワフワ」の場合、そのスコアは「わくわく」より小さい正の値をとり得る。この場合、汎用的感情「楽しい」について、「感情の方向性」は「ポジティブ」で、「感情の強さ」は「中」として処理する。「このような判断は、既存の形態素解析APIを用いてもよい。 On the other hand, sensations are information derived from the body that affect the human mind, such as excitement, excitement, and throbbing. Such expressions are often found in SNS information and the like. For example, one of the emotions, ``joy'', is generally expressed as ``positive'', but when it is related to somatosensory, it changes between ``positive'' and ``neutral''. It is possible. For example, "excited" and "fun" and "fluffy" and "fun" change the intensity of "fun". Therefore, for example, the estimating apparatus 100 treats feelings as adjusting expressions of words expressing emotions such as “positive,” “neutral,” and “negative.” FIG. 3 shows an example of the data. For example, sense IDs, general senses, scores, etc. are stored. For example, if the general feeling is "excited", the score can take a positive value. In this case, for example, the general feeling "fun" is processed as "positive" in "direction of feeling" and "high" in "strength of feeling". For example, if the general feeling is "fluffy", the score may take a positive value smaller than "exciting". In this case, the general-purpose emotion "enjoyable" is processed as "positive" for "direction of emotion" and "medium" for "strength of emotion". "Such a determination may use an existing morphological analysis API.

例えば、推定装置100は、利用者の感情を推定する際、同じカテゴリの行動態様について、利用者の過去の行動態様・感情を参照し、同程度の感情であると推定してもよい。また、推定装置100は、利用者の行動態様が日常の状態であるか又は非日常の状態であるかを、利用者の行動態様・感情のログデータから判断し、その結果により感情の強弱を推定してもよい。例えば、推定装置100は、利用者の行動態様が非日常の状態であると判断した場合、感情の強さの数値を高めに推定してもよい。 For example, when estimating the user's emotion, the estimation apparatus 100 may refer to the user's past behavior/emotions for behaviors in the same category, and estimate that the user has the same level of emotion. In addition, the estimation device 100 determines whether the user's behavior mode is a normal state or an extraordinary state from the user's behavior mode/emotion log data, and determines the intensity of the emotion based on the result. can be estimated. For example, when the estimation device 100 determines that the behavior mode of the user is in an extraordinary state, the estimation device 100 may estimate the numerical value of the emotional intensity to be higher.

〔1-4.行動コンテキストの生成〕
推定装置100は、利用者の行動態様と感情と感覚とに基づいて、利用者の行動の状態を占めす行動コンテキストを生成する(ステップS34)。本実施形態における行動コンテキストとは、利用者の行動態様と感情と感覚とを組み合わせたデータであり、利用者に配信するコンテンツを決定する際に基準となるデータである。図4に、行動コンテキストのデータ構造の一例を示す。図4において、例えば、利用者ID、行動コンテキストID、行動態様ID、感情ID、感覚ID等を記憶しておく。具体的には、行動態様は、(いつ)、(どこで(へ))、(誰と)、(どのように)、(何をする)等からなる態様であり、行動態様に、利用者が投稿したSNS情報等から取得した感情と感覚を組み合わせて行動コンテキストを生成する。
[1-4. Generation of action context]
The estimating device 100 generates an action context that occupies the user's action state based on the user's action mode, emotion, and sensation (step S34). The action context in this embodiment is data that combines the user's action mode, emotion, and sensation, and is data that serves as a reference when determining content to be delivered to the user. FIG. 4 shows an example of the data structure of action context. In FIG. 4, for example, a user ID, action context ID, action mode ID, emotion ID, sensation ID, etc. are stored. Specifically, the behavior mode is a mode consisting of (when), (where (to)), (with whom), (how), (what to do), and the like. An action context is generated by combining emotions and sensations acquired from posted SNS information or the like.

例えば、図1において、利用者が、所定時間、位置情報が利用者の自宅に相当する位置を表す場合、推定装置100が、利用者は在宅しており、位置情報の変化が所定の範囲内であると判断した場合、推定装置100は、利用者について、「休日の午後で(いつ)、雨降りであり(天気)、自宅で(どこで)映画を見る(何をする)。」という行動態様を推定する。さらに、推定装置100は、利用者が投稿したSNS情報等から取得した感情及び感覚等を基に利用者の感情や感覚を加えて、「休日の午後で(いつ)、(冷たい)雨降りで(天気)、(外出する気分でなく)、自宅で(どこで)、一人で(誰と)、(お気に入りの俳優が主演の)外国映画を見て(何をする)幸せな気分になりたい(どのように)。」という行動コンテキストを生成する。 For example, in FIG. 1, when the user indicates a position corresponding to the user's home for a predetermined time, the estimation device 100 determines that the user is at home and the change in the position information is within a predetermined range. When determining that it is, the estimating apparatus 100 makes the behavior mode of the user "(when) it is raining (weather) on a holiday afternoon, and watch a movie (what to do) at home (where)." to estimate Furthermore, the estimating apparatus 100 adds the emotions and sensations of the user based on the emotions and sensations acquired from the SNS information posted by the user, etc. weather), (not in the mood to go out), at home (where), alone (with whom), watching a foreign movie (starring your favorite actor) to).” is generated.

例えば、図1において、利用者がカーナビに目的地等を入力している場合であって、推定装置100が、加速度計やジャイロセンサー等の数値を基に、利用者が自動車を運転していると判断した場合、推定装置100は、利用者について、「土曜日の午前中(いつ)、天気は曇りで(天気)、一人で(誰と)、デパートへ(どこへ)、自動車を運転して(どのように)ショッピングに出かける(何をする)。」という行動態様を推定する。さらに、推定装置100は、利用者が投稿したSNS情報等から取得した感情及び感覚等を基に利用者の感情や感覚を加えて、「土曜日の午前中(いつ)、天気は曇りで(天気)、(少し寒いが)期間限定ショップの情報をゲットし(ワクワクして)、デパートへ(どこへ)、一人で(誰と)、自動車を運転して(どのように)、ショッピングに出かける(何をする)。」という行動コンテキストを生成する(ステップS34)。 For example, in FIG. 1, the user is inputting a destination, etc. into the car navigation system, and the estimating device 100 detects that the user is driving a car based on numerical values such as an accelerometer and a gyro sensor. When the estimation apparatus 100 determines that the user (How to) go shopping (what to do)" is estimated. Furthermore, the estimating apparatus 100 adds the emotions and sensations of the user based on the emotions and sensations acquired from the SNS information posted by the user, etc. ), (although it's a little cold) get information about limited-time shops (excited), go to department stores (where), go alone (with whom), drive a car (how), go shopping ( What are you going to do?” is generated (step S34).

例えば、利用者がカーナビに目的地等を入力している場合であって、推定装置100が、加速度計やジャイロセンサー等の数値を基に、利用者が自動車を運転していると判断した場合、推定装置100は、利用者について、「週末に(いつ)〇〇キャンプ場に向かって(どこへ)、自動二輪車でツーリングする(何をする)。」という行動態様を推定する。さらに、推定装置100は、利用者が投稿したSNS情報等から取得した感情及び感覚等を基に利用者の感情や感覚を加えて、「週末に(いつ)、晴天で(天気)、(アウトドア気分)、(ウキウキで)、〇〇キャンプ場に向かって(どこへ)、友人と(誰と)、午前8時頃出発して(いつ)、自動二輪車でツーリングしている(何をする)。」という行動コンテキストを生成する。 For example, when the user inputs a destination or the like into a car navigation system, and the estimation device 100 determines that the user is driving a car based on numerical values such as an accelerometer or a gyro sensor. , the estimating device 100 estimates the user's behavior mode such as "(when) on the weekend (when) go to (where) 00 campsite, and tour (what to do) with a motorcycle." Furthermore, the estimating apparatus 100 adds the emotions and sensations of the user based on the emotions and sensations acquired from the SNS information posted by the user, etc. Mood), (excited), heading to 〇〇 campsite (where), with friends (with whom), leaving around 8:00 a.m. (when), touring on a motorcycle (what to do) .” is generated.

〔1-5.行動コンテキストに基づくコンテンツの決定〕
推定装置100は、行動コンテキストから各種コンテンツを取得できるようにコンテンツを記憶する。例えば、推定装置100は、まず、行動コンテキストにおける(何をする)に着目してコンテンツを検索する。
[1-5. Determination of content based on action context]
The estimating device 100 stores content so that various types of content can be obtained from the action context. For example, the estimation device 100 first searches for content by focusing on (what to do) in the action context.

例えば、行動コンテキストが、「休日の午後で(いつ)、(冷たい)雨降りであり(天気)、(外出する気分でなく)、自宅で(どこで)、一人で(誰と)、(お気に入りの俳優が主演の)外国映画を見て(何をする)幸せな気分になりたい(どのように)。」の場合、行動コンテキストに「外国映画を見て(何をする)」が含まれているので、推定装置100は、「映画コンテンツ」から「外国映画コンテンツ」を検索する。次いで、推定装置100は、利用者が投稿したSNS情報等から取得した情報に基づいて、外国映画のターゲット俳優が主演の映画を検索する。さらに、例えば、推定装置100は、「休日の午後(いつ)」、「(冷たい)雨降りであり(天気)」、「(外出する気分でなく)」、「自宅で(どこで)」、「一人で(誰と)」、「幸せな気分になりたい(どのように)」のキーワード検索で抽出し得るコンテンツを取得し、決定する(ステップS35)。 For example, if the behavioral context is “(when) on a holiday afternoon, (cold) raining (weather), (not in the mood to go out), at home (where), alone (with whom), (favorite actor I want to feel happy (how) by watching (what to do) a foreign movie starring ). , the estimating apparatus 100 searches for “foreign movie content” from “movie content”. Next, the estimating apparatus 100 searches for a movie starring the target actor of the foreign movie based on the information acquired from the SNS information posted by the user. Further, for example, the estimation apparatus 100 may select “holiday afternoon (when)”, “(cold) rainy (weather)”, “(not in the mood to go out)”, “at home (where)”, “alone Contents that can be extracted by a keyword search of "with (with whom)" and "I want to feel happy (how)" are acquired and determined (step S35).

また、例えば、行動コンテキストが、「土曜日の午前中(いつ)、天気は曇りで(天気)、(少し寒いが)期間限定ショップの情報をゲットし(ワクワクして)、デパートへ(どこへ)、一人で(誰と)、自動車を運転して(どのように)ショッピングに出かける(何をする)。」の場合、行動コンテキストに「ショッピングに出かける(何をする)」が含まれているので、推定装置100は、「ショッピングコンテンツ」から「デパートショッピングコンテンツ」を検索する。次いで、推定装置100は、利用者が投稿したSNS情報等から取得した情報に基づいて、例えば、「期間限定ショップ」に係るコンテンツを検索する。さらに、例えば、推定装置100は、「土曜日の午前中(いつ)」、「天気は曇りで(天気)」、「(少し寒いが)」、「一人で(誰と)」、「自動車を運転して(どのように)」のキーワード検索で抽出し得るコンテンツを取得し、決定する(ステップS35)。 Also, for example, the behavioral context may be “(when) on Saturday morning, the weather is cloudy (weather), (although it is a little cold) I got information about a limited-time shop (excited), and I went to a department store (where). , alone (with whom), drive a car (how) and go shopping (what to do).", the action context includes "go shopping (what to do)". , the estimating apparatus 100 searches for “department store shopping content” from “shopping content”. Next, the estimating device 100 searches for content related to, for example, “limited-time shop” based on information acquired from SNS information posted by the user. Furthermore, for example, the estimation apparatus 100 may perform the following operations: "Saturday morning (when)", "It's cloudy (weather)", "(Although it's a little cold)", "Alone (with whom)", "Driving a car Contents that can be extracted by a keyword search of "do (how)" are acquired and determined (step S35).

また、例えば、行動コンテキストが、「晴天で(天気)、(アウトドア気分ウキウキで)週末に(いつ)、△△キャンプ場に向かって(どこへ)、友人と(誰と)、午前8時頃出発して(いつ)、自動二輪車でツーリングしている(何をする)。」の場合、行動コンテキストに「自動二輪車でツーリングしている(何をする)」が含まれているので、推定装置100は、「アウトドアコンテンツ」から「ツーリングコンテンツ」を検索する。次いで、推定装置100は、利用者が投稿したSNS情報等から取得した情報に基づいて、例えば、「△△キャンプ場」に係るコンテンツを検索する。さらに、例えば、推定装置100は、「晴天で(天気)」、「(アウトドア気分ウキウキで)」、「週末に(いつ)」、「友人と(誰と)」、「午前8時頃出発して(いつ)」のキーワード検索で抽出し得るコンテンツを取得し、決定する(ステップS35)。本実施形態では、推定装置100は、既存のコンテンツデータベースを利用して、行動コンテキストと紐づけ、検索できるようにしてもよい。 Also, for example, the behavioral context may be “in fine weather (weather), (excited outdoors) on weekends (when), heading to △△ campsite (where), with friends (with whom), around 8:00 a.m. When you leave (when) and you are touring on a motorcycle (what you are doing).”, the action context includes “you are touring on a motorcycle (what you are doing).” 100 searches for “touring content” from “outdoor content”. Next, the estimating device 100 searches for content related to, for example, “ΔΔcampsite” based on information acquired from SNS information posted by the user. Further, for example, the estimating apparatus 100 may select “in fine weather (weather)”, “(excited outdoors)”, “on the weekend (when)”, “with friends (with whom)”, “depart around 8:00 a.m. Contents that can be extracted by a keyword search of "te (when)" are acquired and determined (step S35). In this embodiment, the estimating device 100 may use an existing content database to associate with the action context and search.

さらに、推定装置100は、利用者のSNS情報から取得した感情及び感覚に基づいて、例えば、映画コンテンツのジャンル等、ショッピングコンテンツのブランド等、アウトドアコンテンツのサバイバルレベル等を推定し、利用者に適したコンテンツを決定する。推定装置100は、予め取得した利用者の属性に基づいて、ジャンルを推定してもよい。 Further, the estimating device 100 estimates, for example, the genre of movie content, the brand of shopping content, the survival level of outdoor content, etc., based on the user's emotions and feelings acquired from the SNS information, and determine the content The estimating device 100 may estimate the genre based on the user's attributes acquired in advance.

〔2.推定装置の構成〕
次に、図5を参照して、実施形態に係る推定装置100の構成例について説明する。図5は、実施形態に係る推定装置100の構成例を示す図である。図5に示すように、推定装置100は、通信部210と、記憶部220と、制御部230とを有する。なお、推定装置100は、推定装置100を利用する管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(液晶ディスプレイ等)を有してもよい。
[2. Configuration of estimation device]
Next, a configuration example of the estimation device 100 according to the embodiment will be described with reference to FIG. FIG. 5 is a diagram illustrating a configuration example of the estimation device 100 according to the embodiment. As shown in FIG. 5 , estimation device 100 includes communication section 210 , storage section 220 , and control section 230 . Note that the estimation apparatus 100 has an input unit (for example, keyboard, mouse, etc.) that receives various operations from an administrator or the like who uses the estimation apparatus 100, and a display unit (liquid crystal display, etc.) for displaying various information. may

(通信部210)
通信部210は、例えば、NIC(Network Interface Card)等によって実現される。通信部210は、ネットワーク網と有線又は無線により接続され、ネットワーク網を介して、端末装置10との間で情報の送受信を行う。
(Communication unit 210)
The communication unit 210 is implemented by, for example, a NIC (Network Interface Card) or the like. The communication unit 210 is connected to a network by wire or wirelessly, and transmits and receives information to and from the terminal device 10 via the network.

(記憶部220)
記憶部220は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。図5に示すように、記憶部220は、行動態様・感情データ記憶部221と、感覚データ記憶部222と、行動コンテキスト記憶部223、コンテンツデータ記憶部224とを有する。
(storage unit 220)
The storage unit 220 is implemented by, for example, a semiconductor memory device such as a RAM (Random Access Memory) or flash memory, or a storage device such as a hard disk or an optical disk. As shown in FIG. 5 , the storage unit 220 includes a behavior mode/emotion data storage unit 221 , a sensation data storage unit 222 , a behavior context storage unit 223 and a content data storage unit 224 .

(行動態様・感情データ記憶部221)
行動態様・感情データ記憶部221では、例えば、図2に示すように、行動態様ID「ACTION_ID_00」、感情ID「feeling_ID_00」、汎用的感情「楽しい」、感情の方向性「positive_00」、感情の強さ「高」とが対応付けられて記憶されている。例えば、行動態様ID「ACTION_ID_00」に係る感情が汎用的感情「楽しい」であり、感情の方向性がポジティブであり、感情の強さが「高」である旨を示す。感情の強さは、所定の範囲の値をとり得るような数値であってもよい。行動態様については、一般的な感情である汎用的感情を初期値として設定しておき、機械学習を進める過程で感情の方向性、感情の強さを変化させてもよい。
(Behavior mode/emotion data storage unit 221)
For example, as shown in FIG. is stored in association with the height "high". For example, it indicates that the emotion associated with the behavior mode ID “ACTION_ID — 00” is the general emotion “fun”, the direction of the emotion is positive, and the intensity of the emotion is “high”. The intensity of emotion may be a numerical value that can take values within a predetermined range. As for the behavior mode, a general emotion that is a general emotion may be set as an initial value, and the direction of the emotion and the intensity of the emotion may be changed in the process of advancing machine learning.

(感覚データ記憶部222)
感覚データ記憶部222では、例えば、図3に示すように、感覚ID「sensation_ID_00」、汎用的感覚「ワクワク」、スコア「score_00」とが対応づけられて記憶されている。例えば、感覚ID「sensation_ID_00」に係る感覚が、汎用的感覚「ワクワク」であり、スコア「score_00」を取り得る旨を示す。感情と感覚の関係については、感情の強弱、方向性は、感覚に左右されるため、感覚IDにスコアを設け、感情の強弱を数値で表した際、スコアを用いて調整できるようにしてもよい。
(Sensory data storage unit 222)
In the sensation data storage unit 222, for example, as shown in FIG. 3, the sensation ID "sensation_ID_00", the general sensation "excitement", and the score "score_00" are associated and stored. For example, it indicates that the sensation associated with the sensation ID “sensation_ID_00” is the general sensation “excitement” and can take the score “score_00”. Regarding the relationship between emotions and sensations, since the intensity and direction of emotions are influenced by sensations, even if a score is assigned to the sensation ID and the intensity of emotion is expressed numerically, it can be adjusted using the score. good.

(行動コンテキスト記憶部223)
行動コンテキスト記憶部223では、例えば、図4に示すように、利用者ID「user_ID_00」、行動コンテキストID「act_context_ID_00」、行動態様ID「action_ID_00」、感情ID「feeling_ID_00」、感覚ID「sensation_ID_00」とが対応付けられて記憶されている。例えば、利用者ID「user_ID_00」の行動コンテキストが、行動コンテキストID「act_context_ID_00」であり、その行動態様、感情、感覚が、それぞれ「action_ID_00」、「feeling_ID_00」、「sensation_ID_00」である旨を示す。推定装置100は、この行動コンテキストに基づいて、利用者に配信するコンテンツを決定する。
(Action context storage unit 223)
For example, as shown in FIG. 4, the action context storage unit 223 stores a user ID "user_ID_00", an action context ID "act_context_ID_00", a behavior mode ID "action_ID_00", a feeling ID "feeling_ID_00", and a sensation ID "sensation_ID_00". are associated and stored. For example, it indicates that the action context of the user ID "user_ID_00" is the action context ID "act_context_ID_00", and the action mode, emotion, and sensation are "action_ID_00,""feeling_ID_00," and "sensation_ID_00," respectively. The estimating device 100 determines content to be delivered to the user based on this action context.

(コンテンツデータ記憶部224)
コンテンツデータ記憶部224は、利用者に配信するコンテンツを記憶する。コンテンツデータ記憶部224では、コンテンツについて、映画、ショッピング、アウトドア等のカテゴリを設け、カテゴリ毎にコンテンツを記憶する。例えば、コンテンツデータ記憶部224は、推定部232が生成した行動コンテキストに基づいて、まず、行動コンテキストに含まれている「何をする」に着目し、カテゴリ毎のコンテンツを検索できるようにコンテンツを記憶する。そして、コンテンツデータ記憶部224は、行動コンテキストにおける「何をする」以外の、(いつ)、(どこで(へ))、(誰と)、(どのように)に係るキーワードを用いて、さらに精度を上げて、コンテンツを検索できるようにコンテンツを記憶する。
(Content data storage unit 224)
The content data storage unit 224 stores content to be distributed to users. In the content data storage unit 224, categories such as movies, shopping, and outdoor are provided for content, and the content is stored for each category. For example, based on the action context generated by the estimation unit 232, the content data storage unit 224 first focuses on "what to do" included in the action context, and stores content so that content can be searched for each category. Remember. Then, the content data storage unit 224 uses keywords related to (when), (where (to)), (with whom), and (how) other than "what to do" in the action context to further improve accuracy. to remember content so you can search for it.

図6において、行動態様・感情データ記憶部221と感覚データ記憶部222と行動コンテキスト記憶部223とコンテンツデータ記憶部224との関係を示す。例えば、行動態様・感情データ記憶部221に記憶されている行動態様データと感情データと、感覚データ記憶部222に記憶されている感覚データとに基づいて生成された行動コンテキストが、行動コンテキスト記憶部223に記憶される。そして、行動コンテキストとコンテンツデータ記憶部224に記憶されているコンテンツが対応する。対応するコンテンツは複数あってもよい。具体的には、例えば、「いつ」、「どこで(へ)」、「誰と」、「どのように」、「何をする」等から成る行動IDが付された行動態様と、「汎用的感情」、「感情の方向性」、「感情の強さ」等から成る感情IDが付された感情と、「汎用的感覚」、「スコア」等から成る感覚IDが付された感覚とから、行動コンテキスト「act_context_ID_01」が生成され、この行動コンテキストと、コンテンツ「contents_ID_03」が対応する。対応するコンテンツは複数あってもよい。なお、記憶部220は、コンテンツについて、各種データベースを利用できるようにしてもよい。 FIG. 6 shows the relationship between the behavior mode/emotion data storage unit 221, the sensation data storage unit 222, the behavior context storage unit 223, and the content data storage unit 224. As shown in FIG. For example, the behavior context generated based on the behavior mode data and emotion data stored in the behavior mode/emotion data storage unit 221 and the sense data stored in the sense data storage unit 222 is stored in the behavior context storage unit. 223. The action context and the content stored in the content data storage unit 224 correspond to each other. There may be multiple corresponding contents. Specifically, for example, an action mode attached with an action ID consisting of "when", "where (to)", "with whom", "how", "what to do", and a "general Emotions with emotion IDs such as "feelings", "direction of emotions", "strength of emotions", etc., and sensations with sensation IDs such as "general sense", "score", etc. An action context “act_context_ID — 01” is generated, and this action context corresponds to the content “contents_ID — 03”. There may be multiple corresponding contents. Note that the storage unit 220 may use various databases for content.

(制御部230)
制御部230は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等のプロセッサによって、推定装置100内部の記憶装置に記憶されている各種プログラム(推定プログラムの一例に相当)がRAM等を作業領域として実行されることにより実現される。また、制御部230は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。
(control unit 230)
The control unit 230 is a controller. For example, a processor such as a CPU (Central Processing Unit) or an MPU (Micro Processing Unit) executes various programs (estimation programs) stored in a storage device inside the estimation device 100. (equivalent to one example) is implemented by executing the RAM or the like as a work area. Also, the control unit 230 is a controller, and may be realized by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

制御部230は、図5に示すように、取得部231と、推定部232と、決定部233と、配信部234とを有し、以下に説明する情報処理の機能や作用を実現又は実行する。なお、制御部230の内部構成は、図5に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。 As shown in FIG. 5, the control unit 230 includes an acquisition unit 231, an estimation unit 232, a determination unit 233, and a distribution unit 234, and implements or executes information processing functions and actions described below. . Note that the internal configuration of the control unit 230 is not limited to the configuration shown in FIG. 5, and may be another configuration as long as it performs information processing described later.

(取得部231)
取得部231は、利用者の端末装置10を介して、利用者の位置及び時刻情報、加速度情報等を取得する。例えば、取得部231は、端末装置10が備えるGPSユニット、加速度計、ジャイロセンサー、磁気センサーのデータを取得する。また、例えば、取得部231は、端末装置10にインストールされているカーナビや乗換案内アプリにおける出発地、目的地、経路等のデータを取得する。さらに、例えば、取得部231は、SNSサーバ等から利用者の行動に係るSNS情報等、一般的な検索エンジン等を用いた検索結果等を取得する。
(Acquisition unit 231)
The acquisition unit 231 acquires the user's position and time information, acceleration information, and the like via the user's terminal device 10 . For example, the acquisition unit 231 acquires data from the GPS unit, accelerometer, gyro sensor, and magnetic sensor included in the terminal device 10 . Also, for example, the acquisition unit 231 acquires data such as a departure point, a destination, and a route in a car navigation system or transfer guidance application installed in the terminal device 10 . Further, for example, the acquisition unit 231 acquires search results using a general search engine or the like, such as SNS information related to user behavior, from an SNS server or the like.

また、取得部231は、利用者の属性を示す属性情報を取得する。例えば、取得部231は、利用者の属性を管理する各種の外部サーバ(図示は省略)から、利用者の属性情報を取得してもよい。また、取得部231は、利用者があらかじめアプリケーションを介して登録した属性情報を取得してもよい。 The acquisition unit 231 also acquires attribute information indicating attributes of the user. For example, the acquisition unit 231 may acquire user attribute information from various external servers (not shown) that manage user attributes. Alternatively, the acquisition unit 231 may acquire attribute information registered in advance by the user via an application.

また、取得部231は、例えば、利用者の各種検索履歴や購買履歴等をログサーバ等から取得し、取得した検索履歴や購買履歴等に基づいて、利用者の属性を推定してもよく、利用者の位置履歴に基づいて、利用者の属性を推定してもよい。 Further, the acquisition unit 231 may, for example, acquire various search histories, purchase histories, etc. of the user from a log server or the like, and estimate attributes of the user based on the acquired search histories, purchase histories, etc. A user's attribute may be estimated based on the user's location history.

また、取得部231は、例えば、行動態様・感情データ記憶部221を参照し、利用者の日常的な行動態様や感情を特定してもよい。取得部231は、利用者が日常的にとる行動態様を利用者が将来行動するであろう行動態様とし、このような行動態様を示す情報を行動予定情報としてもよい。 In addition, the acquisition unit 231 may refer to, for example, the behavior/emotion data storage unit 221 to specify the daily behavior and emotions of the user. The acquiring unit 231 may set the action mode that the user takes on a daily basis as the action mode that the user will likely act in the future, and may use information indicating such a behavior mode as the action plan information.

(推定部232)
推定部232は、利用者の端末装置10を介して取得された位置情報と行動情報に基づいて、利用者の行動態様を推定する。具体的には、(いつ)、(どこで(へ))、(誰と)、(どのように)、(何をする)という利用者の具体的な行動の状態を、利用者の行動態様として推定する。例えば、端末装置10が取得した位置情報や加速度情報等が所定の数値の範囲内の場合、推定装置100は、利用者は在宅しているという行動態様を推定する。例えば、利用者が、端末装置10のナビアプリにおいて出発地、目的地、出発時刻等を入力している場合、推定装置100は、利用者の利用する交通機関、行き先を取得し、利用者が所定の場所から所定の場所へ、所定の交通機関を利用して目的地へ行くという行動態様を推定する。例えば、複数の利用者の上記のデータが近似している場合、推定装置100は、SNS情報等を考慮して、それらの利用者は、行動を共にしていると推定する。推定部232は、端末装置10だけでは、利用者の行動態様を取得しきれない場合があるため、利用者が投稿したSNS情報や入力した検索クエリ等を基に、利用者の行動態様を推定する。
(Estimation unit 232)
The estimation unit 232 estimates the behavior mode of the user based on the position information and the behavior information acquired via the terminal device 10 of the user. Specifically, the user's specific behavioral states such as (when), (where (to)), (with whom), (how), and (what to do) are defined as user behavior modes. presume. For example, if the positional information, acceleration information, and the like acquired by the terminal device 10 are within a predetermined numerical range, the estimating device 100 estimates that the user is at home. For example, when the user inputs the departure place, destination, departure time, etc. in the navigation application of the terminal device 10, the estimation device 100 acquires the transportation system used by the user and the destination, A behavior mode of going from a predetermined place to a predetermined place and using a predetermined means of transportation to a destination is estimated. For example, when the above data of a plurality of users are similar, the estimating apparatus 100 considers SNS information and the like to estimate that those users are acting together. Since the terminal device 10 alone may not be able to acquire the user's behavior mode, the estimation unit 232 estimates the user's behavior mode based on the SNS information posted by the user, the search query entered, etc. do.

次いで、推定部232は、利用者が投稿したSNS情報や入力した検索クエリ等を基に、利用者の感情と感覚を推定する。推定部232は、図2における利用者の行動態様と感情の対応関係を記憶する行動態様・感情データ記憶部221、図3における利用者の感覚とそのスコアの対応関係を記憶する感覚データ記憶部222に記憶されたデータを用いて、利用者の行動態様、感情、感覚を紐づけて、図4に示す利用者毎の行動コンテキストを生成する。 Next, the estimation unit 232 estimates the emotions and feelings of the user based on the SNS information posted by the user, the search query entered, and the like. The estimation unit 232 includes the behavior mode/emotion data storage unit 221 that stores the correspondence relationship between the user's behavior mode and emotion in FIG. 2, and the sensation data storage unit that stores the correspondence relationship between the user's sensation and the score in FIG. 222 is used to link the user's mode of behavior, emotions, and sensations to generate the behavioral context for each user shown in FIG.

推定部232は、行動態様・感情データ記憶部221に記憶されている利用者の行動情報に基づいて、利用者の行動態様が日常の状態であるか、又は非日常の状態であるかを推定し、その結果を基に利用者の感情や感覚を推定してもよい。 The estimation unit 232 estimates whether the behavior mode of the user is a normal state or an extraordinary state based on the user's behavior information stored in the behavior mode/emotion data storage unit 221. Then, based on the results, the user's feelings and sensations may be estimated.

また、推定部232は、利用者の過去の位置情報及び行動情報と当該位置情報及び行動情報が取得された際における利用者の行動態様と感情との関係性に基づいて、利用者の位置情報及び行動情報から現在の行動態様に係る行動コンテキストを推定し、生成してもよい。 Further, the estimating unit 232 calculates the location information of the user based on the relationship between the user's past location information and behavior information and the relationship between the user's behavior mode and emotion when the location information and behavior information were acquired. and the action information, the action context related to the current action mode may be estimated and generated.

(決定部233)
決定部233は、推定部232が生成した行動コンテキストに基づいて、コンテンツを検索するためのコンテンツIDを生成する。決定部233は、コンテンツIDを用いて、例えば、映画コンテンツ、ショッピングコンテンツ、アウトドアコンテンツから利用者に適したコンテンツを検索する。さらに、決定部233は、行動コンテキストに含まれている利用者の(いつ)、(どこで(へ))、(誰と)、(どのように)に係るワード、感情や感覚に基づいて、コンテンツ内のジャンルを検索し、決定する。決定部233は、配信候補となる複数のコンテンツを決定してもよい。
(Determination unit 233)
The determining unit 233 generates a content ID for searching for content based on the action context generated by the estimating unit 232 . The determination unit 233 uses the content ID to search for content suitable for the user from, for example, movie content, shopping content, and outdoor content. Furthermore, the determination unit 233 determines the content based on words, emotions, and feelings related to the user's (when), (where (to)), (with whom), and (how) included in the action context. Search and determine the genre within. The determination unit 233 may determine a plurality of contents to be distribution candidates.

(配信部234)
配信部234は、決定部により決定されたコンテンツを、利用者に配信する。配信部234は、コンテンツ配信の際、いくつかの候補として推定されたコンテンツも合わせて、利用者が選択できるように配信してもよい。
(Distribution unit 234)
The distribution unit 234 distributes the content determined by the determination unit to the user. When distributing content, the distributing unit 234 may also distribute some content estimated as candidates so that the user can select.

〔3.推定処理のフロー〕
次に、実施形態に係る推定装置100による推定処理の手順について説明する。
図7は、実施形態に係る推定装置100が、利用者の位置情報と行動情報を取得し、利用者の行動コンテキストを生成し、利用者に配信するコンテンツを決定し、利用者にコンテンツを配信する処理手順を示すフローチャートである。
[3. Estimation process flow]
Next, a procedure of estimation processing by the estimation device 100 according to the embodiment will be described.
FIG. 7 shows that the estimation device 100 according to the embodiment acquires the user's location information and behavior information, generates the user's behavior context, determines content to be distributed to the user, and distributes the content to the user. It is a flow chart showing a processing procedure to do.

まず、推定装置100の取得部231は、利用者の端末装置10を介して位置情報と行動情報を取得する(ステップS101)。具体的には、取得部231は、端末装置10に搭載されているGPSユニット、ジャイロセンサー、磁気センサー、加速度計等を用いて、利用者の位置情報と行動情報を取得する。また、取得部231は、利用者が投稿したSNS情報、検索した履歴、入力した検索クエリ等を取得する。 First, the acquisition unit 231 of the estimation device 100 acquires position information and behavior information via the terminal device 10 of the user (step S101). Specifically, the acquisition unit 231 acquires the user's location information and action information using a GPS unit, a gyro sensor, a magnetic sensor, an accelerometer, and the like mounted on the terminal device 10 . The acquisition unit 231 also acquires SNS information posted by the user, search history, input search query, and the like.

次いで、推定装置100の推定部232は、利用者の行動態様と感情を推定する(ステップS102)。具体的には、推定部232は、取得部231により取得された利用者の位置情報と行動情報に基づいて、(いつ)、(どこで(へ))、(誰と)、(どのように)、(何をする)等について、利用者の行動態様として推定し、さらに利用者が投稿したSNS情報や入力した検索クエリ等に基づいて利用者の感情を推定する。 Next, the estimation unit 232 of the estimation device 100 estimates the user's behavior mode and emotion (step S102). Specifically, the estimating unit 232 calculates (when), (where (to)), (with whom), (how) based on the location information and behavior information of the user acquired by the acquiring unit 231. , (what to do), etc., are estimated as the user's behavior mode, and the user's emotion is estimated based on the SNS information posted by the user, the search query entered, and the like.

次いで、推定装置100の推定部232は、利用者の感覚を推定する(ステップS103)。具体的には、推定部232は、利用者の行動態様に対応する、利用者が投稿したSNS情報や入力した検索クエリ等に基づいて、利用者の感覚を推定する。 Next, the estimating unit 232 of the estimating device 100 estimates the feeling of the user (step S103). Specifically, the estimating unit 232 estimates the feeling of the user based on the SNS information posted by the user, the search query entered, etc., corresponding to the behavior mode of the user.

次いで、推定装置100の推定部232は、利用者の推定された行動態様、感情及び感覚に基づいて、利用者の行動コンテキストを生成する(ステップS104)。具体的には、推定部232は、(いつ)、(どこで(へ))、(誰と)、(どのように)、(何をする)等についての利用者の行動態様に、利用者の感情及び感覚に係るデータを付加した行動コンテキストを生成する(ステップS104)。 Next, the estimating unit 232 of the estimating device 100 generates the user's action context based on the user's estimated behavior mode, emotion, and sensation (step S104). Specifically, the estimating unit 232 adds the user's A behavioral context to which data on emotions and sensations are added is generated (step S104).

次いで、推定装置100の決定部233は、利用者の行動コンテキストに基づいて利用者に配信するコンテンツを決定する(ステップS105)。具体的には、決定部233は、利用者の行動コンテキストの(何をする)に基づいてコンテンツのジャンルを決定し、さらに、(いつ)、(どこで(へ))、(誰と)、(どのように)についてキーワード検索をし、抽出し得るコンテンツを取得し、決定する。 Next, the determining unit 233 of the estimating device 100 determines content to be delivered to the user based on the user's action context (step S105). Specifically, the determining unit 233 determines the content genre based on (what to do) of the behavioral context of the user, and further determines (when), (where (to)), (with whom), ( Do a keyword search on how to get and determine what content can be extracted.

次いで、推定装置100の配信部234は、決定部233が決定したコンテンツを利用者に配信する(ステップ106)。配信部234は、配信候補となる複数のコンテンツを利用者に配信してもよい。 Next, the distribution unit 234 of the estimation device 100 distributes the content determined by the determination unit 233 to the user (step 106). The distribution unit 234 may distribute a plurality of content candidates for distribution to the user.

〔4.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の一部を手動的に行うこともできる。あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[4. others〕
Also, among the processes described in the above embodiments, some of the processes described as being automatically performed can also be performed manually. Alternatively, all or part of the processes described as being performed manually can be performed automatically by known methods. In addition, information including processing procedures, specific names, various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each drawing is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Also, each component of each device illustrated is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution and integration of each device is not limited to the one shown in the figure, and all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions. Can be integrated and configured.

例えば、図5に示した記憶部220の一部又は全部は、推定装置100によって保持されるのではなく、ストレージサーバ等に保持されてもよい。この場合、推定装置100は、ストレージサーバにアクセスすることで、走行情報等の各種情報を取得する。 For example, part or all of the storage unit 220 shown in FIG. 5 may be held in a storage server or the like instead of being held by the estimation device 100 . In this case, the estimation device 100 acquires various information such as travel information by accessing the storage server.

〔5.ハードウェア構成〕
また、上述してきた実施形態に係る推定装置100は、例えば図8に示すような構成のコンピュータ1000によって実現される。図8は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
[5. Hardware configuration]
Also, the estimation apparatus 100 according to the embodiments described above is realized by a computer 1000 configured as shown in FIG. 8, for example. FIG. 8 is a diagram illustrating an example of a hardware configuration; A computer 1000 is connected to an output device 1010 and an input device 1020, and an arithmetic device 1030, a primary storage device 1040, a secondary storage device 1050, an output IF (Interface) 1060, an input IF 1070, and a network IF 1080 are connected via a bus 1090. have

演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。一次記憶装置1040は、RAM等、演算装置1030が各種の演算に用いるデータを一時的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD、フラッシュメモリ等により実現される。 The arithmetic device 1030 operates based on programs stored in the primary storage device 1040 and the secondary storage device 1050, programs read from the input device 1020, and the like, and executes various processes. The primary storage device 1040 is a memory device such as a RAM that temporarily stores data used by the arithmetic device 1030 for various calculations. The secondary storage device 1050 is a storage device in which data used for various calculations by the arithmetic device 1030 and various databases are registered, and is implemented by a ROM (Read Only Memory), HDD, flash memory, or the like.

出力IF1060は、モニタやプリンタといった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインタフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力IF1070は、マウス、キーボード、およびスキャナ等といった各種の入力装置1020から情報を受信するためのインタフェースであり、例えば、USB等により実現される。 The output IF 1060 is an interface for transmitting information to be output to the output device 1010 that outputs various types of information such as a monitor and a printer. It is realized by a connector conforming to a standard such as HDMI (registered trademark) (High Definition Multimedia Interface). Also, the input IF 1070 is an interface for receiving information from various input devices 1020 such as a mouse, keyboard, scanner, etc., and is realized by, for example, USB.

なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等から情報を読み出す装置であってもよい。また、入力装置1020は、USBメモリ等の外付け記憶媒体であってもよい。 Note that the input device 1020 includes, for example, optical recording media such as CDs (Compact Discs), DVDs (Digital Versatile Discs), PDs (Phase change rewritable discs), magneto-optical recording media such as MOs (Magneto-Optical discs), and tapes. It may be a device that reads information from a medium, a magnetic recording medium, a semiconductor memory, or the like. Also, the input device 1020 may be an external storage medium such as a USB memory.

ネットワークIF1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。 Network IF 1080 receives data from other devices via network N and sends the data to arithmetic device 1030, and also transmits data generated by arithmetic device 1030 via network N to other devices.

演算装置1030は、出力IF1060や入力IF1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。 The arithmetic device 1030 controls the output device 1010 and the input device 1020 via the output IF 1060 and the input IF 1070 . For example, arithmetic device 1030 loads a program from input device 1020 or secondary storage device 1050 onto primary storage device 1040 and executes the loaded program.

例えば、コンピュータ1000が推定装置100として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部230の機能を実現する。 For example, when the computer 1000 functions as the estimation device 100 , the arithmetic device 1030 of the computer 1000 implements the functions of the control unit 230 by executing a program loaded on the primary storage device 1040 .

〔6.効果〕
上述してきたように、実施形態に係る推定装置100は、取得部231と、推定部232、決定部233、配信部234とを有する。
[6. effect〕
As described above, the estimation device 100 according to the embodiment has the acquisition unit 231, the estimation unit 232, the determination unit 233, and the distribution unit 234.

実施形態に係る推定装置100において、取得部231は、利用者の所有する端末装置10から利用者の位置情報及び行動情報を取得し、推定部232は、位置情報及び行動情報に基づいて、利用者の行動態様及び感情を推定し、決定部233は、行動態様及び感情に基づいて、利用者に配信するコンテンツを決定し、配信部234は、利用者にコンテンツを配信する。 In the estimation device 100 according to the embodiment, the acquisition unit 231 acquires the user's location information and behavior information from the terminal device 10 owned by the user, and the estimation unit 232 acquires the usage information based on the location information and the behavior information. The behavior mode and emotion of the person are estimated, the determination unit 233 determines content to be distributed to the user based on the behavior mode and emotion, and the distribution unit 234 distributes the content to the user.

これにより、実施形態に係る推定装置100において、取得部231が、利用者の所有する端末装置10から利用者の位置情報及び行動情報を取得し、推定部232が、位置情報及び行動情報に基づいて、利用者の行動態様及び感情を推定し、決定部233が、行動態様及び感情に基づいて、利用者に配信するコンテンツを決定し、配信部234が、利用者にコンテンツを配信するため、利用者の行動態様及び感情に基づいて、利用者に適切なコンテンツを容易に提供することができる。 As a result, in the estimation device 100 according to the embodiment, the acquisition unit 231 acquires the location information and behavior information of the user from the terminal device 10 owned by the user, and the estimation unit 232 acquires the location information and behavior information based on the location information and behavior information. to estimate the user's behavior mode and emotion, the determining unit 233 determines the content to be distributed to the user based on the behavior mode and emotion, and the distribution unit 234 distributes the content to the user, Appropriate content can be easily provided to the user based on the user's behavior and emotions.

また、実施形態に係る推定装置100において、推定部232は、利用者の感情に加えて、利用者が感じている感覚を推定し、決定部233は、行動態様と感情と感覚とに基づいて、利用者に配信するコンテンツを決定する。 In addition, in the estimation device 100 according to the embodiment, the estimation unit 232 estimates the feeling that the user is feeling in addition to the user's emotion, and the determination unit 233 , determines the content to be delivered to the user.

これにより、実施形態に係る推定装置100において、推定部232が、利用者の感情に加えて、利用者が感じている感覚を推定し、決定部233が、行動態様と感情と感覚とに基づいて、利用者に配信するコンテンツを決定するため、利用者の行動態様及び感情に基づいて、利用者に適切なコンテンツを容易に提供することができる。 As a result, in the estimation device 100 according to the embodiment, the estimation unit 232 estimates the feeling that the user is feeling in addition to the user's emotion, and the determination unit 233 determines the Since the content to be delivered to the user is determined based on the information, it is possible to easily provide appropriate content to the user based on the user's behavior and emotions.

また、実施形態に係る推定装置100において、取得部231は、利用者が閲覧した閲覧情報、利用者が投稿した投稿情報又は利用者が入力した検索クエリを取得し、推定部232は、利用者に係る閲覧情報、投稿情報又は検索クエリに基づいて、利用者の感情及び感覚を推定する。 In addition, in the estimation device 100 according to the embodiment, the acquisition unit 231 acquires browsing information viewed by the user, posted information posted by the user, or a search query input by the user. Based on the browsing information, posting information or search queries related to, user's emotions and feelings are estimated.

これにより、実施形態に係る推定装置100において、取得部231が、利用者が閲覧した閲覧情報、利用者が投稿した投稿情報又は利用者が入力した検索クエリを取得し、推定部232が、利用者に係る閲覧情報、投稿情報又は検索クエリに基づいて、利用者の感情及び感覚を推定するため、利用者の行動態様及び感情に基づいて、利用者に適切なコンテンツを容易に提供することができる。 As a result, in the estimation device 100 according to the embodiment, the acquisition unit 231 acquires the browsing information viewed by the user, the posted information posted by the user, or the search query input by the user. Based on the user's browsing information, posted information, or search queries, it is possible to estimate the user's emotions and feelings, so that it is possible to easily provide appropriate content to the user based on the user's behavior and emotions. can.

また、実施形態に係る推定装置100において、推定部232は、行動態様と感情と感覚とに基づいて、利用者の行動コンテキストを推定し、決定部233は、コンテキストに基づいて、利用者に配信するコンテンツを決定する。 In addition, in the estimation device 100 according to the embodiment, the estimation unit 232 estimates the behavioral context of the user based on the behavior mode, emotion, and sensation, and the determination unit 233 distributes the content to the user based on the context. Decide what content to

これにより、実施形態に係る推定装置100において、推定部232が、行動態様と感情と感覚とに基づいて、利用者の行動コンテキストを推定し、決定部233が、コンテキストに基づいて、利用者に配信するコンテンツを決定するため、利用者の行動態様及び感情に基づいて、利用者に適切なコンテンツを容易に提供することができる。 As a result, in the estimation device 100 according to the embodiment, the estimation unit 232 estimates the behavioral context of the user based on the behavior mode, emotion, and sensation, and the determination unit 233 determines the Since the content to be distributed is determined, appropriate content can be easily provided to the user based on the user's behavior and emotions.

また、実施形態に係る推定装置100において、推定部232は、利用者の行動情報に基づいて、利用者が日常又は非日常の状態であるかを推定し、推定した状態に基づいて、利用者の行動態様と感情と感覚とを推定する。 In addition, in the estimation device 100 according to the embodiment, the estimation unit 232 estimates whether the user is in an ordinary or extraordinary state based on the behavior information of the user, and based on the estimated state, determines whether the user Estimate behavior, emotions, and sensations of

これにより、実施形態に係る推定装置100において、推定部232が、利用者の行動情報に基づいて、利用者が日常又は非日常の状態であるかを推定し、推定した状態に基づいて、利用者の行動態様と感情と感覚とを推定するため、利用者の行動態様及び感情に基づいて、利用者に適切なコンテンツを容易に提供することができる。 As a result, in the estimation device 100 according to the embodiment, the estimation unit 232 estimates whether the user is in an ordinary or extraordinary state based on the behavior information of the user, and based on the estimated state, Since the user's mode of behavior, emotions, and feelings are estimated, it is possible to easily provide appropriate content to the user based on the mode of behavior and emotions of the user.

また、実施形態に係る推定装置100において、取得部231は、利用者の過去の位置情報及び行動情報とともに、当該位置情報及び行動情報が取得された際における利用者の行動態様及び感情を取得し、推定部232は、利用者の過去の位置情報及び行動情報と当該位置情報及び行動情報が取得された際における当該利用者の行動態様と感情との関係性に基づいて、利用者の位置情報及び行動情報から利用者の現在の行動態様及び感情を推定する。 In addition, in the estimation device 100 according to the embodiment, the acquisition unit 231 acquires the user's past location information and behavior information, as well as the behavior mode and emotion of the user when the location information and behavior information were acquired. , the estimating unit 232 calculates the location information of the user based on the relationship between the user's past location information and behavior information and the behavior mode and emotion of the user when the location information and behavior information were acquired. And from the behavior information, the user's current behavior and emotions are estimated.

これにより、実施形態に係る推定装置100において、取得部231は、利用者の過去の位置情報及び行動情報とともに、当該位置情報及び行動情報が取得された際における利用者の行動態様及び感情を取得し、推定部232は、利用者の過去の位置情報及び行動情報と当該位置情報及び行動情報が取得された際における当該利用者の行動態様と感情との関係性に基づいて、利用者の位置情報及び行動情報から利用者の現在の行動態様及び感情を推定するため、利用者の行動態様及び感情に基づいて、利用者に適切なコンテンツを容易に提供することができる。 As a result, in the estimation device 100 according to the embodiment, the acquisition unit 231 acquires the user's past position information and action information, as well as the user's behavior mode and emotion when the position information and action information were acquired. Then, the estimating unit 232 estimates the position of the user based on the relationship between the user's past position information and behavior information and the relationship between the user's behavior mode and emotion when the position information and behavior information were acquired. Since the user's current behavior and emotions are estimated from the information and behavior information, it is possible to easily provide appropriate content to the user based on the user's behavior and emotions.

上述した各処理により、推定装置100は、利用者の位置情報及び行動情報に基づいて、利用者の行動態様及び感情を推定し、推定した行動態様と感情に基づいて、利用者に配信するコンテンツを決定し、配信することができるという効果を奏する。 Through the above-described processes, the estimation device 100 estimates the user's behavior mode and emotion based on the user's location information and behavior information, and distributes content to the user based on the estimated behavior mode and emotion. can be determined and distributed.

以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 As described above, some of the embodiments of the present application have been described in detail based on the drawings. It is possible to carry out the invention in other forms with modifications.

また、上述した推定装置100は、複数のサーバコンピュータで実現してもよく、また、機能によっては外部のプラットフォーム等をAPI(Application Programming Interface)やネットワークコンピューティングなどで呼び出して実現するなど、構成は柔軟に変更できる。 In addition, the above-described estimating apparatus 100 may be implemented by a plurality of server computers, and depending on the function, may be implemented by calling an external platform or the like using an API (Application Programming Interface), network computing, or the like. Flexible to change.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。 Also, the above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the acquisition unit can be read as acquisition means or an acquisition circuit.

1 推定システム
10 端末装置
100 推定装置
210 通信部
220 記憶部
221 行動態様・感情データ記憶部
222 感覚データ記憶部
223 行動コンテキスト記憶部
224 コンテンツデータ記憶部
230 制御部
231 取得部
232 推定部
233 決定部
234 配信部
1 estimation system 10 terminal device 100 estimation device 210 communication unit 220 storage unit 221 behavior mode/emotion data storage unit 222 sensory data storage unit 223 behavior context storage unit 224 content data storage unit 230 control unit 231 acquisition unit 232 estimation unit 233 determination unit 234 Distribution Department

Claims (6)

利用者の所有する端末装置から前記利用者の位置情報及び行動情報を取得する取得部と、
前記取得部が取得した前記位置情報及び前記行動情報に基づいて、前記利用者の行動態様及び感情を推定し、前記利用者が所定の行動に伴い感じている感覚を推定する推定部と、
前記推定部により推定された前記行動態様前記感情と前記感覚とに基づいて、前記利用者に配信するコンテンツを決定する決定部と
を有し、
前記推定部は、前記利用者の前記行動情報に基づいて、前記利用者が日常又は非日常の状態であるかを推定し、前記状態に基づいて、前記利用者の行動態様と感情と感覚とを推定する
ことを特徴とする推定装置。
an acquisition unit that acquires location information and behavior information of the user from a terminal device owned by the user;
an estimation unit for estimating the user's behavior mode and emotion based on the position information and the behavior information acquired by the acquisition unit, and estimating the feeling that the user feels accompanying a predetermined behavior ;
a determination unit that determines content to be delivered to the user based on the behavior mode , the emotion , and the sensation estimated by the estimation unit ;
The estimating unit estimates whether the user is in an ordinary or extraordinary state based on the behavior information of the user, and based on the state, the behavior mode, emotion, and sensation of the user. An estimating device characterized by estimating
前記取得部は、前記利用者が閲覧した閲覧情報、前記利用者が投稿した投稿情報又は前記利用者が入力した検索クエリを取得し、
前記推定部は、前記利用者に係る前記閲覧情報、投稿情報又は検索クエリに基づいて、前記利用者の感情及び感覚を推定する
ことを特徴とする請求項に記載の推定装置。
The acquisition unit acquires browsing information viewed by the user, posted information posted by the user, or a search query input by the user,
The estimating device according to claim 1 , wherein the estimating unit estimates the emotion and sensation of the user based on the browsing information, posting information, or search query related to the user.
前記推定部は、前記行動態様と前記感情と前記感覚とに基づいて、前記利用者の状態を示す行動コンテキストを生成し、
前記決定部は、前記行動コンテキストに基づいて、前記利用者に配信するコンテンツを決定する
ことを特徴とする請求項またはに記載の推定装置。
The estimating unit generates an action context indicating a state of the user based on the action mode, the emotion, and the sensation,
The estimation device according to claim 1 or 2 , wherein the determining unit determines content to be distributed to the user based on the action context.
前記取得部は、前記利用者の過去の位置情報及び行動情報とともに、当該位置情報及び行動情報が取得された際における当該利用者の行動態様及び感情を取得し、
前記推定部は、前記利用者の過去の位置情報及び行動情報と当該位置情報及び行動情報が取得された際における当該利用者の行動態様と感情との関係性に基づいて、前記利用者の位置情報及び行動情報から前記利用者の現在の行動態様及び感情を推定する、
ことを特徴とする請求項1~のうちいずれか一つに記載の推定装置。
The acquisition unit acquires the user's past location information and behavior information as well as the user's behavior mode and emotion at the time when the location information and behavior information were acquired,
The estimating unit estimates the position of the user based on the relationship between the user's past position information and behavior information and the relationship between the user's behavior mode and emotion when the position information and behavior information were acquired. estimating the user's current behavior and emotions from the information and behavior information;
The estimation device according to any one of claims 1 to 3 , characterized in that:
コンピュータが実行する推定方法であって、
利用者の所有する端末装置から前記利用者の位置情報及び行動情報を取得する取得工程と、
前記取得工程が取得した前記位置情報及び前記行動情報に基づいて、前記利用者の行動態様及び感情を推定し、前記利用者が所定の行動に伴い感じている感覚を推定する推定工程と、
前記推定工程により推定された前記行動態様前記感情と前記感覚とに基づいて、前記利用者に配信するコンテンツを決定する決定工程と
含み、
前記推定工程は、前記利用者の前記行動情報に基づいて、前記利用者が日常又は非日常の状態であるかを推定し、前記状態に基づいて、前記利用者の行動態様と感情と感覚とを推定する
ことを含むことを特徴とする推定方法。
A computer implemented estimation method comprising:
an acquisition step of acquiring location information and behavior information of the user from a terminal device owned by the user;
an estimation step of estimating the user's behavior mode and emotion based on the position information and the behavior information acquired by the acquisition step, and estimating the feeling that the user feels as a result of the predetermined behavior ;
a determination step of determining content to be delivered to the user based on the behavior mode , the emotion , and the sensation estimated by the estimation step ;
In the estimating step, based on the behavior information of the user, it is estimated whether the user is in a normal or extraordinary state, and based on the state, the user's behavior mode, emotion, and sensation are estimated. An estimation method, comprising : estimating
利用者の所有する端末装置から前記利用者の位置情報及び行動情報を取得する取得手順と、
前記取得手順が取得した前記位置情報及び前記行動情報に基づいて、前記利用者の行動態様及び感情を推定し、前記利用者が所定の行動に伴い感じている感覚を推定する推定手順と、
前記推定手順により推定された前記行動態様前記感情と前記感覚とに基づいて、前記利用者に配信するコンテンツを決定する決定手順と
コンピュータに実行させ、
前記推定手順は、前記利用者の前記行動情報に基づいて、前記利用者が日常又は非日常の状態であるかを推定し、前記状態に基づいて、前記利用者の行動態様と感情と感覚とを推定する
ことをコンピュータに実行させることを特徴とする推定プログラム。
an acquisition procedure for acquiring location information and behavior information of the user from a terminal device owned by the user;
an estimation procedure for estimating the behavior mode and emotions of the user based on the position information and the behavior information acquired by the acquisition procedure, and estimating the feeling that the user feels in association with a predetermined behavior ;
causing a computer to execute a determination procedure for determining content to be distributed to the user based on the behavior mode , the emotion , and the sensation estimated by the estimation procedure;
The estimation procedure estimates whether the user is in a normal or extraordinary state based on the behavior information of the user, and based on the state, the user's behavior mode, emotion, and sensation. to estimate
An estimation program characterized by causing a computer to execute:
JP2020189515A 2020-11-13 2020-11-13 Estimation device, estimation method and estimation program Active JP7138687B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020189515A JP7138687B2 (en) 2020-11-13 2020-11-13 Estimation device, estimation method and estimation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020189515A JP7138687B2 (en) 2020-11-13 2020-11-13 Estimation device, estimation method and estimation program

Publications (2)

Publication Number Publication Date
JP2022078666A JP2022078666A (en) 2022-05-25
JP7138687B2 true JP7138687B2 (en) 2022-09-16

Family

ID=81707231

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020189515A Active JP7138687B2 (en) 2020-11-13 2020-11-13 Estimation device, estimation method and estimation program

Country Status (1)

Country Link
JP (1) JP7138687B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009251743A (en) 2008-04-02 2009-10-29 Ntt Docomo Inc Information delivery system, server device, information delivery program
WO2013164911A1 (en) 2012-05-02 2013-11-07 株式会社電通 Information distribution system
JP2015230588A (en) 2014-06-05 2015-12-21 株式会社Nttドコモ Action determination device, action determination method, and program
JP2017111675A (en) 2015-12-17 2017-06-22 ヤフー株式会社 Information processing device, information processing method and information processing program
JP2018129004A (en) 2017-02-10 2018-08-16 ヤフー株式会社 Generation apparatus, generation method, and generation program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009251743A (en) 2008-04-02 2009-10-29 Ntt Docomo Inc Information delivery system, server device, information delivery program
WO2013164911A1 (en) 2012-05-02 2013-11-07 株式会社電通 Information distribution system
JP2015230588A (en) 2014-06-05 2015-12-21 株式会社Nttドコモ Action determination device, action determination method, and program
JP2017111675A (en) 2015-12-17 2017-06-22 ヤフー株式会社 Information processing device, information processing method and information processing program
JP2018129004A (en) 2017-02-10 2018-08-16 ヤフー株式会社 Generation apparatus, generation method, and generation program

Also Published As

Publication number Publication date
JP2022078666A (en) 2022-05-25

Similar Documents

Publication Publication Date Title
US11061973B2 (en) Incorporating user usage of consumable content into recommendations
US10726438B2 (en) Personalized contextual coupon engine
US10528572B2 (en) Recommending a content curator
US9443199B2 (en) Interestingness recommendations in a computing advice facility
TWI479347B (en) Search assistant system and method
US20170097984A1 (en) Method and system for generating a knowledge representation
AU2012204315A1 (en) Geographically localized recommendations in a computing advice facility
KR101761999B1 (en) Method and system for coaching based on relationshinp type
CN113424175A (en) Intuitive speech search
JP6827305B2 (en) Selection device, selection method and selection program
US11558324B2 (en) Method and system for dynamically generating a card
US20140330770A1 (en) Context-aware implicit and explicit search
KR101873339B1 (en) System and method for providing interest contents
US20160292299A1 (en) Determining and inferring user attributes
US9767400B2 (en) Method and system for generating a card based on intent
JP6601821B2 (en) Determination apparatus, determination method, determination program, information processing apparatus, information processing method, and information processing program
Khoshahval et al. A personalized location-based and serendipity-oriented point of interest recommender assistant based on behavioral patterns
JP2020057221A (en) Information processing method, information processing device, and program
JP7138687B2 (en) Estimation device, estimation method and estimation program
US11157572B1 (en) Sharing user activity data with other users
JP7187597B2 (en) Information processing device, information processing method and information processing program
Dennouni et al. Recommendation techniques in mobile learning context: a review
JP2021125146A (en) Transmission program, transmission device, transmission method, and display program
Zulkefli et al. Hotel travel recommendation based on blog information
JP7144468B2 (en) Information processing device, information processing method and information processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220906

R150 Certificate of patent or registration of utility model

Ref document number: 7138687

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350