JP7138687B2 - Estimation device, estimation method and estimation program - Google Patents
Estimation device, estimation method and estimation program Download PDFInfo
- Publication number
- JP7138687B2 JP7138687B2 JP2020189515A JP2020189515A JP7138687B2 JP 7138687 B2 JP7138687 B2 JP 7138687B2 JP 2020189515 A JP2020189515 A JP 2020189515A JP 2020189515 A JP2020189515 A JP 2020189515A JP 7138687 B2 JP7138687 B2 JP 7138687B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- information
- behavior
- estimation
- emotion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 29
- 230000008451 emotion Effects 0.000 claims description 134
- 230000009471 action Effects 0.000 claims description 53
- 230000035807 sensation Effects 0.000 claims description 43
- 230000006399 behavior Effects 0.000 description 130
- 238000013500 data storage Methods 0.000 description 24
- 230000008569 process Effects 0.000 description 11
- 238000012545 processing Methods 0.000 description 10
- 230000003542 behavioural effect Effects 0.000 description 9
- 230000010365 information processing Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000036651 mood Effects 0.000 description 4
- 230000007935 neutral effect Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- SAZUGELZHZOXHB-UHFFFAOYSA-N acecarbromal Chemical compound CCC(Br)(CC)C(=O)NC(=O)NC(C)=O SAZUGELZHZOXHB-UHFFFAOYSA-N 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 230000000877 morphologic effect Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 206010068759 Feelings and sensations Diseases 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000001953 sensory effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000003238 somatosensory effect Effects 0.000 description 1
- 230000004083 survival effect Effects 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本発明は、推定装置、推定方法及び推定プログラムに関する。 The present invention relates to an estimating device, an estimating method, and an estimating program.
近年、外面情報や生体情報から、感情を推定する感情推定システム、感情推定モデル生成システム等が開発されている。
また、個人の機械学習モデルを作成し、そのモデルから推奨行動を提供するシステム等が考案されている。
In recent years, an emotion estimation system, an emotion estimation model generation system, and the like that estimate emotions from external information and biological information have been developed.
Systems and the like have also been devised that create individual machine learning models and provide recommended actions from those models.
しかしながら、上述した従来技術では、専用の情報測定装置を用意しなければならず、被測定者を、ある程度束縛する必要がある。 However, in the conventional technology described above, it is necessary to prepare a dedicated information measuring device, and it is necessary to constrain the person to be measured to some extent.
また、個人機械学習モデルを作成する際、入力データとして、個人の行動内容のデータセットが用意されていることを前提としているため、個人データの取得から、その個人へのデータ提供までの処理が、一連の処理として実現されていない。 In addition, when creating an individual machine learning model, it is assumed that a data set of individual behavior details is prepared as input data, so the processing from acquiring personal data to providing data to the individual is difficult. , is not implemented as a series of processes.
本願は、利用者の行動態様及び感情に基づいて、利用者に適切なコンテンツを容易に提供することを目的とする。 An object of the present application is to easily provide appropriate content to a user based on the user's mode of behavior and emotion.
本願に係る推定装置は、利用者の所有する端末装置から利用者の位置情報及び行動情報を取得する取得部と、取得部が取得した位置情報及び行動情報に基づいて、利用者の行動態様及び感情を推定する推定部と、推定部により推定された行動態様及び感情に基づいて、利用者に配信するコンテンツを決定する決定部とを有することを特徴とする。 The estimation device according to the present application includes an acquisition unit that acquires location information and behavior information of a user from a terminal device owned by the user; It is characterized by having an estimation unit for estimating emotions, and a determination unit for determining content to be distributed to users based on the behavior mode and emotions estimated by the estimation unit.
実施形態の一態様によれば、利用者の行動態様及び感情に基づいて、利用者に適切なコンテンツを容易に提供することができるという効果を奏する。 According to one aspect of the embodiment, it is possible to easily provide appropriate content to the user based on the user's behavior and emotions.
以下に、本願に係る推定装置、推定方法及び推定プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る推定装置、推定方法及び推定プログラムが限定されるものではない。1つまたは複数の実施形態の詳細は、以下の説明および図面に記載される。また、1つまたは複数の実施形態の各々は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。また、以下の1つまたは複数の実施形態において同一の部位には同一の符号を付し、重複する説明は省略する。 Embodiments for implementing the estimation device, estimation method, and estimation program according to the present application (hereinafter referred to as "embodiments") will be described in detail below with reference to the drawings. Note that the estimation device, estimation method, and estimation program according to the present application are not limited by this embodiment. The details of one or more embodiments are set forth in the following description and drawings. Also, each of one or more embodiments can be appropriately combined within a range that does not contradict the processing content. Also, in one or more embodiments below, the same parts are denoted by the same reference numerals, and overlapping descriptions are omitted.
〔1.推定処理〕
まず、図1を参照して、実施形態に係る推定処理の一例について説明する。図1は、利用者の位置情報及び行動情報に基づいて、利用者の行動態様及び感情を推定し、推定した行動態様及び感情に基づいて、利用者に配信するコンテンツを決定する推定処理の一例を示す図である。なお、図1に示す例では、実施形態に係る推定システム1によって、利用者の位置情報及び行動情報に基づいて、利用者の行動態様及び感情を推定し、推定した行動態様及び感情に基づいて、利用者に配信するコンテンツを決定する推定処理の実施形態について記載した。
[1. Estimation process]
First, an example of estimation processing according to an embodiment will be described with reference to FIG. FIG. 1 shows an example of estimation processing for estimating a user's behavior mode and emotion based on the user's location information and behavior information, and determining content to be delivered to the user based on the estimated behavior mode and emotion. It is a figure which shows. In the example shown in FIG. 1, the estimation system 1 according to the embodiment estimates the user's behavior mode and emotion based on the user's location information and behavior information, and based on the estimated behavior mode and emotion , described embodiments of an estimation process for determining content to deliver to a user.
図1に示すように、推定システム1には、端末装置101~10nと、推定装置100とが含まれる(nは任意の自然数)。本願明細書では、端末装置101~10nを区別する必要がない場合は、端末装置101~10nを「端末装置10」と記載する。図1では図示していないが、推定システム1は、複数台の推定装置100を含んでもよい。
As shown in FIG. 1, the estimation system 1 includes terminal devices 10 1 to 10 n and an estimation device 100 (n is any natural number). In this specification, the terminal devices 10 1 to 10 n are referred to as “terminal devices 10” when there is no need to distinguish between the terminal devices 10 1 to 10 n . Although not shown in FIG. 1 , the estimation system 1 may include
端末装置10は、利用者によって利用される情報処理装置である。端末装置10は、スマートフォン、デスクトップ型PC(Personal Computer)、ノート型PC、タブレット型PCを含む、任意のタイプの情報処理装置であってもよい。 The terminal device 10 is an information processing device used by a user. The terminal device 10 may be any type of information processing device including a smart phone, a desktop PC (Personal Computer), a notebook PC, and a tablet PC.
図1の例では、端末装置10は、利用者によって利用されるクライアント装置である。例えば、端末装置10には、加速度計、ジャイロセンサー、GPS(Global Positioning System)ユニット等が搭載されている。この例では、端末装置10は、少なくともナビゲーションアプリケーションがインストールされたスマートフォンである。ナビゲーションアプリケーション(以下、ナビアプリと呼ぶ。)には、カーナビゲーションアプリケーション(以下、カーナビアプリと呼ぶ)、鉄道乗換案内アプリケーション(以下、乗換案内アプリと呼ぶ。)等がある。カーナビアプリの場合、スマートフォンは、例えば、利用者の車両に設置される。より具体的な例を挙げるとこのようなスマートフォンは、利用者の車両に搭載された車載ホルダに装着され得る。なお、「利用者の車両に設置された端末装置10」という用語は、「利用者の車両に搭載された端末装置10」を包含し得る。つまり、「端末装置10の設置」という用語は、「端末装置10の恒久的な設置(例えば、端末装置10を搭載すること)」を包含し得る。 In the example of FIG. 1, the terminal device 10 is a client device used by a user. For example, the terminal device 10 is equipped with an accelerometer, a gyro sensor, a GPS (Global Positioning System) unit, and the like. In this example, the terminal device 10 is a smart phone in which at least a navigation application is installed. Navigation applications (hereinafter referred to as navigation applications) include car navigation applications (hereinafter referred to as car navigation applications), railway transfer guidance applications (hereinafter referred to as transfer guidance applications), and the like. In the case of a car navigation application, the smartphone is installed in the user's vehicle, for example. To give a more specific example, such a smartphone can be attached to an in-vehicle holder mounted on a user's vehicle. The term "terminal device 10 installed in the user's vehicle" can include "the terminal device 10 installed in the user's vehicle." That is, the term "installation of the terminal device 10" can encompass "permanent installation of the terminal device 10 (eg, mounting the terminal device 10)".
推定装置100は、利用者の位置情報及び行動情報に基づいて、利用者の行動態様及び感情を推定し、推定した行動態様及び感情に基づいて、利用者に配信するコンテンツを決定する情報処理装置である。推定装置100は、サーバを含む、任意のタイプの情報処理装置であってもよい。図1では図示していないが、推定装置100は、ネットワーク網(例えば、インターネット網)を介して、有線又は無線により端末装置10と通信を行う。情報処理装置200は、例えば、SNS(Social Networking Service)サーバであり、ネットワーク網(例えば、インターネット網)を介して、有線又は無線により推定装置100及び端末装置10と通信を行う。推定装置100及び端末装置10は、情報処理装置200から、インターネット等を介して、例えば、SNS情報、気象情報、交通情報等を取得する(ステップS41~S43、S31)。
The
〔1-1.利用者からどのような情報を取得するか〕
図1の例では、まず、端末装置10は、端末装置10に搭載されているGPSユニットを用いて、利用者の位置情報を取得する(ステップS10、S20)。具体的には、端末装置10は、時刻、緯度、経度のデータを所定の時間間隔で取得する。また、端末装置10は、端末装置10に搭載されているジャイロセンサー、加速度計等を用いて、利用者の行動情報である利用者の動きを取得する(ステップS10、S20)。具体的には、端末装置10は、加速度計、ジャイロセンサー、磁気センサー等のデータを所定の時間間隔で取得する。次いで、端末装置10は、利用者の位置情報及び行動情報を推定装置100に送信する(ステップS11、S21)。これにより、推定装置100は、利用者についての位置情報、行動情報を取得する(ステップS31)。
[1-1. What kind of information to acquire from the user]
In the example of FIG. 1, first, the terminal device 10 acquires the user's location information using the GPS unit installed in the terminal device 10 (steps S10 and S20). Specifically, the terminal device 10 acquires time, latitude, and longitude data at predetermined time intervals. In addition, the terminal device 10 acquires the movement of the user, which is the behavior information of the user, using a gyro sensor, an accelerometer, etc. mounted on the terminal device 10 (steps S10, S20). Specifically, the terminal device 10 acquires data from an accelerometer, a gyro sensor, a magnetic sensor, or the like at predetermined time intervals. Next, the terminal device 10 transmits the user's location information and action information to the estimation device 100 (steps S11 and S21). Thereby, the estimating
図1の例では、さらに、推定装置100は、利用者に係るSNS情報等を情報処理装置200から取得する(ステップS41、S31)。
In the example of FIG. 1, the estimating
〔1-2.取得した情報から、どのようにして行動態様を推定するか〕
本実施形態における行動態様とは、利用者が所定の場所に滞在している、利用者が所定の交通機関を使って移動している等の具体的な利用者の行動の状態である。例えば、行動態様とは、(いつ)、(どこで(へ))、(誰と)、(どのように)、(何をする)という利用者の具体的な行動の状態である。端末装置10が取得した位置情報や加速度情報等が所定の数値の範囲内の場合、例えば、推定装置100は、利用者は在宅しているという行動態様を推定する(ステップS32)。例えば、利用者が、端末装置10のナビアプリにおいて出発地、目的地、出発時刻等を入力している場合、推定装置100は、利用者の利用する交通機関、行き先を取得し、利用者が所定の場所から所定の場所へ、所定の交通機関を利用して目的地へ行くという行動態様を推定する(ステップS32)。
[1-2. How to estimate the behavior mode from the acquired information]
The behavior mode in the present embodiment is a specific behavior state of the user, such as the user staying at a predetermined place, the user moving using a predetermined transportation system, and the like. For example, the behavior mode is a specific behavior state of the user such as (when), (where (to)), (with whom), (how), and (what to do). If the position information, acceleration information, and the like acquired by the terminal device 10 are within a predetermined numerical range, the
例えば、複数の利用者の上記のデータが近似している場合、推定装置100は、SNS情報等を考慮して、それらの利用者は、行動を共にしていると推定する(ステップS32)。
For example, when the above data of a plurality of users are similar, the estimating
具体的な行動態様の推定について、以下に説明する。取得された位置情報及び行動情報に基づいて、推定装置100は、利用者の行動態様を推定する。具体的には、例えば、利用者が、所定時間、位置情報が利用者の自宅の住所に相当する位置を表す場合、推定装置100は、利用者は在宅していると推定する。さらに、推定装置100は、位置情報の変化が所定の範囲内であると判断した場合、利用者について、リラックスしている、読書をしている、食事をしている等、時間帯に応じて行動態様を推定する。また、推定装置100は、利用者が投稿したSNS情報、閲覧した検索情報、入力した検索クエリ等を取得し、その内容に基づいて、利用者の行動態様をさらに詳しく推定する。推定装置100は、利用者の行動態様に付随する情報も、種々の情報を組み合わせて推定する。例えば、推定装置100は、位置情報と気象情報から、その位置における天気を推定し、行動態様に付加する。例えば、推定装置100は、利用者について、まず、「(休日の午後で)(雨降りで)(自宅に)(いる)。」という行動態様を推定する。この推定について、さらに、推定装置100は、この時点において、利用者が投稿したSNS情報や、閲覧した検索情報、入力した検索クエリ等を取得し、その結果、利用者が投稿したSNS情報や利用者が検索した履歴の中に外国映画や主演者に係る情報があれば、(〇〇主演の外国映画を見る)と推定する。したがって、推定装置100は、利用者について、「(休日の午後で)(雨降りで)(自宅で)(〇〇主演の外国映画を見る)。」という行動態様を推定する。
Estimation of a specific behavior mode will be described below. Based on the acquired position information and behavior information, the
例えば、利用者がカーナビに目的地等を入力している場合であって、推定装置100が、加速度計やジャイロセンサー等の数値を基に、利用者が自動車を運転していると判断した場合、推定装置100は、利用者について、まず、「(土曜日の午前中)(天気は曇りで)(〇〇百貨店へ)(自動車を運転して行く)。」という行動態様を推定する。この推定について、さらに、推定装置100は、この時点において、利用者が投稿したSNS情報や、閲覧した検索情報、入力した検索クエリ等を取得し、その結果、商品やブティック等の検索履歴等があれば、外出の目的はショッピングであると推定する。また、推定装置100が、利用者の投稿等から単独行動であることを取得すれば、一人で外出していると推定する。したがって、推定装置100は、利用者について、「(土曜日の午前中)(天気は曇りで)(自分一人で)(〇〇百貨店へ)(自動車を運転して)(ショッピングへ行く)。」という行動態様を推定する。
For example, when the user inputs a destination or the like into a car navigation system, and the
例えば、利用者が地図情報を検索している場合であって、推定装置100が、加速度計やジャイロセンサー等の数値を基に、利用者が自動二輪車を運転していると判断した場合、推定装置100は、利用者について、まず、「(週末に)(〇〇キャンプ場へ)(自動二輪車で)(外出する)。」という行動態様を推定する。この推定について、さらに、推定装置100は、この時点において、利用者が投稿したSNS情報や、閲覧した検索情報、入力した検索クエリ等を取得し、その結果、目的地、行動を共にする人、自動二輪車に係る遠出についての投稿や検索履歴があれば、外出の目的は友人と一緒のツーリングであると推定する。したがって、利用者について、「(週末に)(〇〇キャンプ場へ)(友人と)(自動二輪車で)(ツーリングする)。」という行動態様を推定する。
For example, when the user is searching for map information, and the
〔1-3.取得した情報からどのようにして利用者の感情及び感覚を推定するか〕
感情とは、特定の主題やトピックに対して個人がどのように感じているかを表すために使われる主観的な表現である。本実施形態では、感情の対象は、物、コンセプト、イベント、人物等である。例えば、感情とは、具体的に、好き、嫌い、熱い、冷たい、楽しい、悲しい等である。通常、感情スコアは、極性と強度の2つの要素から構成される。感情の極性は、感情の方向性であり、「ネガティブ」から「ポジティブ」までを示す。また、感情の強度は、感情の強さであり、「低い」から「高い」までを表す。例えば、推定装置100は、機械学習モデルにおいて、感情の方向性に着目し、「ポジティブ」「ニュートラル」「ネガティブ」を判断し、分類する。一般的には、感情分析には、ルールベース(セマンティック)アプローチ、自動アプローチ等が採用される。本願実施形態では、これらについては、既存の手法を用いてもよい。
[1-3. How to estimate the user's feelings and sensations from the acquired information]
Emotions are subjective expressions used to describe how an individual feels about a particular subject or topic. In this embodiment, the object of emotion is an object, a concept, an event, a person, or the like. For example, emotions specifically include like, dislike, hot, cold, fun, sad, and the like. Affective scores are typically composed of two components: polarity and intensity. The polarity of emotion is the direction of emotion and indicates from "negative" to "positive." In addition, the intensity of emotion is the intensity of emotion, and represents from "low" to "high". For example, the
本実施形態では、例えば、感情の推定について、推定装置100は、一般的な行動に対し、汎用的な感情をリンクさせ機械学習データとして記憶しておく。図2に、そのデータ例を示す。例えば、行動態様ID,感情ID、汎用的感情、感情の方向性、感情の強さ等を記憶しておく。例えば、汎用的感情が「楽しい」の場合、感情の方向性はポジティブであり、感情の強さは「高」である。図1において、推定装置100は、汎用的な感情を基礎として、利用者が投稿したSNS情報等を取得し(ステップS41)、それを元に、形態素解析をして各単語について「ポジティブ」「ニュートラル」「ネガティブ」に振り分け、全体としていずれに該当するかを判断し、利用者の感情を総合判断する(ステップS33)。例えば、屋外イベントの場合、一般的に、利用者は「楽しい」と感じるので、推定装置100は、汎用的な感情として「楽しい」と予め記憶しておく。しかし、その開催日の天候によっては、投稿したSNS情報等から、「楽しい」のスコアは幾分下がると予想される。SNS情報等を解析する際、推定装置100は、既存の形態素解析API(Application Programming Interface)を用いてもよい。また、推定装置100は、既存の「ポジティブ」、「ニュートラル」、「ネガティブ」を判断するための既存の単語辞書を用いてもよい。
In this embodiment, for estimation of emotion, for example, the
一方、感覚は、身体由来の情報が人間の心に影響を及ぼすものであり、例えば、ウキウキ、ワクワク、ドキドキ等である。このような表現は、SNS情報等において多々、見受けられる。例えば、感情の1つである「楽しい」については、一般的に「楽しい」は「ポジティブ」な表現であるが、体性感覚と関係づけると、「ポジティブ」から「ニュートラル」の間で変わることもあり得る。例えば、「ワクワク」して「楽しい」と、「フワフワ」して「楽しい」では、「楽しい」の強弱が変わってくる。そこで、例えば、推定装置100は、感覚について、感情を表す単語の「ポジティブ」、「ニュートラル」、「ネガティブ」な表現に調整を加えるものとして扱う。図3に、そのデータ例を示す。例えば、感覚ID,汎用的感覚、スコア等を記憶させておく。例えば、汎用的感覚が「ワクワク」の場合、そのスコアは正の値をとり得る。この場合、例えば、汎用的感情「楽しい」について、「感情の方向性」は「ポジティブ」で、「感情の強さ」は「高」として処理する。例えば、汎用的感覚が「フワフワ」の場合、そのスコアは「わくわく」より小さい正の値をとり得る。この場合、汎用的感情「楽しい」について、「感情の方向性」は「ポジティブ」で、「感情の強さ」は「中」として処理する。「このような判断は、既存の形態素解析APIを用いてもよい。
On the other hand, sensations are information derived from the body that affect the human mind, such as excitement, excitement, and throbbing. Such expressions are often found in SNS information and the like. For example, one of the emotions, ``joy'', is generally expressed as ``positive'', but when it is related to somatosensory, it changes between ``positive'' and ``neutral''. It is possible. For example, "excited" and "fun" and "fluffy" and "fun" change the intensity of "fun". Therefore, for example, the estimating
例えば、推定装置100は、利用者の感情を推定する際、同じカテゴリの行動態様について、利用者の過去の行動態様・感情を参照し、同程度の感情であると推定してもよい。また、推定装置100は、利用者の行動態様が日常の状態であるか又は非日常の状態であるかを、利用者の行動態様・感情のログデータから判断し、その結果により感情の強弱を推定してもよい。例えば、推定装置100は、利用者の行動態様が非日常の状態であると判断した場合、感情の強さの数値を高めに推定してもよい。
For example, when estimating the user's emotion, the
〔1-4.行動コンテキストの生成〕
推定装置100は、利用者の行動態様と感情と感覚とに基づいて、利用者の行動の状態を占めす行動コンテキストを生成する(ステップS34)。本実施形態における行動コンテキストとは、利用者の行動態様と感情と感覚とを組み合わせたデータであり、利用者に配信するコンテンツを決定する際に基準となるデータである。図4に、行動コンテキストのデータ構造の一例を示す。図4において、例えば、利用者ID、行動コンテキストID、行動態様ID、感情ID、感覚ID等を記憶しておく。具体的には、行動態様は、(いつ)、(どこで(へ))、(誰と)、(どのように)、(何をする)等からなる態様であり、行動態様に、利用者が投稿したSNS情報等から取得した感情と感覚を組み合わせて行動コンテキストを生成する。
[1-4. Generation of action context]
The
例えば、図1において、利用者が、所定時間、位置情報が利用者の自宅に相当する位置を表す場合、推定装置100が、利用者は在宅しており、位置情報の変化が所定の範囲内であると判断した場合、推定装置100は、利用者について、「休日の午後で(いつ)、雨降りであり(天気)、自宅で(どこで)映画を見る(何をする)。」という行動態様を推定する。さらに、推定装置100は、利用者が投稿したSNS情報等から取得した感情及び感覚等を基に利用者の感情や感覚を加えて、「休日の午後で(いつ)、(冷たい)雨降りで(天気)、(外出する気分でなく)、自宅で(どこで)、一人で(誰と)、(お気に入りの俳優が主演の)外国映画を見て(何をする)幸せな気分になりたい(どのように)。」という行動コンテキストを生成する。
For example, in FIG. 1, when the user indicates a position corresponding to the user's home for a predetermined time, the
例えば、図1において、利用者がカーナビに目的地等を入力している場合であって、推定装置100が、加速度計やジャイロセンサー等の数値を基に、利用者が自動車を運転していると判断した場合、推定装置100は、利用者について、「土曜日の午前中(いつ)、天気は曇りで(天気)、一人で(誰と)、デパートへ(どこへ)、自動車を運転して(どのように)ショッピングに出かける(何をする)。」という行動態様を推定する。さらに、推定装置100は、利用者が投稿したSNS情報等から取得した感情及び感覚等を基に利用者の感情や感覚を加えて、「土曜日の午前中(いつ)、天気は曇りで(天気)、(少し寒いが)期間限定ショップの情報をゲットし(ワクワクして)、デパートへ(どこへ)、一人で(誰と)、自動車を運転して(どのように)、ショッピングに出かける(何をする)。」という行動コンテキストを生成する(ステップS34)。
For example, in FIG. 1, the user is inputting a destination, etc. into the car navigation system, and the
例えば、利用者がカーナビに目的地等を入力している場合であって、推定装置100が、加速度計やジャイロセンサー等の数値を基に、利用者が自動車を運転していると判断した場合、推定装置100は、利用者について、「週末に(いつ)〇〇キャンプ場に向かって(どこへ)、自動二輪車でツーリングする(何をする)。」という行動態様を推定する。さらに、推定装置100は、利用者が投稿したSNS情報等から取得した感情及び感覚等を基に利用者の感情や感覚を加えて、「週末に(いつ)、晴天で(天気)、(アウトドア気分)、(ウキウキで)、〇〇キャンプ場に向かって(どこへ)、友人と(誰と)、午前8時頃出発して(いつ)、自動二輪車でツーリングしている(何をする)。」という行動コンテキストを生成する。
For example, when the user inputs a destination or the like into a car navigation system, and the
〔1-5.行動コンテキストに基づくコンテンツの決定〕
推定装置100は、行動コンテキストから各種コンテンツを取得できるようにコンテンツを記憶する。例えば、推定装置100は、まず、行動コンテキストにおける(何をする)に着目してコンテンツを検索する。
[1-5. Determination of content based on action context]
The
例えば、行動コンテキストが、「休日の午後で(いつ)、(冷たい)雨降りであり(天気)、(外出する気分でなく)、自宅で(どこで)、一人で(誰と)、(お気に入りの俳優が主演の)外国映画を見て(何をする)幸せな気分になりたい(どのように)。」の場合、行動コンテキストに「外国映画を見て(何をする)」が含まれているので、推定装置100は、「映画コンテンツ」から「外国映画コンテンツ」を検索する。次いで、推定装置100は、利用者が投稿したSNS情報等から取得した情報に基づいて、外国映画のターゲット俳優が主演の映画を検索する。さらに、例えば、推定装置100は、「休日の午後(いつ)」、「(冷たい)雨降りであり(天気)」、「(外出する気分でなく)」、「自宅で(どこで)」、「一人で(誰と)」、「幸せな気分になりたい(どのように)」のキーワード検索で抽出し得るコンテンツを取得し、決定する(ステップS35)。
For example, if the behavioral context is “(when) on a holiday afternoon, (cold) raining (weather), (not in the mood to go out), at home (where), alone (with whom), (favorite actor I want to feel happy (how) by watching (what to do) a foreign movie starring ). , the estimating
また、例えば、行動コンテキストが、「土曜日の午前中(いつ)、天気は曇りで(天気)、(少し寒いが)期間限定ショップの情報をゲットし(ワクワクして)、デパートへ(どこへ)、一人で(誰と)、自動車を運転して(どのように)ショッピングに出かける(何をする)。」の場合、行動コンテキストに「ショッピングに出かける(何をする)」が含まれているので、推定装置100は、「ショッピングコンテンツ」から「デパートショッピングコンテンツ」を検索する。次いで、推定装置100は、利用者が投稿したSNS情報等から取得した情報に基づいて、例えば、「期間限定ショップ」に係るコンテンツを検索する。さらに、例えば、推定装置100は、「土曜日の午前中(いつ)」、「天気は曇りで(天気)」、「(少し寒いが)」、「一人で(誰と)」、「自動車を運転して(どのように)」のキーワード検索で抽出し得るコンテンツを取得し、決定する(ステップS35)。
Also, for example, the behavioral context may be “(when) on Saturday morning, the weather is cloudy (weather), (although it is a little cold) I got information about a limited-time shop (excited), and I went to a department store (where). , alone (with whom), drive a car (how) and go shopping (what to do).", the action context includes "go shopping (what to do)". , the estimating
また、例えば、行動コンテキストが、「晴天で(天気)、(アウトドア気分ウキウキで)週末に(いつ)、△△キャンプ場に向かって(どこへ)、友人と(誰と)、午前8時頃出発して(いつ)、自動二輪車でツーリングしている(何をする)。」の場合、行動コンテキストに「自動二輪車でツーリングしている(何をする)」が含まれているので、推定装置100は、「アウトドアコンテンツ」から「ツーリングコンテンツ」を検索する。次いで、推定装置100は、利用者が投稿したSNS情報等から取得した情報に基づいて、例えば、「△△キャンプ場」に係るコンテンツを検索する。さらに、例えば、推定装置100は、「晴天で(天気)」、「(アウトドア気分ウキウキで)」、「週末に(いつ)」、「友人と(誰と)」、「午前8時頃出発して(いつ)」のキーワード検索で抽出し得るコンテンツを取得し、決定する(ステップS35)。本実施形態では、推定装置100は、既存のコンテンツデータベースを利用して、行動コンテキストと紐づけ、検索できるようにしてもよい。
Also, for example, the behavioral context may be “in fine weather (weather), (excited outdoors) on weekends (when), heading to △△ campsite (where), with friends (with whom), around 8:00 a.m. When you leave (when) and you are touring on a motorcycle (what you are doing).”, the action context includes “you are touring on a motorcycle (what you are doing).” 100 searches for “touring content” from “outdoor content”. Next, the
さらに、推定装置100は、利用者のSNS情報から取得した感情及び感覚に基づいて、例えば、映画コンテンツのジャンル等、ショッピングコンテンツのブランド等、アウトドアコンテンツのサバイバルレベル等を推定し、利用者に適したコンテンツを決定する。推定装置100は、予め取得した利用者の属性に基づいて、ジャンルを推定してもよい。
Further, the
〔2.推定装置の構成〕
次に、図5を参照して、実施形態に係る推定装置100の構成例について説明する。図5は、実施形態に係る推定装置100の構成例を示す図である。図5に示すように、推定装置100は、通信部210と、記憶部220と、制御部230とを有する。なお、推定装置100は、推定装置100を利用する管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(液晶ディスプレイ等)を有してもよい。
[2. Configuration of estimation device]
Next, a configuration example of the
(通信部210)
通信部210は、例えば、NIC(Network Interface Card)等によって実現される。通信部210は、ネットワーク網と有線又は無線により接続され、ネットワーク網を介して、端末装置10との間で情報の送受信を行う。
(Communication unit 210)
The communication unit 210 is implemented by, for example, a NIC (Network Interface Card) or the like. The communication unit 210 is connected to a network by wire or wirelessly, and transmits and receives information to and from the terminal device 10 via the network.
(記憶部220)
記憶部220は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。図5に示すように、記憶部220は、行動態様・感情データ記憶部221と、感覚データ記憶部222と、行動コンテキスト記憶部223、コンテンツデータ記憶部224とを有する。
(storage unit 220)
The storage unit 220 is implemented by, for example, a semiconductor memory device such as a RAM (Random Access Memory) or flash memory, or a storage device such as a hard disk or an optical disk. As shown in FIG. 5 , the storage unit 220 includes a behavior mode/emotion
(行動態様・感情データ記憶部221)
行動態様・感情データ記憶部221では、例えば、図2に示すように、行動態様ID「ACTION_ID_00」、感情ID「feeling_ID_00」、汎用的感情「楽しい」、感情の方向性「positive_00」、感情の強さ「高」とが対応付けられて記憶されている。例えば、行動態様ID「ACTION_ID_00」に係る感情が汎用的感情「楽しい」であり、感情の方向性がポジティブであり、感情の強さが「高」である旨を示す。感情の強さは、所定の範囲の値をとり得るような数値であってもよい。行動態様については、一般的な感情である汎用的感情を初期値として設定しておき、機械学習を進める過程で感情の方向性、感情の強さを変化させてもよい。
(Behavior mode/emotion data storage unit 221)
For example, as shown in FIG. is stored in association with the height "high". For example, it indicates that the emotion associated with the behavior mode ID “ACTION_ID — 00” is the general emotion “fun”, the direction of the emotion is positive, and the intensity of the emotion is “high”. The intensity of emotion may be a numerical value that can take values within a predetermined range. As for the behavior mode, a general emotion that is a general emotion may be set as an initial value, and the direction of the emotion and the intensity of the emotion may be changed in the process of advancing machine learning.
(感覚データ記憶部222)
感覚データ記憶部222では、例えば、図3に示すように、感覚ID「sensation_ID_00」、汎用的感覚「ワクワク」、スコア「score_00」とが対応づけられて記憶されている。例えば、感覚ID「sensation_ID_00」に係る感覚が、汎用的感覚「ワクワク」であり、スコア「score_00」を取り得る旨を示す。感情と感覚の関係については、感情の強弱、方向性は、感覚に左右されるため、感覚IDにスコアを設け、感情の強弱を数値で表した際、スコアを用いて調整できるようにしてもよい。
(Sensory data storage unit 222)
In the sensation
(行動コンテキスト記憶部223)
行動コンテキスト記憶部223では、例えば、図4に示すように、利用者ID「user_ID_00」、行動コンテキストID「act_context_ID_00」、行動態様ID「action_ID_00」、感情ID「feeling_ID_00」、感覚ID「sensation_ID_00」とが対応付けられて記憶されている。例えば、利用者ID「user_ID_00」の行動コンテキストが、行動コンテキストID「act_context_ID_00」であり、その行動態様、感情、感覚が、それぞれ「action_ID_00」、「feeling_ID_00」、「sensation_ID_00」である旨を示す。推定装置100は、この行動コンテキストに基づいて、利用者に配信するコンテンツを決定する。
(Action context storage unit 223)
For example, as shown in FIG. 4, the action
(コンテンツデータ記憶部224)
コンテンツデータ記憶部224は、利用者に配信するコンテンツを記憶する。コンテンツデータ記憶部224では、コンテンツについて、映画、ショッピング、アウトドア等のカテゴリを設け、カテゴリ毎にコンテンツを記憶する。例えば、コンテンツデータ記憶部224は、推定部232が生成した行動コンテキストに基づいて、まず、行動コンテキストに含まれている「何をする」に着目し、カテゴリ毎のコンテンツを検索できるようにコンテンツを記憶する。そして、コンテンツデータ記憶部224は、行動コンテキストにおける「何をする」以外の、(いつ)、(どこで(へ))、(誰と)、(どのように)に係るキーワードを用いて、さらに精度を上げて、コンテンツを検索できるようにコンテンツを記憶する。
(Content data storage unit 224)
The content
図6において、行動態様・感情データ記憶部221と感覚データ記憶部222と行動コンテキスト記憶部223とコンテンツデータ記憶部224との関係を示す。例えば、行動態様・感情データ記憶部221に記憶されている行動態様データと感情データと、感覚データ記憶部222に記憶されている感覚データとに基づいて生成された行動コンテキストが、行動コンテキスト記憶部223に記憶される。そして、行動コンテキストとコンテンツデータ記憶部224に記憶されているコンテンツが対応する。対応するコンテンツは複数あってもよい。具体的には、例えば、「いつ」、「どこで(へ)」、「誰と」、「どのように」、「何をする」等から成る行動IDが付された行動態様と、「汎用的感情」、「感情の方向性」、「感情の強さ」等から成る感情IDが付された感情と、「汎用的感覚」、「スコア」等から成る感覚IDが付された感覚とから、行動コンテキスト「act_context_ID_01」が生成され、この行動コンテキストと、コンテンツ「contents_ID_03」が対応する。対応するコンテンツは複数あってもよい。なお、記憶部220は、コンテンツについて、各種データベースを利用できるようにしてもよい。
FIG. 6 shows the relationship between the behavior mode/emotion
(制御部230)
制御部230は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等のプロセッサによって、推定装置100内部の記憶装置に記憶されている各種プログラム(推定プログラムの一例に相当)がRAM等を作業領域として実行されることにより実現される。また、制御部230は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。
(control unit 230)
The control unit 230 is a controller. For example, a processor such as a CPU (Central Processing Unit) or an MPU (Micro Processing Unit) executes various programs (estimation programs) stored in a storage device inside the
制御部230は、図5に示すように、取得部231と、推定部232と、決定部233と、配信部234とを有し、以下に説明する情報処理の機能や作用を実現又は実行する。なお、制御部230の内部構成は、図5に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。
As shown in FIG. 5, the control unit 230 includes an acquisition unit 231, an
(取得部231)
取得部231は、利用者の端末装置10を介して、利用者の位置及び時刻情報、加速度情報等を取得する。例えば、取得部231は、端末装置10が備えるGPSユニット、加速度計、ジャイロセンサー、磁気センサーのデータを取得する。また、例えば、取得部231は、端末装置10にインストールされているカーナビや乗換案内アプリにおける出発地、目的地、経路等のデータを取得する。さらに、例えば、取得部231は、SNSサーバ等から利用者の行動に係るSNS情報等、一般的な検索エンジン等を用いた検索結果等を取得する。
(Acquisition unit 231)
The acquisition unit 231 acquires the user's position and time information, acceleration information, and the like via the user's terminal device 10 . For example, the acquisition unit 231 acquires data from the GPS unit, accelerometer, gyro sensor, and magnetic sensor included in the terminal device 10 . Also, for example, the acquisition unit 231 acquires data such as a departure point, a destination, and a route in a car navigation system or transfer guidance application installed in the terminal device 10 . Further, for example, the acquisition unit 231 acquires search results using a general search engine or the like, such as SNS information related to user behavior, from an SNS server or the like.
また、取得部231は、利用者の属性を示す属性情報を取得する。例えば、取得部231は、利用者の属性を管理する各種の外部サーバ(図示は省略)から、利用者の属性情報を取得してもよい。また、取得部231は、利用者があらかじめアプリケーションを介して登録した属性情報を取得してもよい。 The acquisition unit 231 also acquires attribute information indicating attributes of the user. For example, the acquisition unit 231 may acquire user attribute information from various external servers (not shown) that manage user attributes. Alternatively, the acquisition unit 231 may acquire attribute information registered in advance by the user via an application.
また、取得部231は、例えば、利用者の各種検索履歴や購買履歴等をログサーバ等から取得し、取得した検索履歴や購買履歴等に基づいて、利用者の属性を推定してもよく、利用者の位置履歴に基づいて、利用者の属性を推定してもよい。 Further, the acquisition unit 231 may, for example, acquire various search histories, purchase histories, etc. of the user from a log server or the like, and estimate attributes of the user based on the acquired search histories, purchase histories, etc. A user's attribute may be estimated based on the user's location history.
また、取得部231は、例えば、行動態様・感情データ記憶部221を参照し、利用者の日常的な行動態様や感情を特定してもよい。取得部231は、利用者が日常的にとる行動態様を利用者が将来行動するであろう行動態様とし、このような行動態様を示す情報を行動予定情報としてもよい。
In addition, the acquisition unit 231 may refer to, for example, the behavior/emotion
(推定部232)
推定部232は、利用者の端末装置10を介して取得された位置情報と行動情報に基づいて、利用者の行動態様を推定する。具体的には、(いつ)、(どこで(へ))、(誰と)、(どのように)、(何をする)という利用者の具体的な行動の状態を、利用者の行動態様として推定する。例えば、端末装置10が取得した位置情報や加速度情報等が所定の数値の範囲内の場合、推定装置100は、利用者は在宅しているという行動態様を推定する。例えば、利用者が、端末装置10のナビアプリにおいて出発地、目的地、出発時刻等を入力している場合、推定装置100は、利用者の利用する交通機関、行き先を取得し、利用者が所定の場所から所定の場所へ、所定の交通機関を利用して目的地へ行くという行動態様を推定する。例えば、複数の利用者の上記のデータが近似している場合、推定装置100は、SNS情報等を考慮して、それらの利用者は、行動を共にしていると推定する。推定部232は、端末装置10だけでは、利用者の行動態様を取得しきれない場合があるため、利用者が投稿したSNS情報や入力した検索クエリ等を基に、利用者の行動態様を推定する。
(Estimation unit 232)
The
次いで、推定部232は、利用者が投稿したSNS情報や入力した検索クエリ等を基に、利用者の感情と感覚を推定する。推定部232は、図2における利用者の行動態様と感情の対応関係を記憶する行動態様・感情データ記憶部221、図3における利用者の感覚とそのスコアの対応関係を記憶する感覚データ記憶部222に記憶されたデータを用いて、利用者の行動態様、感情、感覚を紐づけて、図4に示す利用者毎の行動コンテキストを生成する。
Next, the
推定部232は、行動態様・感情データ記憶部221に記憶されている利用者の行動情報に基づいて、利用者の行動態様が日常の状態であるか、又は非日常の状態であるかを推定し、その結果を基に利用者の感情や感覚を推定してもよい。
The
また、推定部232は、利用者の過去の位置情報及び行動情報と当該位置情報及び行動情報が取得された際における利用者の行動態様と感情との関係性に基づいて、利用者の位置情報及び行動情報から現在の行動態様に係る行動コンテキストを推定し、生成してもよい。
Further, the estimating
(決定部233)
決定部233は、推定部232が生成した行動コンテキストに基づいて、コンテンツを検索するためのコンテンツIDを生成する。決定部233は、コンテンツIDを用いて、例えば、映画コンテンツ、ショッピングコンテンツ、アウトドアコンテンツから利用者に適したコンテンツを検索する。さらに、決定部233は、行動コンテキストに含まれている利用者の(いつ)、(どこで(へ))、(誰と)、(どのように)に係るワード、感情や感覚に基づいて、コンテンツ内のジャンルを検索し、決定する。決定部233は、配信候補となる複数のコンテンツを決定してもよい。
(Determination unit 233)
The determining
(配信部234)
配信部234は、決定部により決定されたコンテンツを、利用者に配信する。配信部234は、コンテンツ配信の際、いくつかの候補として推定されたコンテンツも合わせて、利用者が選択できるように配信してもよい。
(Distribution unit 234)
The
〔3.推定処理のフロー〕
次に、実施形態に係る推定装置100による推定処理の手順について説明する。
図7は、実施形態に係る推定装置100が、利用者の位置情報と行動情報を取得し、利用者の行動コンテキストを生成し、利用者に配信するコンテンツを決定し、利用者にコンテンツを配信する処理手順を示すフローチャートである。
[3. Estimation process flow]
Next, a procedure of estimation processing by the
FIG. 7 shows that the
まず、推定装置100の取得部231は、利用者の端末装置10を介して位置情報と行動情報を取得する(ステップS101)。具体的には、取得部231は、端末装置10に搭載されているGPSユニット、ジャイロセンサー、磁気センサー、加速度計等を用いて、利用者の位置情報と行動情報を取得する。また、取得部231は、利用者が投稿したSNS情報、検索した履歴、入力した検索クエリ等を取得する。
First, the acquisition unit 231 of the
次いで、推定装置100の推定部232は、利用者の行動態様と感情を推定する(ステップS102)。具体的には、推定部232は、取得部231により取得された利用者の位置情報と行動情報に基づいて、(いつ)、(どこで(へ))、(誰と)、(どのように)、(何をする)等について、利用者の行動態様として推定し、さらに利用者が投稿したSNS情報や入力した検索クエリ等に基づいて利用者の感情を推定する。
Next, the
次いで、推定装置100の推定部232は、利用者の感覚を推定する(ステップS103)。具体的には、推定部232は、利用者の行動態様に対応する、利用者が投稿したSNS情報や入力した検索クエリ等に基づいて、利用者の感覚を推定する。
Next, the estimating
次いで、推定装置100の推定部232は、利用者の推定された行動態様、感情及び感覚に基づいて、利用者の行動コンテキストを生成する(ステップS104)。具体的には、推定部232は、(いつ)、(どこで(へ))、(誰と)、(どのように)、(何をする)等についての利用者の行動態様に、利用者の感情及び感覚に係るデータを付加した行動コンテキストを生成する(ステップS104)。
Next, the estimating
次いで、推定装置100の決定部233は、利用者の行動コンテキストに基づいて利用者に配信するコンテンツを決定する(ステップS105)。具体的には、決定部233は、利用者の行動コンテキストの(何をする)に基づいてコンテンツのジャンルを決定し、さらに、(いつ)、(どこで(へ))、(誰と)、(どのように)についてキーワード検索をし、抽出し得るコンテンツを取得し、決定する。
Next, the determining
次いで、推定装置100の配信部234は、決定部233が決定したコンテンツを利用者に配信する(ステップ106)。配信部234は、配信候補となる複数のコンテンツを利用者に配信してもよい。
Next, the
〔4.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の一部を手動的に行うこともできる。あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[4. others〕
Also, among the processes described in the above embodiments, some of the processes described as being automatically performed can also be performed manually. Alternatively, all or part of the processes described as being performed manually can be performed automatically by known methods. In addition, information including processing procedures, specific names, various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each drawing is not limited to the illustrated information.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Also, each component of each device illustrated is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution and integration of each device is not limited to the one shown in the figure, and all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions. Can be integrated and configured.
例えば、図5に示した記憶部220の一部又は全部は、推定装置100によって保持されるのではなく、ストレージサーバ等に保持されてもよい。この場合、推定装置100は、ストレージサーバにアクセスすることで、走行情報等の各種情報を取得する。
For example, part or all of the storage unit 220 shown in FIG. 5 may be held in a storage server or the like instead of being held by the
〔5.ハードウェア構成〕
また、上述してきた実施形態に係る推定装置100は、例えば図8に示すような構成のコンピュータ1000によって実現される。図8は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
[5. Hardware configuration]
Also, the
演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。一次記憶装置1040は、RAM等、演算装置1030が各種の演算に用いるデータを一時的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD、フラッシュメモリ等により実現される。
The arithmetic device 1030 operates based on programs stored in the
出力IF1060は、モニタやプリンタといった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインタフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力IF1070は、マウス、キーボード、およびスキャナ等といった各種の入力装置1020から情報を受信するためのインタフェースであり、例えば、USB等により実現される。
The output IF 1060 is an interface for transmitting information to be output to the output device 1010 that outputs various types of information such as a monitor and a printer. It is realized by a connector conforming to a standard such as HDMI (registered trademark) (High Definition Multimedia Interface). Also, the input IF 1070 is an interface for receiving information from
なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等から情報を読み出す装置であってもよい。また、入力装置1020は、USBメモリ等の外付け記憶媒体であってもよい。
Note that the
ネットワークIF1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。 Network IF 1080 receives data from other devices via network N and sends the data to arithmetic device 1030, and also transmits data generated by arithmetic device 1030 via network N to other devices.
演算装置1030は、出力IF1060や入力IF1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。
The arithmetic device 1030 controls the output device 1010 and the
例えば、コンピュータ1000が推定装置100として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部230の機能を実現する。
For example, when the computer 1000 functions as the
〔6.効果〕
上述してきたように、実施形態に係る推定装置100は、取得部231と、推定部232、決定部233、配信部234とを有する。
[6. effect〕
As described above, the
実施形態に係る推定装置100において、取得部231は、利用者の所有する端末装置10から利用者の位置情報及び行動情報を取得し、推定部232は、位置情報及び行動情報に基づいて、利用者の行動態様及び感情を推定し、決定部233は、行動態様及び感情に基づいて、利用者に配信するコンテンツを決定し、配信部234は、利用者にコンテンツを配信する。
In the
これにより、実施形態に係る推定装置100において、取得部231が、利用者の所有する端末装置10から利用者の位置情報及び行動情報を取得し、推定部232が、位置情報及び行動情報に基づいて、利用者の行動態様及び感情を推定し、決定部233が、行動態様及び感情に基づいて、利用者に配信するコンテンツを決定し、配信部234が、利用者にコンテンツを配信するため、利用者の行動態様及び感情に基づいて、利用者に適切なコンテンツを容易に提供することができる。
As a result, in the
また、実施形態に係る推定装置100において、推定部232は、利用者の感情に加えて、利用者が感じている感覚を推定し、決定部233は、行動態様と感情と感覚とに基づいて、利用者に配信するコンテンツを決定する。
In addition, in the
これにより、実施形態に係る推定装置100において、推定部232が、利用者の感情に加えて、利用者が感じている感覚を推定し、決定部233が、行動態様と感情と感覚とに基づいて、利用者に配信するコンテンツを決定するため、利用者の行動態様及び感情に基づいて、利用者に適切なコンテンツを容易に提供することができる。
As a result, in the
また、実施形態に係る推定装置100において、取得部231は、利用者が閲覧した閲覧情報、利用者が投稿した投稿情報又は利用者が入力した検索クエリを取得し、推定部232は、利用者に係る閲覧情報、投稿情報又は検索クエリに基づいて、利用者の感情及び感覚を推定する。
In addition, in the
これにより、実施形態に係る推定装置100において、取得部231が、利用者が閲覧した閲覧情報、利用者が投稿した投稿情報又は利用者が入力した検索クエリを取得し、推定部232が、利用者に係る閲覧情報、投稿情報又は検索クエリに基づいて、利用者の感情及び感覚を推定するため、利用者の行動態様及び感情に基づいて、利用者に適切なコンテンツを容易に提供することができる。
As a result, in the
また、実施形態に係る推定装置100において、推定部232は、行動態様と感情と感覚とに基づいて、利用者の行動コンテキストを推定し、決定部233は、コンテキストに基づいて、利用者に配信するコンテンツを決定する。
In addition, in the
これにより、実施形態に係る推定装置100において、推定部232が、行動態様と感情と感覚とに基づいて、利用者の行動コンテキストを推定し、決定部233が、コンテキストに基づいて、利用者に配信するコンテンツを決定するため、利用者の行動態様及び感情に基づいて、利用者に適切なコンテンツを容易に提供することができる。
As a result, in the
また、実施形態に係る推定装置100において、推定部232は、利用者の行動情報に基づいて、利用者が日常又は非日常の状態であるかを推定し、推定した状態に基づいて、利用者の行動態様と感情と感覚とを推定する。
In addition, in the
これにより、実施形態に係る推定装置100において、推定部232が、利用者の行動情報に基づいて、利用者が日常又は非日常の状態であるかを推定し、推定した状態に基づいて、利用者の行動態様と感情と感覚とを推定するため、利用者の行動態様及び感情に基づいて、利用者に適切なコンテンツを容易に提供することができる。
As a result, in the
また、実施形態に係る推定装置100において、取得部231は、利用者の過去の位置情報及び行動情報とともに、当該位置情報及び行動情報が取得された際における利用者の行動態様及び感情を取得し、推定部232は、利用者の過去の位置情報及び行動情報と当該位置情報及び行動情報が取得された際における当該利用者の行動態様と感情との関係性に基づいて、利用者の位置情報及び行動情報から利用者の現在の行動態様及び感情を推定する。
In addition, in the
これにより、実施形態に係る推定装置100において、取得部231は、利用者の過去の位置情報及び行動情報とともに、当該位置情報及び行動情報が取得された際における利用者の行動態様及び感情を取得し、推定部232は、利用者の過去の位置情報及び行動情報と当該位置情報及び行動情報が取得された際における当該利用者の行動態様と感情との関係性に基づいて、利用者の位置情報及び行動情報から利用者の現在の行動態様及び感情を推定するため、利用者の行動態様及び感情に基づいて、利用者に適切なコンテンツを容易に提供することができる。
As a result, in the
上述した各処理により、推定装置100は、利用者の位置情報及び行動情報に基づいて、利用者の行動態様及び感情を推定し、推定した行動態様と感情に基づいて、利用者に配信するコンテンツを決定し、配信することができるという効果を奏する。
Through the above-described processes, the
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 As described above, some of the embodiments of the present application have been described in detail based on the drawings. It is possible to carry out the invention in other forms with modifications.
また、上述した推定装置100は、複数のサーバコンピュータで実現してもよく、また、機能によっては外部のプラットフォーム等をAPI(Application Programming Interface)やネットワークコンピューティングなどで呼び出して実現するなど、構成は柔軟に変更できる。
In addition, the above-described
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。 Also, the above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the acquisition unit can be read as acquisition means or an acquisition circuit.
1 推定システム
10 端末装置
100 推定装置
210 通信部
220 記憶部
221 行動態様・感情データ記憶部
222 感覚データ記憶部
223 行動コンテキスト記憶部
224 コンテンツデータ記憶部
230 制御部
231 取得部
232 推定部
233 決定部
234 配信部
1 estimation system 10
Claims (6)
前記取得部が取得した前記位置情報及び前記行動情報に基づいて、前記利用者の行動態様及び感情を推定し、前記利用者が所定の行動に伴い感じている感覚を推定する推定部と、
前記推定部により推定された前記行動態様と前記感情と前記感覚とに基づいて、前記利用者に配信するコンテンツを決定する決定部と
を有し、
前記推定部は、前記利用者の前記行動情報に基づいて、前記利用者が日常又は非日常の状態であるかを推定し、前記状態に基づいて、前記利用者の行動態様と感情と感覚とを推定する
ことを特徴とする推定装置。 an acquisition unit that acquires location information and behavior information of the user from a terminal device owned by the user;
an estimation unit for estimating the user's behavior mode and emotion based on the position information and the behavior information acquired by the acquisition unit, and estimating the feeling that the user feels accompanying a predetermined behavior ;
a determination unit that determines content to be delivered to the user based on the behavior mode , the emotion , and the sensation estimated by the estimation unit ;
The estimating unit estimates whether the user is in an ordinary or extraordinary state based on the behavior information of the user, and based on the state, the behavior mode, emotion, and sensation of the user. An estimating device characterized by estimating
前記推定部は、前記利用者に係る前記閲覧情報、投稿情報又は検索クエリに基づいて、前記利用者の感情及び感覚を推定する
ことを特徴とする請求項1に記載の推定装置。 The acquisition unit acquires browsing information viewed by the user, posted information posted by the user, or a search query input by the user,
The estimating device according to claim 1 , wherein the estimating unit estimates the emotion and sensation of the user based on the browsing information, posting information, or search query related to the user.
前記決定部は、前記行動コンテキストに基づいて、前記利用者に配信するコンテンツを決定する
ことを特徴とする請求項1または2に記載の推定装置。 The estimating unit generates an action context indicating a state of the user based on the action mode, the emotion, and the sensation,
The estimation device according to claim 1 or 2 , wherein the determining unit determines content to be distributed to the user based on the action context.
前記推定部は、前記利用者の過去の位置情報及び行動情報と当該位置情報及び行動情報が取得された際における当該利用者の行動態様と感情との関係性に基づいて、前記利用者の位置情報及び行動情報から前記利用者の現在の行動態様及び感情を推定する、
ことを特徴とする請求項1~3のうちいずれか一つに記載の推定装置。 The acquisition unit acquires the user's past location information and behavior information as well as the user's behavior mode and emotion at the time when the location information and behavior information were acquired,
The estimating unit estimates the position of the user based on the relationship between the user's past position information and behavior information and the relationship between the user's behavior mode and emotion when the position information and behavior information were acquired. estimating the user's current behavior and emotions from the information and behavior information;
The estimation device according to any one of claims 1 to 3 , characterized in that:
利用者の所有する端末装置から前記利用者の位置情報及び行動情報を取得する取得工程と、
前記取得工程が取得した前記位置情報及び前記行動情報に基づいて、前記利用者の行動態様及び感情を推定し、前記利用者が所定の行動に伴い感じている感覚を推定する推定工程と、
前記推定工程により推定された前記行動態様と前記感情と前記感覚とに基づいて、前記利用者に配信するコンテンツを決定する決定工程と
を含み、
前記推定工程は、前記利用者の前記行動情報に基づいて、前記利用者が日常又は非日常の状態であるかを推定し、前記状態に基づいて、前記利用者の行動態様と感情と感覚とを推定する
ことを含むことを特徴とする推定方法。 A computer implemented estimation method comprising:
an acquisition step of acquiring location information and behavior information of the user from a terminal device owned by the user;
an estimation step of estimating the user's behavior mode and emotion based on the position information and the behavior information acquired by the acquisition step, and estimating the feeling that the user feels as a result of the predetermined behavior ;
a determination step of determining content to be delivered to the user based on the behavior mode , the emotion , and the sensation estimated by the estimation step ;
In the estimating step, based on the behavior information of the user, it is estimated whether the user is in a normal or extraordinary state, and based on the state, the user's behavior mode, emotion, and sensation are estimated. An estimation method, comprising : estimating
前記取得手順が取得した前記位置情報及び前記行動情報に基づいて、前記利用者の行動態様及び感情を推定し、前記利用者が所定の行動に伴い感じている感覚を推定する推定手順と、
前記推定手順により推定された前記行動態様と前記感情と前記感覚とに基づいて、前記利用者に配信するコンテンツを決定する決定手順と
をコンピュータに実行させ、
前記推定手順は、前記利用者の前記行動情報に基づいて、前記利用者が日常又は非日常の状態であるかを推定し、前記状態に基づいて、前記利用者の行動態様と感情と感覚とを推定する
ことをコンピュータに実行させることを特徴とする推定プログラム。 an acquisition procedure for acquiring location information and behavior information of the user from a terminal device owned by the user;
an estimation procedure for estimating the behavior mode and emotions of the user based on the position information and the behavior information acquired by the acquisition procedure, and estimating the feeling that the user feels in association with a predetermined behavior ;
causing a computer to execute a determination procedure for determining content to be distributed to the user based on the behavior mode , the emotion , and the sensation estimated by the estimation procedure;
The estimation procedure estimates whether the user is in a normal or extraordinary state based on the behavior information of the user, and based on the state, the user's behavior mode, emotion, and sensation. to estimate
An estimation program characterized by causing a computer to execute:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020189515A JP7138687B2 (en) | 2020-11-13 | 2020-11-13 | Estimation device, estimation method and estimation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020189515A JP7138687B2 (en) | 2020-11-13 | 2020-11-13 | Estimation device, estimation method and estimation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022078666A JP2022078666A (en) | 2022-05-25 |
JP7138687B2 true JP7138687B2 (en) | 2022-09-16 |
Family
ID=81707231
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020189515A Active JP7138687B2 (en) | 2020-11-13 | 2020-11-13 | Estimation device, estimation method and estimation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7138687B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009251743A (en) | 2008-04-02 | 2009-10-29 | Ntt Docomo Inc | Information delivery system, server device, information delivery program |
WO2013164911A1 (en) | 2012-05-02 | 2013-11-07 | 株式会社電通 | Information distribution system |
JP2015230588A (en) | 2014-06-05 | 2015-12-21 | 株式会社Nttドコモ | Action determination device, action determination method, and program |
JP2017111675A (en) | 2015-12-17 | 2017-06-22 | ヤフー株式会社 | Information processing device, information processing method and information processing program |
JP2018129004A (en) | 2017-02-10 | 2018-08-16 | ヤフー株式会社 | Generation apparatus, generation method, and generation program |
-
2020
- 2020-11-13 JP JP2020189515A patent/JP7138687B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009251743A (en) | 2008-04-02 | 2009-10-29 | Ntt Docomo Inc | Information delivery system, server device, information delivery program |
WO2013164911A1 (en) | 2012-05-02 | 2013-11-07 | 株式会社電通 | Information distribution system |
JP2015230588A (en) | 2014-06-05 | 2015-12-21 | 株式会社Nttドコモ | Action determination device, action determination method, and program |
JP2017111675A (en) | 2015-12-17 | 2017-06-22 | ヤフー株式会社 | Information processing device, information processing method and information processing program |
JP2018129004A (en) | 2017-02-10 | 2018-08-16 | ヤフー株式会社 | Generation apparatus, generation method, and generation program |
Also Published As
Publication number | Publication date |
---|---|
JP2022078666A (en) | 2022-05-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11061973B2 (en) | Incorporating user usage of consumable content into recommendations | |
US10726438B2 (en) | Personalized contextual coupon engine | |
US10528572B2 (en) | Recommending a content curator | |
US9443199B2 (en) | Interestingness recommendations in a computing advice facility | |
TWI479347B (en) | Search assistant system and method | |
US20170097984A1 (en) | Method and system for generating a knowledge representation | |
AU2012204315A1 (en) | Geographically localized recommendations in a computing advice facility | |
KR101761999B1 (en) | Method and system for coaching based on relationshinp type | |
CN113424175A (en) | Intuitive speech search | |
JP6827305B2 (en) | Selection device, selection method and selection program | |
US11558324B2 (en) | Method and system for dynamically generating a card | |
US20140330770A1 (en) | Context-aware implicit and explicit search | |
KR101873339B1 (en) | System and method for providing interest contents | |
US20160292299A1 (en) | Determining and inferring user attributes | |
US9767400B2 (en) | Method and system for generating a card based on intent | |
JP6601821B2 (en) | Determination apparatus, determination method, determination program, information processing apparatus, information processing method, and information processing program | |
Khoshahval et al. | A personalized location-based and serendipity-oriented point of interest recommender assistant based on behavioral patterns | |
JP2020057221A (en) | Information processing method, information processing device, and program | |
JP7138687B2 (en) | Estimation device, estimation method and estimation program | |
US11157572B1 (en) | Sharing user activity data with other users | |
JP7187597B2 (en) | Information processing device, information processing method and information processing program | |
Dennouni et al. | Recommendation techniques in mobile learning context: a review | |
JP2021125146A (en) | Transmission program, transmission device, transmission method, and display program | |
Zulkefli et al. | Hotel travel recommendation based on blog information | |
JP7144468B2 (en) | Information processing device, information processing method and information processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210317 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220531 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220728 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220823 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220906 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7138687 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |