JP6924303B2 - Generation device, generation method, and generation program - Google Patents
Generation device, generation method, and generation program Download PDFInfo
- Publication number
- JP6924303B2 JP6924303B2 JP2020089202A JP2020089202A JP6924303B2 JP 6924303 B2 JP6924303 B2 JP 6924303B2 JP 2020089202 A JP2020089202 A JP 2020089202A JP 2020089202 A JP2020089202 A JP 2020089202A JP 6924303 B2 JP6924303 B2 JP 6924303B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- user
- model
- context
- division
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 76
- 230000009471 action Effects 0.000 claims description 83
- 230000008569 process Effects 0.000 claims description 35
- 230000003542 behavioural effect Effects 0.000 claims description 3
- 230000000875 corresponding effect Effects 0.000 description 74
- 230000006399 behavior Effects 0.000 description 66
- 238000010586 diagram Methods 0.000 description 32
- 101150087840 UL11 gene Proteins 0.000 description 23
- 101100135609 Arabidopsis thaliana PAP10 gene Proteins 0.000 description 17
- 101001064302 Homo sapiens Lipase member I Proteins 0.000 description 17
- 102100030659 Lipase member I Human genes 0.000 description 17
- 101000874141 Homo sapiens Probable ATP-dependent RNA helicase DDX43 Proteins 0.000 description 12
- 102100035724 Probable ATP-dependent RNA helicase DDX43 Human genes 0.000 description 12
- 238000012545 processing Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 7
- 101000725916 Homo sapiens Putative tumor antigen NA88-A Proteins 0.000 description 6
- 102100027596 Putative tumor antigen NA88-A Human genes 0.000 description 6
- 101150105144 UL21 gene Proteins 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000010365 information processing Effects 0.000 description 5
- 101710114762 50S ribosomal protein L11, chloroplastic Proteins 0.000 description 4
- 102100034323 Disintegrin and metalloproteinase domain-containing protein 2 Human genes 0.000 description 4
- 101000780288 Homo sapiens Disintegrin and metalloproteinase domain-containing protein 2 Proteins 0.000 description 4
- 101000821981 Homo sapiens Sarcoma antigen 1 Proteins 0.000 description 4
- 102100021466 Sarcoma antigen 1 Human genes 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 230000010354 integration Effects 0.000 description 4
- 238000007477 logistic regression Methods 0.000 description 4
- 230000007423 decrease Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 101150023763 UL12 gene Proteins 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本発明は、生成装置、生成方法、及び生成プログラムに関する。 The present invention relates to a generator, a generator, and a generator.
従来、生成した予測モデル(以下、単に「モデル」とする)に基づいて、所定の対象を予測する技術が提供されている。例えば、モデルを用いて所定の需要を予測する技術が提供されている。このような技術において、ユーザに配信するコンテンツへの関心等を予測するモデルを生成する場合、全ユーザを対象にモデルを生成したり、各ユーザを対象にモデルを生成したりする。 Conventionally, a technique for predicting a predetermined target based on a generated prediction model (hereinafter, simply referred to as “model”) has been provided. For example, a technique for predicting a predetermined demand using a model is provided. In such a technique, when a model for predicting interest in content to be delivered to a user is generated, a model is generated for all users or a model is generated for each user.
しかしながら、上記の従来技術では、所定の対象を適切に予測するモデルを生成することが難しい場合がある。例えば、多数のユーザの全員を対象にモデルを生成した場合、各ユーザに対して適切に予測可能なモデルを生成することは難しい。また、例えば、多数のユーザの各々を対象にモデルを生成する場合、モデル生成に用いる情報の量が十分でないユーザに対しては、適切に予測可能なモデルを生成することは難しい。 However, with the above-mentioned prior art, it may be difficult to generate a model that appropriately predicts a predetermined target. For example, when a model is generated for all of a large number of users, it is difficult to generate an appropriately predictable model for each user. Further, for example, when a model is generated for each of a large number of users, it is difficult to generate an appropriately predictable model for a user whose amount of information used for model generation is not sufficient.
本願は、上記に鑑みてなされたものであって、コンテキストに基づいて所定の対象を適切に予測するモデルを生成する生成装置、生成方法、及び生成プログラムを提供することを目的とする。 The present application has been made in view of the above, and an object of the present application is to provide a generation device, a generation method, and a generation program for generating a model that appropriately predicts a predetermined object based on a context.
本願に係る生成装置は、ユーザに関する区分ごとのユーザの行動に関する行動情報を、当該ユーザが利用する端末装置から取得する取得部と、コンテキストに基づいて分割された行動情報である分割情報を生成し、生成した各分割情報に含まれる行動情報が示す行動有無の傾向に基づいて組み合わされた分割情報である組合情報を生成し、生成した組合情報を用いて、ユーザが関心を持つコンテンツを予測するモデルを生成する生成部と、を備えたことを特徴とする。 The generation device according to the present application generates an acquisition unit that acquires behavior information related to a user's behavior for each category related to the user from a terminal device used by the user, and division information that is behavior information divided based on the context. , Generates union information which is divided information combined based on the tendency of action presence / absence indicated by the action information included in each generated divided information, and predicts the content that the user is interested in using the generated union information. It is characterized by having a generation unit for generating a model.
実施形態の一態様によれば、コンテキストに基づいて所定の対象を適切に予測するモデルを生成することができるという効果を奏する。 According to one aspect of the embodiment, it is possible to generate a model that appropriately predicts a predetermined object based on the context.
以下に、本願に係る生成装置、生成方法、及び生成プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る生成装置、生成方法、及び生成プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Hereinafter, a generator, a generation method, and a mode for carrying out the generation program (hereinafter referred to as “the embodiment”) according to the present application will be described in detail with reference to the drawings. It should be noted that this embodiment does not limit the generator, the generation method, and the generation program according to the present application. Further, in each of the following embodiments, the same parts are designated by the same reference numerals, and duplicate description is omitted.
(実施形態)
〔1−1.生成処理〕
まず、図1を用いて、実施形態に係る生成処理の一例について説明する。図1は、実施形態に係る生成処理の一例を示す図である。図1に示す例において、配信装置100は、所定の対象として、ユーザのコンテンツへの関心を予測するモデルを生成する。また、配信装置100は、生成したモデルを用いてユーザにコンテンツを配信するサービスを提供するが、この点については図2で説明する。なお、図1及び図2では、ユーザに関する区分をユーザとして説明する。図1及び図2では、ユーザU1〜U4が各々端末装置10−1〜10−4を利用する場合を示す。なお、端末装置10−1〜10−4を区別せずに説明する場合、端末装置10と総称する。
(Embodiment)
[1-1. Generation process]
First, an example of the generation process according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram showing an example of a generation process according to an embodiment. In the example shown in FIG. 1, the
図1及び図2に示すように、配信システム1には、端末装置10と、配信装置100とが含まれる。端末装置10と、配信装置100とは図示しない所定の通信網を介して、有線または無線により通信可能に接続される。なお、図1に示した配信システム1には、複数台の端末装置10や、複数台の配信装置100が含まれてもよい。
As shown in FIGS. 1 and 2, the
端末装置10は、ユーザによって利用される情報処理装置である。端末装置10は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等により実現される。図1は、端末装置10がスマートフォンである場合を示す。
The
また、端末装置10は、ユーザによる操作を受け付ける。図1に示す例において、端末装置10は、所定のアプリ(例えば、ブラウザ等)に表示するコンテンツを配信装置100へ要求する。なお、以下では、端末装置10をユーザと表記する場合がある。すなわち、以下では、ユーザを端末装置10と読み替えることもできる。
In addition, the
配信装置100は、コンテキストに基づいて分割された行動情報である分割情報が組み合わされた組合情報ごとに、所定の対象を予測するモデルを生成する生成装置である。また、配信装置100は、コンテンツの配信要求に応じてコンテンツを配信する配信サービスを提供する情報処理装置である。例えば、配信装置100は、コンテンツの配信を要求した端末装置10を利用するユーザに応じて、端末装置10へコンテンツを配信する情報処理装置である。
The
図1では、配信装置100は、各ユーザにコンテンツを配信し、配信したコンテンツに対する各ユーザの行動の有無を示す行動情報を収集する。例えば、配信装置100は、ユーザU1〜U4にコンテンツを配信し、配信したコンテンツに対する各ユーザの行動の有無を示す行動情報を収集する。例えば、配信装置100は、行動情報として、ユーザに配信したコンテンツ(例えば、コンテンツCN11)に対するユーザの行動(例えば、コンテンツのクリック)の有無を示す情報を収集する。
In FIG. 1, the
まず、配信装置100は、ユーザU1が利用する端末装置10−1にコンテンツを配信する(ステップS11−1)。そして、配信装置100は、配信したコンテンツに対するユーザU1の行動の有無を示す行動情報を端末装置10−1から取得する(ステップS12−1)。また、配信装置100は、ユーザU2が利用する端末装置10−2にコンテンツを配信する(ステップS11−2)。そして、配信装置100は、配信したコンテンツに対するユーザU2の行動の有無を示す行動情報を端末装置10−2から取得する(ステップS12−2)。また、配信装置100は、ユーザU3が利用する端末装置10−3にコンテンツを配信する(ステップS11−3)。そして、配信装置100は、配信したコンテンツに対するユーザU3の行動の有無を示す行動情報を端末装置10−3から取得する(ステップS12−3)。また、配信装置100は、ユーザU4が利用する端末装置10−4にコンテンツを配信する(ステップS11−4)。そして、配信装置100は、配信したコンテンツに対するユーザU4の行動の有無を示す行動情報を端末装置10−4から取得する(ステップS12−4)。
First, the
なお、ステップS11−1〜S11−4は、処理を説明するためのものであり、ステップS11−1〜S11−4のいずれが先に行われてもよく、各ステップS11−1〜S11−4は、複数回行われてもよい。以下、ステップS11−1〜S11−4を区別せずに説明する場合、ステップS11と総称する。また、ステップS12−1〜S12−4は、処理を説明するためのものであり、各々が対応するステップS11よりも後であれば、ステップS12−1〜S12−4のいずれが先に行われてもよく、各ステップS12−1〜S12−4は、複数回行われてもよい。以下、ステップS12−1〜S12−4を区別せずに説明する場合、ステップS12と総称する。例えば、各ステップS11が行われる度にステップS12を行って行動情報を取得してもよい。また、例えば、各ステップS11が複数回行われて、所定のタイミングでステップS12を行って、行動情報を取得してもよい。 It should be noted that steps S11-1 to S11-4 are for explaining the process, and any of steps S11-1 to S11-4 may be performed first, and each step S11-1 to S11-4 may be performed first. May be performed multiple times. Hereinafter, when steps S11-1 to S11-4 will be described without distinction, they are collectively referred to as step S11. Further, steps S12-1 to S12-4 are for explaining the processing, and if each is after the corresponding step S11, any of steps S12-1 to S12-4 is performed first. Each step S12-1 to S12-4 may be performed a plurality of times. Hereinafter, when steps S12-1 to S12-4 will be described without distinction, they are collectively referred to as step S12. For example, each time each step S11 is performed, step S12 may be performed to acquire action information. Further, for example, each step S11 may be performed a plurality of times, and step S12 may be performed at a predetermined timing to acquire action information.
そして、配信装置100は、ステップS11〜S12において収集した各ユーザの行動に関する情報を分割する(ステップS13)。具体的には、配信装置100は、収集した各ユーザの行動情報をコンテキストに基づいて分割する。
Then, the
ここで、コンテキストは、ユーザや端末装置10の状況やユーザや端末装置10の環境(背景)を意味する。例えば、コンテキストは、ユーザによって端末装置10が使われている状況や、端末装置10を所持するユーザが置かれている状態に対応する情報である。すなわち、図1及び図2におけるコンテキストは、ユーザU1〜U4の状況、例えばユーザU1〜U4がいる場所の環境に対応する。具体的には、図1及び図2におけるコンテキストは、各ユーザにコンテンツが配信(表示)された際のユーザU1〜U4の状況に対応する。例えば、コンテキストは、コンテンツを配信した時刻や端末装置10から取得したユーザの位置情報に基づいて推定してもよい。なお、各コンテキストは、排他的であってもよいし、重複してもよい。
Here, the context means the situation of the user or the
また、図1及び図2では、説明を簡単にするため、時間帯と位置とに基づくコンテキストを示す。具体的には、図1及び図2の例におけるコンテキストは、朝(4〜10時)、昼(10〜16時)、夜(16〜22時)、深夜(22〜4時)の4つの時間帯と、家(自宅)またはオフィス(勤務地)の2つの位置とに基づく、8つのコンテキストCT11〜CT18を示す。 Further, in FIGS. 1 and 2, for simplification of explanation, a context based on a time zone and a position is shown. Specifically, the contexts in the examples of FIGS. 1 and 2 are four: morning (4 to 10 o'clock), noon (10 to 16 o'clock), night (16 to 22 o'clock), and midnight (22 to 4 o'clock). Eight contexts CT11-CT18 are shown based on the time of day and two locations of home (home) or office (work location).
ここで、図1中の分割情報記憶部123は、ステップS13により各ユーザの行動情報がコンテキストごとに分割された状態を示す。分割情報記憶部123は、区分であるユーザを行とし、コンテキストを列とした場合を示す。なお、分割情報記憶部123中の一のユーザと一のコンテキストとが交差する領域をマスとする。例えば、図1では、ユーザU4とコンテキストCT12とが交差する領域をマスMS42とする。なお、各マスの位置を区別せずに説明する場合は、マスMSとする場合がある。また、クラスタ情報記憶部124等においても、一のユーザと一のコンテキストとが交差する領域がある場合、その領域をマスMSとする場合がある。図1に示す各マスMSに含まれる情報は、ユーザに関する区分ごとのユーザの行動に関する行動情報がコンテキストに基づいて分割された分割情報である。
Here, the divided
例えば、ユーザU1とコンテキストCT11とが交差する位置のマスMS(左上のマスMS)には、行動AT11、AT12、AT13等の行動の有無を示す分割情報が含まれる。例えば、ユーザU4とコンテキストCT18とが交差する位置のマスMS(右下のマスMS)には、行動AT48、AT11等の行動の有無を示す分割情報が含まれる。 For example, the mass MS at the position where the user U1 and the context CT11 intersect (the mass MS on the upper left) includes division information indicating the presence or absence of actions such as actions AT11, AT12, and AT13. For example, the mass MS at the position where the user U4 and the context CT18 intersect (the mass MS at the lower right) includes division information indicating the presence or absence of actions such as actions AT48 and AT11.
また、分割情報記憶部123中の各マスMS中の行動AT11等の右側に示す「○」は、ユーザが対応する行動を行ったことを示す。また、分割情報記憶部123中の各マスMS中の行動AT11等の右側に示す「×」は、ユーザが対応する行動を行わなかったことを示す。例えば、ユーザU1とコンテキストCT11とが交差する位置のマスMSにおいて、行動AT11は「○」であり、ユーザU1は、朝の家において行動AT11を行ったことを示す。また、例えば、ユーザU1とコンテキストCT11とが交差する位置のマスMSにおいて、行動AT12は「×」であり、ユーザU1は、朝の家において行動AT12を行わなかったことを示す。また、例えば、ユーザU1とコンテキストCT11とが交差する位置のマスMSにおいて、行動AT13は「○」であり、ユーザU1は、朝の家において行動AT13を行ったことを示す。
Further, “◯” shown on the right side of the action AT11 or the like in each mass MS in the divided
そして、配信装置100は、分割情報記憶部123中の各マスMSの分割情報を用いて、モデルを生成する(ステップS14)。例えば、配信装置100は、分割情報記憶部123中の各マスMSの分割情報をクラスタリングし、クラスタごとにモデルを生成する。例えば、配信装置100は、ユーザのコンテンツへの関心を予測するモデルを生成する。
Then, the
例えば、配信装置100は、クラスタ数を設定しないクラスタリング手法によりクラスタリングを行ってもよい。また、例えば、配信装置100は、クラスタ数を設定するクラスタリング手法によりクラスタリングを行ってもよい。例えば、配信装置100は、k−means法やディリクレ過程を用いたロジスティック回帰の手法を用いて、各マスMSの分割情報をクラスタリングし、クラスタごとの分割情報を用いてモデルを生成する。図1では、配信装置100は、ディリクレ過程を用いたロジスティック回帰の手法を用いて、各マスMSの分割情報をクラスタリングし、クラスタごとの分割情報を用いてモデルを生成するものとして、以下説明する。なお、クラスタリング手法の詳細については後述する。
For example, the
なお、配信装置100は、所定量以上の分割情報を含むマスMSをステップS14におけるモデル生成の対象としてもよい。例えば、配信装置100は、分割情報が含まれないユーザU4のコンテキストCT17に対応するマスMSやユーザU2のコンテキストCT11に対応するマスMSは、クラスタリングの対象としない。また、例えば、配信装置100は、所定量(例えば2つ)未満の分割情報しか含まれないユーザU1のコンテキストCT13、CT18に対応するマスMSは、クラスタリングの対象としなくてもよい。
The
ステップS14により、配信装置100は、モデル情報MD11を生成する。モデル情報MD11には、クラスタ情報記憶部124に示すような各マスMSに含まれる分割情報のクラスタリングに関する情報が含まれる。また、モデル情報MD11には、学習情報記憶部125に示すようなクラスタごとに生成されたモデルM1〜M6に関する情報が含まれる。
In step S14, the
図1では、配信装置100は、分割情報記憶部123中の各マスMSの分割情報を6つのクラスタ(クラスタ情報記憶部124中のM1〜M6)に分類する。なお、クラスタ情報記憶部124中のM1〜M6は、各分割情報が属するクラスタを示すとともに、生成されるモデルを示す。また、クラスタ情報記憶部124中のマスMSにおいて、M1〜M6の符号が図示されていないマスMSについては、所定の手法により生成されたモデルが割り当てられるものとする。例えば、配信装置100は、クラスタ情報記憶部124中のモデルが割り当てられていないマスMSには、他のマスMSに割当てられたモデルに基づいて、モデルを割り当ててもよい。例えば、配信装置100は、モデルが割り当てられていないユーザU4のコンテキストCT15に対応するマスMSには、同じ20代男性のユーザU1のコンテキストCT15に対応するマスMSに割り当てられたモデルM4を割り当ててもよい。また、例えば、配信装置100は、モデルが割り当てられていないユーザU4のコンテキストCT17に対応するマスMSには、同じ20代のユーザU1やユーザU2のコンテキストCT17に対応するマスMSに割り当てられたモデルに基づくモデルを割り当ててもよい。この場合、配信装置100は、ユーザU1のコンテキストCT17に対応するマスMSに割り当てられたモデルM2とユーザU2のコンテキストCT17に対応するマスMSに割り当てられたモデルM1とを合成したモデルを割り当ててもよい。例えば、配信装置100は、ユーザU1のコンテキストCT17に対応するマスMSに割り当てられたモデルM2の各素性の重みとユーザU2のコンテキストCT17に対応するマスMSに割り当てられたモデルM1の各素性の重みとを所定の割合で合成したモデルを割り当ててもよい。例えば、配信装置100は、ユーザU4のコンテキストCT17に対応するマスMSには、20代男性のユーザU1のコンテキストCT17に対応するマスMSに割り当てられたモデルM2の方の比率を大きくしたモデルを割り当ててもよい。例えば、配信装置100は、ユーザU4のコンテキストCT17に対応するマスMSには、モデルM1が0.3、モデルM2が0.7の比率で合成されたモデルM1−2を割り当ててもよい。すなわち、配信装置100は、モデルM1の各素性の重みに0.3を乗算した重みと、モデルM2の各素性の重みに0.7を乗算した重みとを合算することにより生成したモデルM1−2を、ユーザU4のコンテキストCT17に対応するマスMSに割り当ててもよい。
In FIG. 1, the
図1では、配信装置100は、ユーザU1のコンテキストCT11に対応するマスMS、ユーザU2のコンテキストCT15に対応するマスMS、ユーザU2のコンテキストCT17に対応するマスMS、及びユーザU4のコンテキストCT13に対応するマスMSに含まれる分割情報を同じクラスタに分類する。また、配信装置100は、上記4つのマスMSに含まれる分割情報を組み合わせた組合情報を用いて、モデルM1を生成したことを示す。また、学習情報記憶部125に示すように、モデルM1に関するモデル情報は、素性1の重みが「0.5」、素性2の重みが「−0.4」、素性3の重みが「0.2」等であることを示す。なお、素性は、配信装置100の管理者等が設定されてもよいし、モデル生成の処理において抽出されてもよい。例えば、素性は、「経済」や「スマホ」や「サッカー」等の文字列(キーワード)であってもよい。また、各モデルの素性は、同じであってもよいし、異なってもよい。
In FIG. 1, the
また、配信装置100は、ユーザU1のコンテキストCT12、CT17に対応するマスMS、ユーザU2のコンテキストCT14に対応するマスMS、及びユーザU3のコンテキストCT12に対応するマスMSに含まれる分割情報を同じクラスタに分類する。また、配信装置100は、ユーザU2のコンテキストCT14に対応するマスMSと、ユーザU3のコンテキストCT12に対応するマスMSとに含まれる分割情報を組み合わせた組合情報を用いて、モデルM2を生成したことを示す。また、学習情報記憶部125に示すように、モデルM2に関するモデル情報は、素性1の重みが「−0.3」、素性2の重みが「2.1」、素性3の重みが「−0.2」等であることを示す。
Further, the
このように、図1では、配信装置100は、分割情報記憶部123中の各マスMSの分割情報を6つのクラスタ(組合情報)に分類し、各クラスタ(組合情報)に含まれる情報を用いてモデルM1〜M6を生成する。
As described above, in FIG. 1, the
上述したように、配信装置100は、コンテキストに基づいて各区分の行動情報を分割しても、区分間を跨ぐクラスタリングを行うことにより、各モデルの生成に用いられる情報量が不足することを抑制することができる。また、配信装置100は、区分とコンテキストとに基づいて分割された情報をクラスタリングすることにより、各区分の各コンテキストに応じて適切なモデルを生成することができる。したがって、配信装置100は、コンテキストに基づいて所定の対象を適切に予測するモデルを生成することができる。
As described above, even if the
なお、図1では、行動情報として、配信したコンテンツへのユーザの行動の有無に関する情報を用いる例を示したが、行動情報はユーザが行う行動であって、収集可能な情報であればどのような情報であってもよい。例えば、行動情報はユーザの電子商取引に関する情報であってもよいし、配信された広告に関する行動(例えば、クリックやコンバージョン等)であってもよい。また、位置は、家(自宅)やオフィス(勤務地)に限らず、通勤時の経由地やよく行く場所や移動中など種々の情報であってもよい。 Note that FIG. 1 shows an example in which information regarding the presence or absence of the user's behavior in the distributed content is used as the behavior information, but what if the behavior information is the behavior performed by the user and can be collected? Information may be used. For example, the behavior information may be information related to the user's electronic commerce, or may be behavior related to the delivered advertisement (for example, click, conversion, etc.). In addition, the location is not limited to the home (home) or office (work location), and may be various information such as a waypoint during commuting, a frequently visited location, or moving.
〔1−2.配信処理〕
次に、図2を用いて、実施形態に係る配信処理の一例について説明する。図2は、実施形態に係る配信処理の一例を示す図である。図2は、ユーザがユーザU1である場合を示す。なお、図2では、配信装置100がユーザU1のユーザ属性に関するユーザ情報を取得済みであり、行動履歴等のユーザ情報を取得済みである場合を例に説明する。
[1-2. Delivery process]
Next, an example of the distribution process according to the embodiment will be described with reference to FIG. FIG. 2 is a diagram showing an example of distribution processing according to the embodiment. FIG. 2 shows a case where the user is the user U1. In FIG. 2, the case where the
まず、配信装置100は、ユーザU1が利用する端末装置10−1からコンテンツの配信要求を取得する(ステップS15)。図2では、端末装置10−1は、ステップS15において、ユーザU1を識別する情報(例えば、ログインID等)や端末装置10−1の場所を示す位置情報等を配信装置100に送信する。なお、端末装置10は、GPS(Global Positioning System)センサ等により位置情報を取得する。図2では、ステップS15は、時間が朝9時であり、端末装置10−1の場所(位置)が位置LC12−1である状況において行われたものとする。なお、位置を示す情報でありハイフン(“-”)が付された位置LC12−1等は、位置LC12から所定の範囲内の位置情報を意味する。また、位置LC11−1、LC11−2等(図5参照)は、位置LC11から所定の範囲内の位置情報を意味する。すなわち、位置LC12−1が、ユーザU1の位置情報を示す場合、ユーザU1は、位置LC12にある勤務地にいるものと推定される。
First, the
端末装置10−1からコンテンツの配信要求を取得した配信装置100は、端末装置10−1へ配信するコンテンツを決定するモデルを決定する(ステップS16)。配信装置100は、端末装置10−1から取得したユーザU1を識別する情報により、配信要求元がユーザU1であると推定する。そして、配信装置100は、ユーザ情報記憶部121に記憶されたユーザU1のユーザ情報と端末装置10−1の位置LC12−1とに基づいて、ユーザU1がいる場所を推定する。図2では、ユーザ情報記憶部121に示すようにユーザU1の勤務地が位置LC12であり、端末装置10−1の位置が位置LC12−1であるため、配信装置100は、ユーザU1がオフィス(勤務地)にいると推定する。
The
そして、配信装置100は、ステップS15において配信要求がされた時間が朝9時であるため、コンテキストを朝のオフィスに対応するコンテキストCT12と推定する。その後、配信装置100は、学習情報記憶部125中のユーザU1及びコンテキストCT12に対応するマスMSに記憶されたモデルM2を示す情報に基づいて、配信するコンテンツの決定に用いるモデルをモデルM2に決定する。
Then, since the time when the distribution request is made in step S15 is 9:00 am, the
例えば、配信装置100は、決定したモデルM2を用いて、コンテンツ情報記憶部126(図9参照)に記憶された各コンテンツのスコアを算出する。具体的には、配信装置100は、コンテンツ情報記憶部126に記憶された各コンテンツCN11(記事A)〜コンテンツCN18(記事H)等のタイトルや記事本文等の文字情報や画像情報とモデルM2とを用いて、各コンテンツCN11〜CN18等のスコアを算出する。図2では、配信装置100は、コンテンツ一覧CL11に示すような各コンテンツCN11〜CN18等のスコアを算出する。例えば、配信装置100は、記事AであるコンテンツCN11のスコアを「3.6」と算出する。また、例えば、配信装置100は、記事BであるコンテンツCN12のスコアを「2.5」と算出する。
For example, the
そして、配信装置100は、コンテンツ一覧CL11に示すスコアに基づいて各コンテンツCN11〜CN18等の順位を決定する(ステップS17)。図2では、配信装置100は、コンテンツ一覧CL11に示すスコアが高い方から順に各コンテンツCN11〜CN18等の順位を決定する。具体的には、配信装置100は、スコアの最も高いコンテンツCN15である記事Eの順位を1位に決定する。また、配信装置100は、記事Eの次にスコアの高いコンテンツCN17である記事Gの順位を2位に決定する。これにより、配信装置100は、順位一覧LL11に示すように、順位1位が記事Eであり、順位2位が記事Gであり、順位3位が記事Aであり、順位4位が記事Fであると決定する。
Then, the
その後、配信装置100は、順位一覧LL11に示すコンテンツを端末装置10−1へ配信する(ステップS18)。具体的には、記事E、記事G、記事A、記事F、等の順で表示されるコンテンツを端末装置10−1へ配信する。そして、順位一覧LL11に示すコンテンツを受信した端末装置10−1は、コンテンツを表示する(ステップS19)。図2では、端末装置10−1は、順位一覧LL11に示すコンテンツのうち順位が上位のコンテンツである記事E、記事G、記事A、記事Fを表示する。なお、端末装置10−1を利用するユーザU1は、端末装置10−1の画面にタッチしスクロール操作等を行うことにより、記事Fから下の記事B、記事H等を順次表示させる。
After that, the
上述したように、配信装置100は、配信要求を取得した際のコンテキストに応じて、モデルを決定する。そして、配信装置100は、決定したモデルを用いて算出したコンテンツのスコアに基づいて、コンテンツの順位を決定する。これにより、配信装置100は、ユーザと配信要求時のコンテキストとに応じて適切なコンテンツを配信することができる。したがって、配信装置100は、適切なコンテンツを抽出することができる。なお、上記の例では、配信装置100がユーザのコンテキストに基づいて選択したモデルを用いて算出した各コンテンツのスコアを算出し、算出した各コンテンツのスコアが高い方から順に順位付けを行う場合を示した。このように、上述した例では、配信装置100は、ユーザが対応するコンテキストにおいて、各コンテンツを閲覧する可能性を連続的な数値(スコア)として算出するモデルを用いる場合を示した。すなわち、上記例では、配信装置100がユーザのコンテキストに基づいて選択したモデルを用いて算出した各コンテンツのスコアが高い程、そのコンテンツが閲覧される可能性が高いと予測する場合を示したが、配信装置100は、選択したモデルを用いてどのような予測を行ってもよい。
As described above, the
例えば、配信装置100は、所定の閾値以上のスコアのコンテンツをユーザが閲覧すると予測し、所定の閾値未満のスコアのコンテンツをユーザが閲覧しないと予測してもよい。このように、配信装置100は、コンテキストに基づいて選択したモデルを用いて算出した各コンテンツのスコアにより、ユーザがコンテンツの閲覧をする(例えば、値「1」)かしない(例えば、値「0」)かの2値の予測を行ってもよい。なお、配信装置100は、2値の予測に限らず、連続値や離散値を予測するモデルを生成し、生成したモデルに基づいて、連続値や離散値を予測してもよい。例えば、配信装置100は、値が「0」及び「1」の2値に限らず、3値以上の値を取り扱う、いわゆるマルチラベル問題に対応する予測を行ってもよい。例えば、配信装置100は、ユーザのコンテンツの閲覧有無の2段階ではなく、3以上の段階のいずれの段階にユーザがあるかを予測してもよい。例えば、配信装置100は、複数の閾値を用いて、コンテンツをユーザが閲覧する可能性がいずれの段階であるかを予測してもよい。具体的には、予測装置100は、第1の閾値と、第1の閾値よりも小さい第2の閾値を用いて、スコアが第1の閾値以上の場合、コンテンツをユーザが閲覧する可能性が高いと判定し、スコアが第1の閾値未満であり第2の閾値以上の場合、コンテンツをユーザが閲覧する可能性が中程度であると判定し、スコアが第2の閾値未満の場合、コンテンツをユーザが閲覧する可能性が低いと予測してもよい。また、例えば、配信装置100は、反応回数を予測したり、所定の対象のスコアを予測したりするモデルを生成し、生成したモデルに基づいて予測を行ってもよい。すなわち、配信装置100がユーザのコンテキストに基づいて選択したモデルを用いて、どのような予測を行ってもよい。また、配信装置100は、上述のように予測を行う対象に応じてモデルを生成してもよい。
For example, the
〔2.配信装置の構成〕
次に、図3を用いて、実施形態に係る配信装置100の構成について説明する。図3は、実施形態に係る配信装置100の構成例を示す図である。図3に示すように、配信装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、配信装置100は、配信装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
[2. Distribution device configuration]
Next, the configuration of the
(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークと有線または無線で接続され、端末装置10との間で情報の送受信を行う。
(Communication unit 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card) or the like. Then, the communication unit 110 is connected to the network by wire or wirelessly, and transmits / receives information to / from the
(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。実施形態に係る記憶部120は、図3に示すように、ユーザ情報記憶部121と、行動情報記憶部122と、分割情報記憶部123と、クラスタ情報記憶部124と、学習情報記憶部125と、コンテンツ情報記憶部126とを有する。
(Memory unit 120)
The
(ユーザ情報記憶部121)
実施形態に係るユーザ情報記憶部121は、ユーザに関する各種情報を記憶する。例えば、ユーザ情報記憶部121は、ユーザ属性に関する各種情報を記憶する。図4は、実施形態に係るユーザ情報記憶部の一例を示す図である。図4に示すユーザ情報記憶部121は、「ユーザID」、「年齢」、「性別」、「自宅」、「勤務地」、「興味」といった項目が含まれる。
(User information storage unit 121)
The user
「ユーザID」は、ユーザを識別するための識別情報を示す。例えば、ユーザID「U1」により識別されるユーザは、図1の例に示したユーザU1に対応する。また、「年齢」は、ユーザIDにより識別されるユーザの年齢を示す。なお、「年齢」は、例えば35歳など、ユーザIDにより識別されるユーザの具体的な年齢であってもよい。また、「性別」は、ユーザIDにより識別されるユーザの性別を示す。 The "user ID" indicates identification information for identifying a user. For example, the user identified by the user ID "U1" corresponds to the user U1 shown in the example of FIG. Further, "age" indicates the age of the user identified by the user ID. The "age" may be the specific age of the user identified by the user ID, such as 35 years old. Further, "gender" indicates the gender of the user identified by the user ID.
また、「自宅」は、ユーザIDにより識別されるユーザの自宅の位置情報を示す。なお、図4に示す例では、「自宅」は、「LC11」といった抽象的な符号を図示するが、緯度や経度を示す情報であってもよい。また、例えば、「自宅」は、地域名や住所であってもよい。 Further, "home" indicates the location information of the user's home identified by the user ID. In the example shown in FIG. 4, "home" is illustrated with an abstract code such as "LC11", but may be information indicating latitude or longitude. Further, for example, "home" may be an area name or an address.
また、「勤務地」は、ユーザIDにより識別されるユーザの勤務地の位置情報を示す。なお、図4に示す例では、「勤務地」は、「LC12」といった抽象的な符号を図示するが、緯度や経度を示す情報であってもよい。また、例えば、「自宅」は、地域名や住所であってもよい。 Further, the "work location" indicates the location information of the user's work location identified by the user ID. In the example shown in FIG. 4, the "work location" is shown by an abstract code such as "LC12", but may be information indicating latitude or longitude. Further, for example, "home" may be an area name or an address.
また、「興味」は、ユーザIDにより識別されるユーザの興味を示す。すなわち、「興味」は、ユーザIDにより識別されるユーザが関心の高い対象を示す。なお、図4に示す例では、「興味」は、各ユーザに1つずつ図示するが、複数であってもよい。 Further, "interest" indicates the interest of the user identified by the user ID. That is, "interest" indicates an object that the user identified by the user ID is highly interested in. In the example shown in FIG. 4, one "interest" is shown for each user, but there may be a plurality of "interests".
例えば、図4に示す例において、ユーザID「U1」により識別されるユーザの年齢は、「20代」であり、性別は、「男性」であることを示す。また、例えば、ユーザID「U1」により識別されるユーザは、自宅が「LC11」であることを示す。また、例えば、ユーザID「U1」により識別されるユーザは、勤務地が「LC12」であることを示す。また、例えば、ユーザID「U1」により識別されるユーザは、「スポーツ」に興味があることを示す。 For example, in the example shown in FIG. 4, the age of the user identified by the user ID "U1" is "20's", and the gender is "male". Further, for example, the user identified by the user ID "U1" indicates that his / her home is "LC11". Further, for example, the user identified by the user ID "U1" indicates that the work location is "LC12". Further, for example, the user identified by the user ID "U1" indicates that he / she is interested in "sports".
なお、ユーザ情報記憶部121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、ユーザ情報記憶部121は、氏名、家族構成、収入等の情報を記憶してもよい。
The user
(行動情報記憶部122)
実施形態に係る行動情報記憶部122は、ユーザの行動に関する各種情報を記憶する。図5は、実施形態に係る行動情報記憶部の一例を示す図である。例えば、行動情報記憶部122は、各ユーザの端末装置10に配信したコンテンツに対するユーザの行動情報を記憶する。図5に示す行動情報記憶部122には、「ユーザID」、「行動」、「状況」といった項目が含まれる。また、「行動」には、「行動内容」、「有無」といった項目が含まれる。また、「状況」には、「時刻」、「位置」といった項目が含まれる。
(Behavior information storage unit 122)
The behavior
「ユーザID」は、ユーザを識別するための識別情報を示す。例えば、ユーザID「U1」により識別されるユーザは、図1の例に示したユーザU1に対応する。また、「行動」は、対応するユーザの行動に関する情報を示す。また、「状況」は、対応するユーザの状況に関する情報を示す。 The "user ID" indicates identification information for identifying a user. For example, the user identified by the user ID "U1" corresponds to the user U1 shown in the example of FIG. Further, "behavior" indicates information about the behavior of the corresponding user. Further, "status" indicates information regarding the status of the corresponding user.
「行動内容」は、各行動を識別するための識別情報を示す。例えば、行動内容「AT11」により識別される行動(行動AT11)は、ユーザに配信したコンテンツ(例えば、コンテンツCN11)に対するユーザの行動(例えば、コンテンツのクリック)に対応する。なお、行動内容は、識別情報に限らず、具体的な行動内容が記憶されてもよい。また、「有無」は、対応する行動内容の有無を示す。「有無」が「1」の場合、ユーザが対応する行動を行ったことを示す。また、「有無」が「0」の場合、ユーザが対応する行動を行わなかったことを示す。 "Behavior content" indicates identification information for identifying each action. For example, the action identified by the action content "AT11" (action AT11) corresponds to the user's action (for example, clicking the content) with respect to the content (for example, content CN11) delivered to the user. The action content is not limited to the identification information, and a specific action content may be stored. In addition, "presence / absence" indicates the presence / absence of the corresponding action content. When "presence / absence" is "1", it indicates that the user has performed the corresponding action. Further, when "presence / absence" is "0", it indicates that the user has not performed the corresponding action.
「時刻」は、各行動に関する時刻を示す。時刻「TM11」は、行動AT11に関する時刻を示す。例えば、時刻「TM11」は、ユーザにコンテンツ(例えば、コンテンツCN11)が配信された時刻であってもよい。また、例えば、時刻「TM11」は、ユーザに配信したコンテンツ(例えば、コンテンツCN11)をユーザがクリックした時刻であってもよい。有無「0」である行動内容「AT12」により識別される行動(行動AT12)に関する時刻「TM12」は、例えば、ユーザにコンテンツが配信された時刻であってもよい。また、例えば、時刻「TM12」は、ユーザにコンテンツが配信されてからクリックされずに所定の時間が経過した後の時刻であってもよい。 "Time" indicates the time for each action. The time "TM11" indicates the time related to the action AT11. For example, the time "TM11" may be the time when the content (for example, the content CN11) is delivered to the user. Further, for example, the time "TM11" may be the time when the user clicks the content (for example, the content CN11) delivered to the user. The time “TM12” related to the action (action AT12) identified by the action content “AT12” which is “0” may be, for example, the time when the content is delivered to the user. Further, for example, the time "TM12" may be a time after a predetermined time has elapsed without being clicked after the content is delivered to the user.
また、「位置」は、各行動に関する位置を示す。位置「LC11−1」は、行動AT11に関する位置を示す。例えば、位置「LC11−1」は、ユーザがコンテンツの配信を要求したときの位置情報であってもよい。また、例えば、位置「LC11−1」は、ユーザが配信されたコンテンツをクリックしたときの位置情報であってもよい。 In addition, "position" indicates a position related to each action. The position "LC11-1" indicates the position regarding the action AT11. For example, the position "LC11-1" may be the position information when the user requests the distribution of the content. Further, for example, the position "LC11-1" may be the position information when the user clicks the distributed content.
例えば、図5に示す例において、ユーザID「U1」により識別されるユーザは、行動内容「AT13」により識別される行動(行動AT13)が有無「1」であり、行動AT13を行ったことを示す。また、ユーザID「U1」により識別されるユーザは、行動AT13に関する時刻が時刻「TM13」であり、位置が位置「LC11−3」であることを示す。 For example, in the example shown in FIG. 5, the user identified by the user ID “U1” has an action (action AT13) identified by the action content “AT13” with or without “1”, and has performed the action AT13. show. Further, the user identified by the user ID "U1" indicates that the time related to the action AT13 is the time "TM13" and the position is the position "LC11-3".
なお、行動情報記憶部122は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、行動情報記憶部122は、コンテンツが配信されてから、ユーザが行動するまでの時間に関する情報を記憶してもよい。また、図5では、ユーザIDごとに行動情報が行動情報記憶部122に記憶される場合を示したが、行動情報は、ユーザIDごとに限らず、例えば時刻順に記憶されてもよい。
The behavior
(分割情報記憶部123)
実施形態に係る分割情報記憶部123は、分割情報に関する各種情報を記憶する。図6は、実施形態に係る分割情報記憶部の一例を示す図である。図6に示す分割情報記憶部123は、「区分」と「コンテキスト」に基づいて分割された行動情報が記憶される。具体的には、ユーザの「区分」ごとに、各「コンテキスト」に対応する行動情報が記憶される。例えば、分割情報記憶部123に記憶される情報は、行動情報記憶部122に記憶された行動情報から生成される。
(Divided information storage unit 123)
The divided
「区分」は、ユーザに関する区分を示す。図6では、ユーザU1〜U4、すなわち各ユーザが区分である場合を示す。なお、「区分」は、各ユーザに限らず抽象化されたユーザ分類等であってもよいが、この点については後述する。また、「コンテキスト」は、コンテキストを示す。図6では、説明を簡単にするため、時間帯と位置とに基づくコンテキストを示す。具体的には、「コンテキスト」は、朝(4〜10時)、昼(10〜16時)、夜(16〜22時)、深夜(22〜4時)の4つの時間帯と、家(自宅)またはオフィス(勤務地)の2つの位置とに基づく、8つのコンテキストCT11〜CT18を示す。なお、図6に示す各マス中の「AT11」等の行動内容の右側に示す「○」は、有無の「1」に対応し、「×」は、有無の「0」に対応する。すなわち、「○」の場合、ユーザが対応する行動を行ったことを示す。また、「×」の場合、ユーザが対応する行動を行わなかったことを示す。 "Category" indicates a classification related to a user. FIG. 6 shows users U1 to U4, that is, a case where each user is a division. The "classification" is not limited to each user, but may be an abstract user classification or the like, but this point will be described later. Further, "context" indicates a context. FIG. 6 shows a context based on time zone and position for simplicity. Specifically, the "context" consists of four time zones: morning (4 to 10 o'clock), noon (10 to 16 o'clock), night (16 to 22 o'clock), midnight (22 to 4 o'clock), and home (22:00 to 4 o'clock). Eight contexts CT11-CT18 are shown based on two locations, home) or office (work location). The "○" shown on the right side of the action content such as "AT11" in each square shown in FIG. 6 corresponds to the presence / absence "1", and the "x" corresponds to the presence / absence "0". That is, in the case of "○", it indicates that the user has performed the corresponding action. In addition, in the case of "x", it indicates that the user did not perform the corresponding action.
例えば、図6に示す例において、ユーザU1は、コンテキストCT11において、行動AT11が「○」であり、時間帯「朝」に家(自宅)で行動AT11を行ったことを示す。また、ユーザU1は、コンテキストCT12において、行動AT11が「×」であり、時間帯「朝」にオフィス(勤務地)で行動AT11を行わなかったことを示す。 For example, in the example shown in FIG. 6, the user U1 indicates that the action AT11 is “◯” in the context CT11 and the action AT11 is performed at home (home) in the time zone “morning”. Further, the user U1 indicates that the action AT11 is “x” in the context CT12 and the action AT11 is not performed in the office (work location) in the time zone “morning”.
なお、分割情報記憶部123は、上記に限らず、目的に応じて種々の情報を記憶してもよい。また、図6では、説明のために、分割情報記憶部123に各行動情報の行動内容及び有無に関する情報を記憶する場合を図示したが、分割情報記憶部123は、行動情報記憶部122に記憶された行動情報がどのマスに対応するかに関する情報を記憶してもよい。
The divided
(クラスタ情報記憶部124)
実施形態に係るクラスタ情報記憶部124は、各分割情報の組合せに関する各種情報を記憶する。図7は、実施形態に係るクラスタ情報記憶部の一例を示す図である。図7に示すクラスタ情報記憶部124は、図6中の分割情報記憶部123に示す各マスの分割情報がどのように組み合わされたかを示す情報と各組合せに対応するモデルを識別する情報が記憶される。具体的には、ユーザの「区分」と「コンテキスト」とによる各マスに対応するモデルを識別する情報が記憶される。例えば、クラスタ情報記憶部124に記憶される情報は、モデルを生成する処理により生成される。
(Cluster Information Storage Unit 124)
The cluster
「区分」は、ユーザに関する区分を示す。図7では、図6と同様に、ユーザU1〜U4、すなわち各ユーザが区分である場合を示す。また、「コンテキスト」は、コンテキストを示す。図7では、図6と同様に、時間帯と位置とに基づくコンテキストを示す。具体的には、「コンテキスト」は、朝(4〜10時)、昼(10〜16時)、夜(16〜22時)、深夜(22〜4時)の4つの時間帯と、家(自宅)またはオフィス(勤務地)の2つの位置とに基づく、8つのコンテキストCT11〜CT18を示す。なお、図7に示す各マス中の「M1」や「M2」等は、同じ符号が記憶されたマスの分割情報を組み合わせた組合情報により生成されたモデルを識別する情報を示す。 "Category" indicates a classification related to a user. FIG. 7 shows a case where users U1 to U4, that is, each user is a division, as in FIG. Further, "context" indicates a context. FIG. 7 shows a context based on time zone and position, as in FIG. Specifically, the "context" consists of four time zones: morning (4 to 10 o'clock), noon (10 to 16 o'clock), night (16 to 22 o'clock), midnight (22 to 4 o'clock), and home (22:00 to 4 o'clock). Eight contexts CT11-CT18 are shown based on two locations, home) or office (work location). In addition, "M1", "M2", etc. in each cell shown in FIG. 7 indicate information for identifying a model generated by union information combining division information of cells in which the same code is stored.
例えば、図7に示す例において、「M1」により識別されるモデル(以下、「モデルM1」とする場合がある。他の「M2」〜「M6」についても同様)は、ユーザU1のコンテキストCT11に対応するマスMS、ユーザU2のコンテキストCT15に対応するマスMS、ユーザU2のコンテキストCT17に対応するマスMS、及びユーザU4のコンテキストCT13に対応するマスMSに含まれる分割情報を組み合わせた組合情報から生成されたことを示す。また、例えば、モデルM2は、ユーザU1のコンテキストCT12、CT17に対応するマスMS、ユーザU2のコンテキストCT14に対応するマスMS、及びユーザU3のコンテキストCT12に対応するマスMSに含まれる分割情報を組み合わせた組合情報から生成されたことを示す。 For example, in the example shown in FIG. 7, the model identified by "M1" (hereinafter, may be referred to as "model M1"; the same applies to the other "M2" to "M6") is the context CT11 of the user U1. From the union information that combines the mass MS corresponding to the mass MS corresponding to the user U2, the mass MS corresponding to the context CT15 of the user U2, the mass MS corresponding to the context CT17 of the user U2, and the mass MS corresponding to the context CT13 of the user U4. Indicates that it was generated. Further, for example, the model M2 combines the division information included in the mass MS corresponding to the context CT12 and CT17 of the user U1, the mass MS corresponding to the context CT14 of the user U2, and the mass MS corresponding to the context CT12 of the user U3. Indicates that it was generated from the union information.
なお、クラスタ情報記憶部124は、上記に限らず、目的に応じて種々の情報を記憶してもよい。
The cluster
(学習情報記憶部125)
実施形態に係る学習情報記憶部125は、学習に関する情報を記憶する。例えば、学習情報記憶部125は、生成処理により生成されたモデル情報を記憶する。図8は、実施形態に係る学習情報記憶部の一例を示す図である。図8に示す学習情報記憶部125は、モデル情報として、各モデルM1〜M6に対応させて「素性1」〜「素性3」等といった項目を有する。
(Learning information storage unit 125)
The learning
例えば、図8に示す例において、モデルM1に関するモデル情報は、素性1の重みが「0.5」、素性2の重みが「−0.4」、素性3の重みが「0.2」等であることを示す。例えば、モデルの素性(特徴量)がm次元のベクトルで表現される場合、素性数はm個になり、素性1〜素性mの重みが記憶される。
For example, in the example shown in FIG. 8, the model information regarding the model M1 is such that the weight of the
なお、学習情報記憶部125は、上記に限らず、目的に応じて種々のモデル情報を記憶してもよい。
The learning
(コンテンツ情報記憶部126)
実施形態に係るコンテンツ情報記憶部126は、コンテンツ(記事)に関する各種情報を記憶する。図9は、実施形態に係るコンテンツ情報記憶部の一例を示す図である。図9に示すコンテンツ情報記憶部126は、「コンテンツID」、「コンテンツ」、「カテゴリ」といった項目を有する。
(Content information storage unit 126)
The content
「コンテンツID」は、コンテンツを識別するための識別情報を示す。「コンテンツ」は、いわゆるコンテンツプロバイダ等の提供元から取得したコンテンツである記事を示す。図9では「コンテンツ」に「記事A」といった概念的な情報が格納される例を示したが、実際には、文字情報や文字情報と画像との組合せ、または、これらの格納場所を示すファイルパス名などが格納される。また、「カテゴリ」は、コンテンツの内容に基づく分類情報を示す。 The "content ID" indicates identification information for identifying the content. "Content" indicates an article that is content acquired from a provider such as a so-called content provider. In FIG. 9, an example in which conceptual information such as "article A" is stored in "content" is shown, but in reality, character information, a combination of character information and an image, or a file showing the storage location thereof is shown. The path name etc. are stored. In addition, "category" indicates classification information based on the content.
例えば、図9に示す例において、コンテンツID「CN11」により識別される記事A(コンテンツCN11)は、カテゴリ「経済」に分類されることを示す。また、図9に示す例において、コンテンツID「CN12」により識別される記事B(コンテンツCN12)は、カテゴリ「スポーツ」に分類されることを示す。 For example, in the example shown in FIG. 9, the article A (content CN11) identified by the content ID "CN11" is classified into the category "economy". Further, in the example shown in FIG. 9, the article B (content CN12) identified by the content ID “CN12” is classified into the category “sports”.
なお、コンテンツ情報記憶部126は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、コンテンツ情報記憶部126は、コンテンツを取得した日時やコンテンツが作成された日時に関する情報を記憶してもよい。コンテンツ情報記憶部126は、各提供元の評価値に関する情報を記憶してもよい。また、コンテンツ情報記憶部126は、コンテンツの提供元を識別するための識別情報を記憶してもよい。また、コンテンツ情報記憶部126は、各モデルにより算出されたコンテンツのスコアを記憶してもよい。
The content
(制御部130)
図3の説明に戻って、制御部130は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、配信装置100内部の記憶装置に記憶されている各種プログラム(配信プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(Control unit 130)
Returning to the description of FIG. 3, the control unit 130 is an example of various programs (an example of a distribution program) stored in a storage device inside the
図3に示すように、制御部130は、取得部131と、推定部132と、生成部133と、決定部134と、配信部135とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図3に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図3に示した接続関係に限られず、他の接続関係であってもよい。
As shown in FIG. 3, the control unit 130 includes an
(取得部131)
取得部131は、ユーザの行動情報を取得する。取得部131は、ユーザが利用する端末装置10からユーザの行動情報を取得する。また、取得部131は、ユーザに関するユーザ情報を取得する。また、取得部131は、ユーザに関する区分ごとのユーザの行動に関する行動情報であって、コンテキストに基づいて分割された行動情報である分割情報を取得する。例えば、取得部131は、分割情報記憶部123から分割情報を取得する。また、取得部131は、区分として、ユーザ、またはユーザ属性に基づく分類ごとのユーザの行動に関する行動情報が、コンテキストに基づいて分割された分割情報を取得する。
(Acquisition unit 131)
The
また、取得部131は、端末装置10からコンテンツの配信要求を取得する。また、取得部131は、ユーザを識別する情報(例えば、ログインIDや端末識別情報等)や端末装置10の位置情報等を取得する。
In addition, the
(推定部132)
推定部132は、取得した各種情報から種々の情報を推定する。例えば、推定部132は、コンテンツを配信した時刻や端末装置10から取得したユーザの位置情報に基づいて種々の情報を推定する。例えば、推定部132は、端末装置10から取得したユーザを識別する情報により、配信要求元のユーザを推定する。例えば、推定部132は、ユーザ情報記憶部121に記憶されたユーザのユーザ情報と端末装置10の位置とに基づいて、ユーザがいる場所を推定する。図2では、推定部132は、ユーザ情報記憶部121に示すようにユーザU1の勤務地が位置LC12であり、端末装置10−1の位置が位置LC12−1であるため、ユーザU1がオフィス(勤務地)にいると推定する。また、図2では、推定部132は、配信要求がされた時間が朝9時であるため、コンテキストを朝のオフィスに対応するコンテキストCT12と推定する。
(Estimation unit 132)
The
また、推定部132は、一の区分がユーザである場合において、ユーザの各分割情報が含まれる組合情報と、他の区分の各分割情報が含まれる組合情報との類似度に基づいて、ユーザのユーザ属性を推定するが、詳細は後述する。
Further, in the case where one division is a user, the
(生成部133)
生成部133は、分割情報を生成してもよい。また、生成部133は、生成した分割情報を分割情報記憶部123に記憶させてもよい。例えば、生成部133は、収集した各ユーザの行動に関する情報を分割してもよい。例えば、生成部133は、収集した各ユーザの行動情報を、推定部132により推定されたコンテキストに基づいて分割する。
(Generator 133)
The
生成部133は、各分割情報に含まれる行動情報の傾向に基づいて組み合わされた分割情報である組合情報ごとに、所定の対象を予測するモデルを生成する。例えば、図1では、ユーザU1とコンテキストCT11とが交差する位置のマスMS、及びユーザU4とコンテキストCT13とが交差する位置のマスMSが同じクラスタに分類される。ユーザU1とコンテキストCT11とが交差する位置のマスMS、及びユーザU4とコンテキストCT13とが交差する位置のマスMSは、ともに行動AT11が「○」である分割情報が含まれる。ユーザU1とコンテキストCT11とが交差する位置のマスMS、及びユーザU4とコンテキストCT13とが交差する位置のマスMSには、同じ傾向を示す分割情報が含まれる。そして、生成部133は、ユーザU1とコンテキストCT11とが交差する位置のマスMSの分割情報、及びユーザU4とコンテキストCT13とが交差する位置のマスMSの分割情報を含む組合情報を用いてモデルM1を生成する。
The
また、生成部133は、組合情報に含まれる分割情報の各々に対応するコンテキストにおける当該分割情報に対応する区分に含まれるユーザに関する所定の対象を予測するモデルを生成する。生成部133は、区分間を跨ぐ組み合わせを含む組合情報ごとに、所定の対象を予測するモデルを生成する。例えば、生成部133は、ユーザU2とコンテキストCT12とが交差する位置のマスMSの分割情報、及びユーザU4とコンテキストCT14とが交差する位置のマスMSの分割情報を含む組合情報を用いてモデルM6を生成する。すなわち、生成部133は、ユーザU2とユーザU4との区分間を跨ぐ組合情報を用いてモデルM6を生成する。
In addition, the
例えば、生成部133は、組合情報に含まれる各分割情報に対応するユーザの分類及びコンテキストの組合せにおける所定の対象の予測精度が高くなるように分割情報が組み合わされた組合情報ごとに、所定の対象を予測するモデルを生成する。例えば、生成部133は、各分割情報に含まれる行動情報が類似する分割情報が組み合わされた組合情報ごとに、所定の対象を予測するモデルを生成する。例えば、生成部133は、所定の対象として、ユーザのコンテンツへの関心を予測するモデルを生成する。
For example, the
例えば、生成部133は、組合情報の数が所定数になる手法により分割情報が組み合わされた組合情報ごとに、所定の対象を予測するモデルを生成する。例えば、生成部133は、k−means法を用いて分割情報が組み合された組合情報ごとにモデルを生成する。この場合、生成部133は、決定部134により決定(設定)されたクラスタ数(組合情報数)になるように、分割情報を組み合わせて組合情報を生成し、組合情報ごとにモデルを生成する。
For example, the
例えば、生成部133は、組合情報の数が変動し得る手法により分割情報が組み合わされた組合情報ごとに、所定の対象を予測するモデルを生成する。例えば、生成部133は、ディリクレ過程を用いたロジスティック回帰の手法を用いて分割情報が組み合された組合情報ごとにモデルを生成する。例えば、生成部133は、分割情報を順次組み合わせていくことにより、組合情報を生成し、組合情報ごとにモデルを生成する。
For example, the
例えば、生成部133は、複数の分割情報を組み合わせた組合情報を生成し、その組合情報に対してモデルを生成する。例えば、生成部133は、ランダムに複数の分割情報を選択して組合情報を生成し、その組合情報に対してモデルを生成する。そして、生成部133は、生成したモデルの予測精度を検証する。ここでいう予測精度とは、ユーザの行動有無を予測できる確率をいう。例えば、ここでいう予測精度とは、モデルを用いた場合において、行動情報において「○」であったコンテンツについて、所定のスコア以上が算出される確率をいう。そして、生成部133は、生成したモデルの予測精度が所定の閾値以上である場合、その組み合わせを維持して、さらに分割情報を組み合わせる処理を行ってもよい。また、生成部133は、ペナルティ項等の所定のハイパーパラメータを用いてもよい。例えば、生成部133は、クラスタ数が少なくなるほど値が小さくなるペナルティ項を用いてもよい。例えば、生成部133は、モデルの予測精度からクラスタ数に所定の係数を乗算した値を減算することにより算出される数値に基づいて、組み合わせを維持するか解除するかを判定してもよい。この場合、生成部133は、クラスタ数の減少とモデルの予測精度とのトレードオフに基づいて、所定のクラスタ数に分類された組合情報およびモデルを生成する。
For example, the
例えば、生成部133は、交差検証(クロスバリデーション)により、一部をモデルの生成に用い、残りを検証用に用いて生成されたモデルの予測精度を検証してもよい。例えば、生成部133は、組合情報のうち80%をモデル生成に用い、残りの20%を検証に用いてもよい。例えば、生成部133は、検証した予測精度が所定の基準を満たした場合、その組み合わせを維持して、さらに分割情報を組み合わせる処理を行ってもよい。また、生成部133は、検証した予測精度が所定の基準を満たさない場合、その組み合わせを解除して、別の分割情報を組み合わせる処理を行ってもよい。また、生成部133は、分割情報を組み合わせる度に、モデル生成に用いる情報と、検証に用いる情報とを入れ替えて交差検証(クロスバリデーション)を複数回行った平均により、組み合わせを維持するか解除するかを判定してもよい。
For example, the
例えば、生成部133は、一の区分がユーザである場合において、一のコンテキストにおけるユーザの分割情報が所定の条件を満たさない場合、一のコンテキストにおけるユーザのユーザ属性に類似する他の区分の分割情報を一のコンテキストにおけるユーザの分割情報に加えることにより、モデルを生成する。例えば、生成部133は、一のコンテキストにおけるユーザの分割情報の量が所定量に満たない場合、一のコンテキストにおける他の区分の分割情報を一のコンテキストにおけるユーザの分割情報に加えることにより、モデルを生成する。なお、これらの点についての詳細は後述する。
For example, in the
(決定部134)
決定部134は、端末装置10へ配信するコンテンツを決定するモデルを決定する。図2では、決定部134は、クラスタ情報記憶部124中のユーザU1及びコンテキストCT12に対応するマスMSに記憶されたモデルM2を示す情報に基づいて、配信するコンテンツの決定に用いるモデルをモデルM2に決定する。
(Decision unit 134)
The
例えば、決定部134は、決定したモデルとコンテンツとに基づいて、コンテンツのスコアを算出する。また、例えば、決定部134は、算出したスコアに基づいて各コンテンツの順位を決定する。図2では、決定部134は、コンテンツ一覧CL11に示すスコアに基づいて各コンテンツCN11〜CN18等の順位を決定する。また、決定部134は、スコアの最も高いコンテンツCN15である記事Eの順位を1位に決定する。また、決定部134は、記事Eの次にスコアの高いコンテンツCN17である記事Gの順位を2位に決定する。これにより、決定部134は、順位一覧LL11に示すように、順位1位が記事Eであり、順位2位が記事Gであり、順位3位が記事Aであり、順位4位が記事Fであると決定する。
For example, the
(配信部135)
配信部135は、端末装置10に各種情報を配信する。例えば、配信部135は、端末装置10にコンテンツを配信する。また、配信部135は、決定部134により決定されたコンテンツを配信する。図2では、配信部135は、順位一覧LL11に示すコンテンツを端末装置10−1へ配信する。また、配信部135は、記事E、記事G、記事A、記事F、等の順で表示されるコンテンツを端末装置10−1へ配信する。
(Distribution unit 135)
The
〔3.生成処理のフロー〕
〔3−1.クラスタ数を設定しない手法〕
次に、図10を用いて、実施形態に係る配信システム1による生成処理の手順について説明する。図10は、実施形態に係る生成処理の一例を示すフローチャートである。具体的には、図10は、クラスタ数(組合情報数)を決定しない手法による生成処理の一例を示すフローチャートである。
[3. Generation process flow]
[3-1. Method without setting the number of clusters]
Next, the procedure of the generation process by the
図10に示すように、配信装置100の取得部131は、各ユーザの行動情報を取得する(ステップS101)。例えば、取得部131は、各ユーザが利用する端末装置10からユーザの行動情報を取得する。
As shown in FIG. 10, the
また、配信装置100の生成部133は、コンテキストに応じて情報を分割する(ステップS102)。例えば、生成部133は、行動情報を取得した際のコンテキストに応じて、行動情報を分割した分割情報を生成する。なお、ステップS101とステップS102は、複数回に亘って行われてもよい。
Further, the
その後、生成部133は、クラスタ数を決定しない手法により、分割情報のクラスタリング及びモデルの生成を行う(ステップS103)。例えば、生成部133は、ディリクレ過程を用いたロジスティック回帰の手法を用いて分割情報が組み合された組合情報ごとにモデルを生成する。
After that, the
〔3−2.クラスタ数を設定する手法〕
次に、図11を用いて、実施形態に係る配信システム1による生成処理の手順について説明する。図11は、実施形態に係る生成処理の一例を示すフローチャートである。具体的には、図11は、クラスタ数(組合情報数)を予め設定(決定)する手法による生成処理の一例を示すフローチャートである。
[3-2. Method to set the number of clusters]
Next, the procedure of the generation process by the
図11に示すように、配信装置100の取得部131は、各ユーザの行動情報を取得する(ステップS201)。例えば、取得部131は、各ユーザが利用する端末装置10からユーザの行動情報を取得する。
As shown in FIG. 11, the
また、配信装置100の生成部133は、コンテキストに応じて情報を分割する(ステップS202)。例えば、生成部133は、行動情報を取得した際のコンテキストに応じて、行動情報を分割した分割情報を生成する。なお、ステップS201とステップS202は、複数回に亘って行われてもよい。
Further, the
また、配信装置100の決定部134は、クラスタ数(組合情報数)を設定(決定)する(ステップS203)。例えば、決定部134は、クラスタ数(組合情報数)を「6」に設定(決定)する。なお、ステップS203の処理は、ステップS204よりも前であれば、いずれのタイミングで行われてもよい。
Further, the
その後、生成部133は、クラスタ数を決定する手法により、分割情報のクラスタリング及びモデルの生成を行う(ステップS204)。例えば、生成部133は、k−means法を用いて分割情報が組み合された組合情報ごとにモデルを生成する。
After that, the
〔4.配信処理のフロー〕
次に、図12を用いて、実施形態に係る配信システム1による配信処理の手順について説明する。図12は、実施形態に係る配信処理の一例を示すフローチャートである。
[4. Delivery processing flow]
Next, the procedure of the distribution process by the
図12に示すように、配信装置100の取得部131は、配信要求を取得する(ステップS301)。例えば、取得部131は、各ユーザが利用する端末装置10からコンテンツの配信要求を取得する。
As shown in FIG. 12, the
そして、配信装置100の推定部132は、ユーザ及びコンテキストを推定する(ステップS302)。例えば、推定部132は、端末装置10から取得したユーザを識別する情報により、配信要求元のユーザを推定する。また、例えば、推定部132は、配信要求がされた時刻や端末装置10の位置に基づいて、コンテキストを推定する。
Then, the
その後、配信装置100の決定部134は、モデルを決定する(ステップS303)。例えば、決定部134は、端末装置10へ配信するコンテンツを決定するモデルを決定する。
After that, the
そして、決定部134は、コンテンツの順位を決定する(ステップS304)。例えば、決定部134は、ステップS303において決定したモデルとコンテンツとに基づいて、コンテンツのスコアを算出する。また、例えば、決定部134は、算出したスコアに基づいて各コンテンツの順位を決定する。
Then, the
その後、配信装置100の配信部135は、順位に基づいてコンテンツを配信する(ステップS305)。例えば、配信部135は、ステップS304において決定した順位に基づいてコンテンツを配信する。
After that, the
〔5.区分と情報の利用〕
上述した例においては、ユーザに関する区分をユーザとして説明したが、ユーザに関する区分は、ユーザに限らず、目的に応じて種々の区分が用いられてもよい。この点について、図13を用いて説明する。図13は、実施形態に係るユーザに関する区分の一例を示す図である。
[5. Classification and use of information]
In the above-mentioned example, the classification related to the user has been described as the user, but the classification related to the user is not limited to the user, and various classifications may be used depending on the purpose. This point will be described with reference to FIG. FIG. 13 is a diagram showing an example of a classification regarding a user according to an embodiment.
ここで、図13中の分割情報一覧UL11は、各ユーザの行動情報がコンテキストごとに分割された状態を示す。分割情報一覧UL11は、分割情報記憶部123と同様に、区分であるユーザを行とし、コンテキストを列とした場合を示す。なお、分割情報一覧UL11中の一のユーザと一のコンテキストとが交差する領域をマスとする。例えば、図13では、ユーザU4とコンテキストCT12とが交差する領域をマスMS42−1とする。
Here, the division information list UL11 in FIG. 13 shows a state in which the behavior information of each user is divided for each context. Similar to the divided
図13に示す各マスMSに含まれる情報は、ユーザに関する区分ごとのユーザの行動に関する行動情報がコンテキストに基づいて分割された分割情報である。なお、図13では、行動AT11等の図示を省略する。例えば、図13では、各マスMSにおける「○」、「×」は、各マスMSに含まれる分割情報の量を示す。また、図13中の各マスMSにおける「○」、「×」が示す意味は、図1と同様である。例えば、ユーザU1とコンテキストCT11とが交差する位置のマスMSに含まれる分割情報の量は、ユーザU1とコンテキストCT12とが交差する位置のマスMSに含まれる分割情報の量よりも多いことを示す。また、例えば、ユーザU1とコンテキストCT12とが交差する位置のマスMSに含まれる分割情報の量は、ユーザU1とコンテキストCT13とが交差する位置のマスMSに含まれる分割情報の量よりも多いことを示す。また、例えば、ユーザU2とコンテキストCT11とが交差する位置のマスMSには分割情報が含まれないことを示す。 The information included in each mass MS shown in FIG. 13 is divided information in which the behavior information regarding the user's behavior for each division regarding the user is divided based on the context. Note that in FIG. 13, the behavior AT11 and the like are not shown. For example, in FIG. 13, “◯” and “x” in each mass MS indicate the amount of division information included in each mass MS. Further, the meanings of "◯" and "x" in each mass MS in FIG. 13 are the same as those in FIG. For example, it indicates that the amount of divided information contained in the mass MS at the position where the user U1 and the context CT11 intersect is larger than the amount of the divided information contained in the mass MS at the position where the user U1 and the context CT12 intersect. .. Further, for example, the amount of divided information included in the mass MS at the position where the user U1 and the context CT12 intersect is larger than the amount of the divided information included in the mass MS at the position where the user U1 and the context CT13 intersect. Is shown. Further, for example, it is shown that the mass MS at the position where the user U2 and the context CT11 intersect does not include the division information.
図13では、各ユーザの分割情報に基づいて、所定のユーザ属性に基づく分類ごとの分割情報を生成する(ステップS21)。例えば、配信装置100は、図13中の分類毎の分割情報一覧GL11に示すように、分類G1や分類G2や分類G3のように所定のユーザ属性に基づく分類の分割情報を生成する。具体的には、配信装置100は、20代男性の分類G1の分割情報を生成する。この場合、配信装置100は、20代男性であるユーザU1やユーザU4等の分割情報を統合して分類G1の分割情報を生成する。また、配信装置100は、20代女性の分類G2の分割情報を生成する。この場合、配信装置100は、20代女性であるユーザU2等の分割情報を統合して分類G2の分割情報を生成する。また、配信装置100は、興味の対象がスポーツの分類G3の分割情報を生成する。この場合、配信装置100は、ユーザ情報記憶部121に示すように興味の対象がスポーツであるユーザU1等の分割情報を統合して分類G3の分割情報を生成する。
In FIG. 13, division information for each classification based on a predetermined user attribute is generated based on the division information of each user (step S21). For example, the
そして、配信装置100は、分割情報一覧GL11の各マスMSの分割情報をユーザのマスMSに加えてもよい。この点について、図14を用いて説明する。図14は、実施形態に係る他の区分における分割情報の利用の一例を示す図である。
Then, the
図14に示す分割情報一覧GL11は、図13に示す分割情報一覧GL11と同様である。ここで、図13中の分割情報一覧UL11において、ユーザU4とコンテキストCT12とが交差する位置のマスMS42−1には、分割情報が含まれない。すなわち、ユーザU4とコンテキストCT12とが交差する位置のマスMS42−1は、分割情報が不足するマスMSである。 The division information list GL11 shown in FIG. 14 is the same as the division information list GL11 shown in FIG. Here, in the division information list UL11 in FIG. 13, the division information is not included in the mass MS42-1 at the position where the user U4 and the context CT12 intersect. That is, the mass MS42-1 at the position where the user U4 and the context CT12 intersect is a mass MS lacking division information.
そのため、配信装置100は、分類毎の分割情報を利用する(ステップS22)。例えば、配信装置100は、分割情報一覧UL12に示すように、マスMS42−2に分割情報一覧GL11において対応するマスMSに含まれる分割情報を加える。具体的には、配信装置100は、分割情報一覧GL11中の分類G1におけるコンテキストCT12のマスMSに含まれる分割情報をマスMS42−2に加える。このように、配信装置100は、分割情報一覧UL11において分割情報が不足するマスMSに、分割情報一覧GL11において対応するマスMSに含まれる分割情報を加えることにより、分割情報一覧UL11において分割情報が不足するマスMSを削減できる。また、例えば、配信装置100は、ユーザU1におけるコンテキストCT13のマスMSに、ユーザU1の興味「スポーツ」に対応する分類G3におけるコンテキストCT13のマスMSに含まれる分割情報をマスMS42−2に加えてもよい。また、配信装置100は、あるユーザの分割情報が不足するマスMSに、そのユーザのユーザ属性に類似するユーザにおいて対応するマスMSに含まれる分割情報を加えてもよい。例えば、配信装置100は、ユーザU4におけるコンテキストCT12のマスMS42にユーザ属性が類似するユーザU1におけるコンテキストCT12のマスMSに含まれる分割情報を加えてもよい。
Therefore, the
また、配信装置100は、生成した分割情報一覧GL11を用いてモデルを生成し、生成したモデルを利用してもよい。この点について、図15を用いて説明する。図15は、実施形態に係る他の区分におけるモデルの利用の一例を示す図である。なお、配信装置100は、分割情報一覧UL11と分割情報一覧GL11とを合わせてモデルを生成してもよい。例えば、配信装置100は、分割情報一覧UL11と分割情報一覧GL11とを用いて生成処理を行ってもよい。例えば、配信装置100は、分割情報一覧UL11に含まれる分割情報と分割情報一覧GL11に含まれる分割情報とをクラスタリングして、各クラスタに対してモデルを生成してもよい。
Further, the
図15中のクラスタ情報一覧ML11は、クラスタ情報記憶部124に示すような各マスMSに含まれる分割情報のクラスタリングに関する情報が含まれる。図15中のクラスタ情報一覧ML11は、M1〜M6によって示される6つのクラスタを含むことを示す。
The cluster information list ML11 in FIG. 15 includes information related to clustering of divided information included in each mass MS as shown in the cluster
また、図15中のクラスタ情報一覧ML12は、分類毎の分割情報一覧GL11から生成された分割情報のクラスタリングに関する情報が含まれる。図15中のクラスタ情報一覧ML12は、M11〜M13等によって示される6つのクラスタを含むことを示す。すなわち、配信装置100は、分割情報一覧GL11からクラスタ情報一覧ML12に示すような、モデルM11〜M13等のモデルを生成する。
Further, the cluster information list ML12 in FIG. 15 includes information on clustering of the division information generated from the division information list GL11 for each classification. The cluster information list ML12 in FIG. 15 shows that it includes 6 clusters indicated by M11 to M13 and the like. That is, the
ここで、図15中のクラスタ情報一覧ML11において、ユーザU4とコンテキストCT12とが交差する位置のマスMSはいずれのクラスタにも属さない。すなわち、ユーザU4とコンテキストCT12とが交差する位置のマスMSは、モデルが割り当てられていいないマスMSである。 Here, in the cluster information list ML11 in FIG. 15, the mass MS at the position where the user U4 and the context CT12 intersect does not belong to any cluster. That is, the mass MS at the position where the user U4 and the context CT12 intersect is a mass MS to which a model is not assigned.
そのため、配信装置100は、分類毎のモデルを利用する(ステップS31)。具体的には、配信装置100は、ユーザU4とコンテキストCT12とが交差する位置のマスMSにクラスタ情報一覧ML12において対応するマスMSに含まれるモデルを割り当てる。この場合、配信装置100は、分類G1とコンテキストCT12とが交差する位置のマスMSに含まれるモデルM12を、ユーザU4とコンテキストCT12とが交差する位置のマスMSに割当てる。このように、配信装置100は、クラスタ情報一覧ML11においてモデルが割り当てられていないマスMSに、クラスタ情報一覧ML12において対応するマスMSに含まれるモデルを割り当てることにより、クラスタ情報一覧ML11においてモデルが割り当てられていないマスMSを削減できる。
Therefore, the
〔6.コンテキストの変動及び統合〕
上述した例においては、コンテキストが、朝(4〜10時)、昼(10〜16時)、夜(16〜22時)、深夜(22〜4時)の4つの時間帯と、家(自宅)またはオフィス(勤務地)の2つの位置とに基づく、8つのコンテキストCT11〜CT18である場合を示した。しかしながら、コンテキストは、上記の8つに限らず、目的に応じて種々変動させてもよい。例えば、配信装置100は、各区分における情報量等に応じてコンテキストを変動させてもよい。この点について、図16を用いて説明する。図16は、実施形態に係るコンテキストの変動の一例を示す図である。
[6. Context change and integration]
In the above example, the context is four time zones of morning (4 to 10 o'clock), noon (10 to 16 o'clock), night (16 to 22 o'clock), midnight (22 to 4 o'clock), and home (home). ) Or eight contexts CT11-CT18 based on two locations in the office (work location). However, the context is not limited to the above eight, and may be varied depending on the purpose. For example, the
図16に示す分割情報一覧UL11は、図13に示す分割情報一覧UL11と同様である。すなわち、分割情報一覧UL11は、朝(4〜10時)、昼(10〜16時)、夜(16〜22時)、深夜(22〜4時)の4つの時間帯と、家(自宅)またはオフィス(勤務地)の2つの位置とに基づく、8つのコンテキストCT11〜CT18に分割された場合を示す。分割情報一覧UL11には、ユーザU1〜U4等が含まれる。 The division information list UL11 shown in FIG. 16 is the same as the division information list UL11 shown in FIG. That is, the divided information list UL11 has four time zones of morning (4 to 10 o'clock), noon (10 to 16 o'clock), night (16 to 22 o'clock), and midnight (22 to 4 o'clock), and home (home). Or, the case where it is divided into eight contexts CT11 to CT18 based on two positions of the office (work location) is shown. The divided information list UL11 includes users U1 to U4 and the like.
ここで、ユーザU111は、他のユーザU1〜U4等に比べて収集された行動情報が非常に多いユーザであるものとする。そのため、配信装置100は、ユーザU111については、分割情報一覧UL11に示す8つのコンテキストよりも細分化したコンテキストに基づいて、分割情報を生成する。
Here, it is assumed that the user U111 is a user who collects a large amount of behavior information as compared with other users U1 to U4 and the like. Therefore, the
図16では、配信装置100は、分割情報一覧UL111に示すように、0時〜23時の24の時間帯と、家(自宅)またはオフィス(勤務地)の2つの位置とに基づく、48のコンテキストCT111〜CT122等に基づいて、分割情報を生成する。すなわち、配信装置100は、収集された行動情報が非常に多いユーザU111については、8つのコンテキストよりも細分化された48のコンテキストに基づいて、分割情報を生成する。なお、図16に示す分割情報一覧UL111中の「0時」は0時台を意味し、例えば、0時0分0秒から0時59分59秒までに対応する。また、図16に示す分割情報一覧UL111中の「1時」〜「23時」についても同様である。
In FIG. 16, the
このように、配信装置100は、ユーザごとに収集される行動情報の量に基づいて、分割情報を生成するコンテキストを変動させてもよい。なお、配信装置100は、分割情報一覧UL11と分割情報一覧UL111とを合わせてモデルを生成してもよい。また、分割情報一覧UL111に示すユーザU111のように、ユーザ単体で各コンテキストに十分な分割情報が含まれるユーザについては、配信装置100は、ユーザの各々に対するモデルを生成してもよい。例えば、配信装置100は、ユーザU111自身の行動情報のみを用いて、ユーザU111の各コンテキストに対応するモデルを生成してもよい。また、配信装置100は、図13に示すように、分割情報が不足するユーザのマスMSに対してユーザU111の分割情報を追加してもよい。すなわち、配信装置100は、ユーザU111の各コンテキストに対応するモデルを生成し、ユーザU111の情報を他のユーザに利用させてもよい。
In this way, the
また、配信装置100は、所定の区分におけるマスMSの情報量が少ない場合、その区分におけるコンテキストを統合させてもよい。この点について、図17を用いて説明する。図17は、実施形態に係るコンテキストの統合の一例を示す図である。
Further, when the amount of information of the mass MS in a predetermined division is small, the
図17に示す分割情報一覧UL11は、図13に示す分割情報一覧UL11と同様である。すなわち、分割情報一覧UL11は、朝(4〜10時)、昼(10〜16時)、夜(16〜22時)、深夜(22〜4時)の4つの時間帯と、家(自宅)またはオフィス(勤務地)の2つの位置とに基づく、8つのコンテキストCT11〜CT18に分割された場合を示す。分割情報一覧UL11には、ユーザU1〜U4等が含まれる。 The division information list UL11 shown in FIG. 17 is the same as the division information list UL11 shown in FIG. That is, the divided information list UL11 has four time zones of morning (4 to 10 o'clock), noon (10 to 16 o'clock), night (16 to 22 o'clock), and midnight (22 to 4 o'clock), and home (home). Or, the case where it is divided into eight contexts CT11 to CT18 based on two positions of the office (work location) is shown. The divided information list UL11 includes users U1 to U4 and the like.
ここで、ユーザU112は、他のユーザU1〜U4等に比べて深夜において収集された行動情報が非常に少ないユーザであるものとする。そのため、配信装置100は、ユーザU112については、分割情報一覧UL11に示す8つのコンテキストのうち、深夜に関するコンテキストを統合した7つのコンテキストに基づいて、分割情報を生成する。具体的には、配信装置100は、分割情報一覧UL11に示す8つのコンテキストのうち、深夜に関するコンテキストCT17及びコンテキストCT18を統合した深夜に対応するコンテキストCT121を含む7つのコンテキストに基づいて、分割情報を生成する。すなわち、配信装置100は、深夜において収集された行動情報が非常に少ないユーザU112については、深夜における家(自宅)かオフィス(勤務地)かの区別をなくしたコンテキストに基づいて、分割情報を生成する。
Here, it is assumed that the user U112 is a user who has very little action information collected at midnight as compared with other users U1 to U4 and the like. Therefore, the
このように、配信装置100は、ユーザごとに収集される行動情報の量に基づいて、分割情報を生成するコンテキストを統合させてもよい。なお、配信装置100は、分割情報一覧UL11と分割情報一覧UL112とを合わせてモデルを生成してもよい。
In this way, the
〔7.ユーザ属性の推定〕
また、配信装置100は、各区分におけるクラスタの配置等に基づいて、ユーザのユーザ属性を推定してもよい。この点について、図18を用いて説明する。図18は、実施形態に係るクラスタ及びモデルに基づくユーザ属性の推定の一例を示す図である。
[7. User attribute estimation]
Further, the
図18に示す分割情報一覧UL21は、図13に示す分割情報一覧UL11にユーザU21の分割情報を追加したものである。すなわち、分割情報一覧UL21は、朝(4〜10時)、昼(10〜16時)、夜(16〜22時)、深夜(22〜4時)の4つの時間帯と、家(自宅)またはオフィス(勤務地)の2つの位置とに基づく、8つのコンテキストCT11〜CT18に分割された場合を示す。また、分割情報一覧UL21には、ユーザU1〜U4、U21等が含まれる。またユーザU21は、ユーザ属性である性別及び年齢が不明なユーザであるものとする。 The division information list UL21 shown in FIG. 18 is obtained by adding the division information of the user U21 to the division information list UL11 shown in FIG. That is, the divided information list UL21 has four time zones of morning (4 to 10 o'clock), noon (10 to 16 o'clock), night (16 to 22 o'clock), and midnight (22 to 4 o'clock), and home (home). Or, the case where it is divided into eight contexts CT11 to CT18 based on two positions of the office (work location) is shown. Further, the divided information list UL21 includes users U1 to U4, U21 and the like. Further, it is assumed that the user U21 is a user whose gender and age, which are user attributes, are unknown.
まず、配信装置100は、分割情報一覧UL21中の各マスMSの分割情報を用いて、モデルを生成する(ステップS41)。例えば、配信装置100は、分割情報一覧UL21中の各マスMSの分割情報をクラスタリングし、クラスタ情報一覧ML21に示すようなクラスタごとにモデルを生成する。例えば、配信装置100は、図1中のステップS14と同様の処理によりモデルを生成する。
First, the
その後、配信装置100は、性別及び年齢が不明なユーザU21の性別及び年齢をクラスタの配置により推定する(ステップS42)。例えば、配信装置100は、ユーザ属性情報UA21に示すように、分割情報一覧UL21中のユーザU21におけるクラスタの配置とクラスタの配置が類似するユーザの性別及び年齢をユーザU21の性別及び年齢と推定する。
After that, the
ここで、図18では、配信装置100は、ユーザU4のコンテキストCT11に対応するマスMSと、ユーザU21のコンテキストCT12に対応するマスMSとを、同じクラスタに分類する。すなわち、ユーザU4とユーザU21とは、朝の時間帯において同じモデルM3が適用される。また、配信装置100は、ユーザU4のコンテキストCT13に対応するマスMSと、ユーザU21のコンテキストCT13に対応するマスMSとを、同じクラスタに分類する。すなわち、ユーザU4とユーザU21とは、昼の時間帯において家(自宅)にいる場合、同じモデルM1が適用される。また、配信装置100は、ユーザU4のコンテキストCT16に対応するマスMSと、ユーザU21のコンテキストCT17に対応するマスMSとを、同じクラスタに分類する。すなわち、ユーザU4とユーザU21とは、夜〜深夜の時間帯において同じモデルM6が適用される。
Here, in FIG. 18, the
このように、ユーザU4とユーザU21とはクラスタの配置、すなわち適用されるモデルの配置が類似しているため、配信装置100は、ユーザU21の性別及び年齢をユーザU4の性別及び年齢と同様であると推定する。具体的には、配信装置100は、ユーザU21の性別をユーザU4と同じ「男」であると推定し、年齢をユーザU4と同じ「20代」であると推定する。このように、配信装置100は、クラスタの配置、すなわち適用されるモデルの配置の類似に基づいて、ユーザ属性が不明なユーザのユーザ属性を推定することができる。
As described above, since the arrangement of the clusters, that is, the arrangement of the applied models is similar between the user U4 and the user U21, the
〔8.効果〕
上述してきたように、実施形態に係る配信装置100は、取得部131と、生成部133とを有する。取得部131は、ユーザに関する区分ごとのユーザの行動に関する行動情報であって、コンテキストに基づいて分割された行動情報である分割情報を取得する。また、生成部133は、各分割情報に含まれる行動情報の傾向に基づいて組み合わされた分割情報である組合情報ごとに、所定の対象を予測するモデルを生成する。
[8. effect〕
As described above, the
これにより、実施形態に係る配信装置100は、区分とコンテキストとに基づいて分割された情報をクラスタリングすることにより、各区分の各コンテキストに応じて適切なモデルを生成することができる。したがって、配信装置100は、コンテキストに基づいて所定の対象を適切に予測するモデルを生成することができる。
As a result, the
また、実施形態に係る配信装置100において、生成部133は、組合情報に含まれる分割情報の各々に対応するコンテキストにおける当該分割情報に対応する区分に含まれるユーザに関する所定の対象を予測するモデルを生成する。
Further, in the
これにより、実施形態に係る配信装置100は、区分とコンテキストとに基づいて分割された情報をクラスタリングすることにより、各区分の各コンテキストに応じて適切なモデルを生成することができる。したがって、配信装置100は、コンテキストに基づいて所定の対象を適切に予測するモデルを生成することができる。
As a result, the
また、実施形態に係る配信装置100において、取得部131は、区分として、ユーザ、またはユーザ属性に基づく分類ごとのユーザの行動に関する行動情報が、コンテキストに基づいて分割された分割情報を取得する。
Further, in the
これにより、実施形態に係る配信装置100は、区分を適宜変更して各マスに含まれる分割情報の量を調整することができる。したがって、コンテキストに基づいて所定の対象を適切に予測するモデルを生成することができる。
As a result, the
また、実施形態に係る配信装置100において、生成部133は、区分間を跨ぐ組み合わせを含む組合情報ごとに、所定の対象を予測するモデルを生成する。
Further, in the
これにより、実施形態に係る配信装置100は、コンテキストに基づいて各区分の行動情報を分割しても、区分間を跨ぐクラスタリングを行うことにより、各モデルの生成に用いられる情報量が不足することを抑制することができる。したがって、配信装置100は、コンテキストに基づいて所定の対象を適切に予測するモデルを生成することができる。
As a result, even if the
また、実施形態に係る配信装置100において、生成部133は、組合情報に含まれる各分割情報に対応するユーザの分類及びコンテキストの組合せにおける所定の対象の予測精度が高くなるように分割情報が組み合わされた組合情報ごとに、所定の対象を予測するモデルを生成する。
Further, in the
これにより、実施形態に係る配信装置100は、組合情報に含まれる各分割情報に対応するユーザの分類及びコンテキストの組合せにおける所定の対象の予測精度が高くなるように分割情報が組み合わせることにより、コンテキストに基づいて所定の対象を適切に予測するモデルを生成することができる。
As a result, the
また、実施形態に係る配信装置100において、生成部133は、各分割情報に含まれる行動情報が類似する分割情報が組み合わされた組合情報ごとに、所定の対象を予測するモデルを生成する。
Further, in the
これにより、実施形態に係る配信装置100は、各分割情報に含まれる行動情報が類似する分割情報を組み合わせることにより、コンテキストに基づいて所定の対象を適切に予測するモデルを生成することができる。
As a result, the
また、実施形態に係る配信装置100において、生成部133は、組合情報の数が所定数になる手法により分割情報が組み合わされた組合情報ごとに、所定の対象を予測するモデルを生成する。
Further, in the
これにより、実施形態に係る配信装置100は、組合情報の数が所定数になる手法を用いることにより、コンテキストに基づいて所定の対象を適切に予測するモデルを生成することができる。
As a result, the
また、実施形態に係る配信装置100において、生成部133は、組合情報の数が変動し得る手法により分割情報が組み合わされた組合情報ごとに、所定の対象を予測するモデルを生成する。
Further, in the
これにより、実施形態に係る配信装置100は、組合情報の数が変動し得る手法を用いることにより、コンテキストに基づいて所定の対象を適切に予測するモデルを生成することができる。
As a result, the
また、実施形態に係る配信装置100において、生成部133は、所定の対象として、ユーザのコンテンツへの関心を予測するモデルを生成する。
Further, in the
これにより、実施形態に係る配信装置100は、コンテキストに基づいてユーザのコンテンツへの関心を適切に予測するモデルを生成することができる。
Thereby, the
また、実施形態に係る配信装置100において、生成部133は、一の区分がユーザである場合において、一のコンテキストにおけるユーザの分割情報が所定の条件を満たさない場合、一のコンテキストにおけるユーザのユーザ属性に類似する他の区分の分割情報を一のコンテキストにおけるユーザの分割情報に加えることにより、モデルを生成する。
Further, in the
これにより、実施形態に係る配信装置100は、どのようなユーザであっても、コンテキストに基づいて所定の対象を適切に予測するモデルを生成することができる。
As a result, the
また、実施形態に係る配信装置100において、生成部133は、一のコンテキストにおけるユーザの分割情報の量が所定量に満たない場合、一のコンテキストにおける他の区分の分割情報を一のコンテキストにおけるユーザの分割情報に加えることにより、モデルを生成する。
Further, in the
これにより、実施形態に係る配信装置100は、分割情報が不足するユーザであっても、コンテキストに基づいて所定の対象を適切に予測するモデルを生成することができる。
As a result, the
また、実施形態に係る配信装置100は推定部132を有する。推定部132は、一の区分がユーザである場合において、ユーザの各分割情報が含まれる組合情報と、他の区分の各分割情報が含まれる組合情報との類似度に基づいて、ユーザのユーザ属性を推定する。
Further, the
これにより、実施形態に係る配信装置100は、ユーザのユーザ属性が不明である場合であっても、適切にユーザ属性を推定することができる。
As a result, the
〔9.ハードウェア構成〕
上述してきた実施形態に係る配信装置100は、例えば図19に示すような構成のコンピュータ1000によって実現される。図19は、配信装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[9. Hardware configuration]
The
CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
The CPU 1100 operates based on a program stored in the
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータをネットワークNを介して他の機器へ送信する。
The
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。
The CPU 1100 controls an output device such as a display or a printer, and an input device such as a keyboard or a mouse via the input /
メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
The
例えば、コンピュータ1000が実施形態に係る配信装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。
For example, when the
以上、本願の実施形態及び変形例のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の行に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 Although some of the embodiments and modifications of the present application have been described in detail with reference to the drawings, these are examples and vary based on the knowledge of those skilled in the art, including the embodiments described in the disclosure line of the invention. It is possible to carry out the present invention in another form in which the above is modified or improved.
〔10.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[10. others〕
Further, among the processes described in the above-described embodiments and modifications, all or part of the processes described as being automatically performed can be manually performed, or are described as being manually performed. It is also possible to automatically perform all or part of the processed processing by a known method. In addition, the processing procedure, specific name, and information including various data and parameters shown in the above document and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each figure is not limited to the illustrated information.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Further, each component of each of the illustrated devices is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of the device is functionally or physically dispersed / physically distributed in any unit according to various loads and usage conditions. Can be integrated and configured.
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Further, the above-described embodiments and modifications can be appropriately combined as long as the processing contents do not contradict each other.
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。 Further, the above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the acquisition unit can be read as an acquisition means or an acquisition circuit.
1 配信システム
100 配信装置(生成装置)
121 ユーザ情報記憶部
122 行動情報記憶部
123 分割情報記憶部
124 クラスタ情報記憶部
125 学習情報記憶部
126 コンテンツ情報記憶部
130 制御部
131 取得部
132 推定部
133 生成部
134 決定部
135 配信部
10 端末装置
N ネットワーク
1
121 User
Claims (13)
コンテキストに基づいて分割された行動情報である分割情報を生成し、生成した各分割情報に含まれる行動情報が示す行動有無の傾向に基づいて組み合わされた分割情報である組合情報を生成し、生成した組合情報ごとのモデルであって、各コンテンツを適用してスコアを得るために用いるモデルを生成する生成部と、
を備えたことを特徴とする生成装置。 An acquisition unit that acquires behavior information related to user behavior for each category related to the user from the terminal device used by the user, and an acquisition unit.
Divided information that is divided action information based on the context is generated, and union information that is combined based on the tendency of the presence or absence of action indicated by the action information included in each generated divided information is generated and generated. a model for each union information, a generation unit for generating a model Ru used to obtain the score by applying the respective content,
A generator characterized by being equipped with.
組合情報に含まれる分割情報の各々に対応するコンテキストにおける、当該分割情報に対応する区分に含まれるユーザに関する所定の対象を予測するモデルを生成する
ことを特徴とする請求項1に記載の生成装置。 The generator
The generator according to claim 1, wherein a model for predicting a predetermined target for a user included in the division corresponding to the division information in a context corresponding to each of the division information included in the union information is generated. ..
前記区分として、ユーザ、またはユーザ属性に基づく分類ごとのユーザの行動に関する行動情報が、コンテキストに基づいて分割された分割情報を生成する
ことを特徴とする請求項1または請求項2に記載の生成装置。 The generator
The generation according to claim 1 or 2, wherein as the division, the behavior information regarding the behavior of the user or the user for each classification based on the user attribute generates the division information divided based on the context. Device.
前記区分間を跨ぐ組み合わせを含む組合情報ごとに、所定の対象を予測するモデルを生成する
ことを特徴とする請求項1〜3のいずれか1項に記載の生成装置。 The generator
The generator according to any one of claims 1 to 3, wherein a model for predicting a predetermined target is generated for each union information including a combination straddling the divisions.
組合情報を用いて生成したモデルについて、当該組合情報に含まれる各分割情報に対応するユーザの分類及びコンテキストの組合せにおける所定の対象の予測精度が所定の条件を満たすかどうかに基づいてモデルの生成を繰り返す
ことを特徴とする請求項1〜4のいずれか1項に記載の生成装置。 The generator
For the model generated using the union information, the model is generated based on whether the prediction accuracy of a predetermined target in the combination of user classification and context corresponding to each division information included in the union information satisfies a predetermined condition. The generator according to any one of claims 1 to 4, wherein the process is repeated.
各分割情報に含まれる行動情報が類似する分割情報が組み合わされた組合情報ごとに、所定の対象を予測するモデルを生成する
ことを特徴とする請求項1〜5のいずれか1項に記載の生成装置。 The generator
The invention according to any one of claims 1 to 5, wherein a model for predicting a predetermined target is generated for each union information in which the behavioral information contained in each division information is similar to the division information. Generator.
組合情報の数が所定数になる手法により分割情報が組み合わされた組合情報ごとに、所定の対象を予測するモデルを生成する
ことを特徴とする請求項1〜6のいずれか1項に記載の生成装置。 The generator
The invention according to any one of claims 1 to 6, wherein a model for predicting a predetermined target is generated for each union information in which the division information is combined by a method in which the number of union information becomes a predetermined number. Generator.
組合情報の数が変動し得る手法により分割情報が組み合わされた組合情報ごとに、所定の対象を予測するモデルを生成する
ことを特徴とする請求項1〜6のいずれか1項に記載の生成装置。 The generator
The generation according to any one of claims 1 to 6, wherein a model for predicting a predetermined target is generated for each union information in which the division information is combined by a method in which the number of union information can fluctuate. Device.
一の区分がユーザである場合において、一のコンテキストにおける前記ユーザの分割情報が所定の条件を満たさない場合、前記一のコンテキストにおける前記ユーザのユーザ属性に類似する他の区分の分割情報を前記一のコンテキストにおける前記ユーザの分割情報に加えることにより、モデルを生成する
ことを特徴とする請求項1〜8のいずれか1項に記載の生成装置。 The generator
When one division is a user and the division information of the user in one context does not satisfy a predetermined condition, the division information of another division similar to the user attribute of the user in the one context is input to the one. The generator according to any one of claims 1 to 8, wherein a model is generated by adding to the division information of the user in the context of.
前記一のコンテキストにおける前記ユーザの分割情報の量が所定量に満たない場合、前記一のコンテキストにおける前記他の区分の分割情報を前記一のコンテキストにおける前記ユーザの分割情報に加えることにより、モデルを生成する
ことを特徴とする請求項9に記載の生成装置。 The generator
When the amount of the divided information of the user in the one context is less than a predetermined amount, the model is added by adding the divided information of the other division in the one context to the divided information of the user in the one context. The generator according to claim 9, wherein the generator is generated.
をさらに備えたことを特徴とする請求項1〜10のいずれか1項に記載の生成装置。 When one division is a user, the user attribute of the user is estimated based on the similarity between the union information including each division information of the user and the union information including each division information of the other division. Estimator,
The generator according to any one of claims 1 to 10, further comprising.
ユーザに関する区分ごとのユーザの行動に関する行動情報を、当該ユーザが利用する端末装置から取得する取得工程と、
コンテキストに基づいて分割された行動情報である分割情報を生成し、生成した各分割情報に含まれる行動情報が示す行動有無の傾向に基づいて組み合わされた分割情報である組合情報を生成し、生成した組合情報ごとのモデルであって、各コンテンツを適用してスコアを得るために用いるモデルを生成する生成工程と、
を含むことを特徴とする生成方法。 It ’s a computer-executed generation method.
The acquisition process of acquiring the behavior information related to the user's behavior for each category related to the user from the terminal device used by the user, and the acquisition process.
Divided information that is divided action information based on the context is generated, and union information that is combined based on the tendency of the presence or absence of action indicated by the action information included in each generated divided information is generated and generated. a model for each union information, a generation step of generating a model Ru used to obtain the score by applying the respective content,
A generation method characterized by including.
コンテキストに基づいて分割された行動情報である分割情報を生成し、生成した各分割情報に含まれる行動情報が示す行動有無の傾向に基づいて組み合わされた分割情報である組合情報を生成し、生成した組合情報ごとのモデルであって、各コンテンツを適用してスコアを得るために用いるモデルを生成する生成手順と、
をコンピュータに実行させることを特徴とする生成プログラム。 The acquisition procedure for acquiring the behavior information related to the user's behavior for each category related to the user from the terminal device used by the user, and the acquisition procedure.
Divided information that is divided action information based on the context is generated, and union information that is combined based on the tendency of the presence or absence of action indicated by the action information included in each generated divided information is generated and generated. a model for each union information, a generating step of generating a model Ru used to obtain the score by applying the respective content,
A generator characterized by having a computer execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020089202A JP6924303B2 (en) | 2016-02-16 | 2020-05-21 | Generation device, generation method, and generation program |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016026473A JP6708429B2 (en) | 2016-02-16 | 2016-02-16 | Generation device, generation method, and generation program |
JP2020089202A JP6924303B2 (en) | 2016-02-16 | 2020-05-21 | Generation device, generation method, and generation program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016026473A Division JP6708429B2 (en) | 2016-02-16 | 2016-02-16 | Generation device, generation method, and generation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020129409A JP2020129409A (en) | 2020-08-27 |
JP6924303B2 true JP6924303B2 (en) | 2021-08-25 |
Family
ID=72175398
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020089202A Active JP6924303B2 (en) | 2016-02-16 | 2020-05-21 | Generation device, generation method, and generation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6924303B2 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5138556B2 (en) * | 2008-11-17 | 2013-02-06 | 株式会社エヌ・ティ・ティ・ドコモ | Content distribution server, content distribution method, and communication system |
CN103890812A (en) * | 2011-08-30 | 2014-06-25 | 诺基亚公司 | Method and apparatus for providing recommendations based on context-aware group modeling |
JP5723835B2 (en) * | 2012-06-11 | 2015-05-27 | 日本電信電話株式会社 | Interest analysis method, interest analysis apparatus and program thereof |
JP6708429B2 (en) * | 2016-02-16 | 2020-06-10 | ヤフー株式会社 | Generation device, generation method, and generation program |
-
2020
- 2020-05-21 JP JP2020089202A patent/JP6924303B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2020129409A (en) | 2020-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6765195B2 (en) | Update device, update method, and update program | |
CN109903086B (en) | Similar crowd expansion method and device and electronic equipment | |
US20130226856A1 (en) | Performance-efficient system for predicting user activities based on time-related features | |
JP2022531410A (en) | Digital anthropology and ethnographic system | |
JP6601821B2 (en) | Determination apparatus, determination method, determination program, information processing apparatus, information processing method, and information processing program | |
JP6909685B2 (en) | Generation device, generation method, and generation program | |
JP6708429B2 (en) | Generation device, generation method, and generation program | |
JP6757276B2 (en) | Generation device, generation method, and generation program | |
JP6774763B2 (en) | Estimator, estimation method, and estimation program | |
JP6181817B1 (en) | Determination apparatus, determination method, and determination program | |
JP6924303B2 (en) | Generation device, generation method, and generation program | |
JP6963053B2 (en) | Judgment device, judgment method, and judgment program | |
JP6679415B2 (en) | Selection device, selection method, and selection program | |
JP7195293B2 (en) | Information processing device, information processing method, and information processing program | |
JP7042197B2 (en) | Information processing equipment, information processing methods, and information processing programs | |
JP6832759B2 (en) | Display program, display method, terminal device, information processing device, information processing method, and information processing program | |
JP6680562B2 (en) | Judgment device, judgment method, and judgment program | |
JP6938259B2 (en) | Generation device, generation method, and generation program | |
JP7194798B2 (en) | Information processing device, information processing method, and information processing program | |
JP7259110B2 (en) | Information processing device, information processing method, and information processing program | |
JP6981946B2 (en) | Information processing equipment, information processing methods, and information processing programs | |
JP6797870B2 (en) | Generation device, generation method, and generation program | |
JP7061542B2 (en) | Information processing equipment, information processing methods, and information processing programs | |
JP7128236B2 (en) | Specific device, specific method and specific program | |
JP7018857B2 (en) | Information processing equipment, information processing methods, and information processing programs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200521 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210413 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210611 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210706 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210730 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6924303 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |