JP7160980B2 - INFORMATION PROVIDING DEVICE, INFORMATION PROVIDING METHOD AND PROGRAM - Google Patents
INFORMATION PROVIDING DEVICE, INFORMATION PROVIDING METHOD AND PROGRAM Download PDFInfo
- Publication number
- JP7160980B2 JP7160980B2 JP2021041744A JP2021041744A JP7160980B2 JP 7160980 B2 JP7160980 B2 JP 7160980B2 JP 2021041744 A JP2021041744 A JP 2021041744A JP 2021041744 A JP2021041744 A JP 2021041744A JP 7160980 B2 JP7160980 B2 JP 7160980B2
- Authority
- JP
- Japan
- Prior art keywords
- content
- user
- features
- vector
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 18
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 238000012545 processing Methods 0.000 claims description 34
- 230000008859 change Effects 0.000 claims description 28
- 230000008569 process Effects 0.000 claims description 11
- 238000009795 derivation Methods 0.000 claims description 10
- 230000007423 decrease Effects 0.000 claims description 6
- 238000010801 machine learning Methods 0.000 claims description 4
- 239000013598 vector Substances 0.000 description 157
- 238000010586 diagram Methods 0.000 description 18
- 230000009471 action Effects 0.000 description 16
- 238000013528 artificial neural network Methods 0.000 description 15
- 238000004891 communication Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 13
- 210000002569 neuron Anatomy 0.000 description 11
- 230000008878 coupling Effects 0.000 description 6
- 238000010168 coupling process Methods 0.000 description 6
- 238000005859 coupling reaction Methods 0.000 description 6
- 230000000306 recurrent effect Effects 0.000 description 6
- 230000004913 activation Effects 0.000 description 5
- 230000015654 memory Effects 0.000 description 4
- 238000012935 Averaging Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
Images
Landscapes
- Information Transfer Between Computers (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本発明は、情報提供装置、情報提供方法、およびプログラムに関する。 The present invention relates to an information providing device, an information providing method, and a program.
インターネットを介して、ニュース記事や広告画像などのコンテンツを配信する技術が知られている。これに関連し、コンテンツの重要度を推定し、この重要度が高いコンテンツほど、ユーザに推薦する際の優先度を高くする技術が知られている(例えば、特許文献1参照)。 Techniques for distributing content such as news articles and advertising images via the Internet are known. In relation to this, there is known a technique of estimating the degree of importance of content and giving higher priority to the content with higher degree of importance when recommending the content to the user (see, for example, Patent Literature 1).
しかしながら、従来の技術では、重要度が高いと推定されたコンテンツが、ユーザにとって関心興味の低いコンテンツである場合があった。この結果、ユーザの興味関心の低いと想定されるコンテンツが優先的に推薦されてしまう場合があった。 However, with the conventional technology, there are cases where content estimated to be of high importance is content of low interest to the user. As a result, content that is assumed to be of low interest to the user may be preferentially recommended.
本発明は、上記の課題に鑑みてなされたものであり、ユーザにとって関心興味の高いと想定されるコンテンツを精度良く推薦することができる情報提供装置、情報提供方法、およびプログラムを提供することを目的としている。 The present invention has been made in view of the above problems, and aims to provide an information providing apparatus, an information providing method, and a program capable of accurately recommending content assumed to be of high interest to the user. purpose.
本発明の一態様は、ユーザによって閲覧されたコンテンツの特徴に基づいて、前記ユーザの特徴を導出する導出部と、前記導出部により導出されたユーザの特徴と、配信対象の複数のコンテンツの其々の特徴とに基づいて、前記配信対象の複数のコンテンツの中から前記ユーザに推薦するコンテンツを決定する決定部と、を備え、前記導出部が、前記ユーザによって閲覧された各コンテンツの時間経過に応じた閲覧回数の変化に基づいて、前記ユーザの特徴を導出する情報提供装置である。 One aspect of the present invention is a derivation unit that derives the characteristics of the user based on the characteristics of the content viewed by the user; a deciding unit that decides content to be recommended to the user from among the plurality of content to be distributed, based on each of the characteristics, wherein the deriving unit determines the time course of each content browsed by the user. It is an information providing device for deriving characteristics of the user based on a change in the number of times of browsing according to.
本発明の一態様によれば、ユーザにとって関心興味の高いと想定されるコンテンツを精度良く推薦することができる。 According to one aspect of the present invention, it is possible to accurately recommend content that is assumed to be of high interest to the user.
以下、本発明を適用した情報提供装置、情報提供方法、およびプログラムを、図面を参照して説明する。 An information providing apparatus, an information providing method, and a program to which the present invention is applied will be described below with reference to the drawings.
[概要]
情報提供装置は、一以上のプロセッサにより実現される。情報提供装置は、基本的には、ユーザによって閲覧されたコンテンツの特徴に基づいてユーザの特徴を導出し、導出したユーザの特徴と、配信対象の複数のコンテンツの其々の特徴とに基づいて、配信対象の複数のコンテンツの中からユーザに推薦するコンテンツを決定する。更に、情報提供装置は、ユーザの特徴を導出する際に、ユーザによって閲覧された一以上のコンテンツの特徴のうち、時間経過に応じた閲覧回数の変化が小さいコンテンツの特徴ほど大きくユーザの特徴に反映させる。これによって、例えば、一時的に不特定多数のユーザによって閲覧されたゴシップ記事のようなコンテンツを対象のユーザが閲覧した場合であっても、そのユーザの特徴にゴシップ記事の特徴を反映させにくくすることができる。この結果、ゴシップ記事のような、瞬間的に不特定多数のユーザによって閲覧されたコンテンツが推薦されにくくなり、ユーザにとって関心興味の高いと想定されるコンテンツを精度よく推薦することができる。
[Overview]
An information providing device is realized by one or more processors. The information providing device basically derives the user's characteristics based on the characteristics of the content viewed by the user, and based on the derived user's characteristics and the characteristics of each of the plurality of contents to be distributed. , determines the content to be recommended to the user from among the plurality of content to be distributed. Furthermore, when deriving the characteristics of the user, the information providing apparatus, among the characteristics of one or more pieces of content viewed by the user, has a characteristic of content with a smaller change in the number of times of viewing over time. To reflect. As a result, for example, even if a target user browses contents such as gossip articles temporarily browsed by an unspecified number of users, it is difficult to reflect the characteristics of the gossip articles in the user's characteristics. be able to. As a result, it becomes difficult to recommend content such as gossip articles that has been instantly viewed by an unspecified number of users, and content that is assumed to be of high interest to users can be recommended with high accuracy.
本実施形態におけるコンテンツは、例えば、ブログやウェブサイトなどに掲載される記事であり、テキストを含むコンテンツである。また、コンテンツは、例えば、ウェブサイトなどの媒体に広告として掲載されるテキスト、静止画像、動画像、または音声などであってもよい。 The content in this embodiment is, for example, an article posted on a blog, website, or the like, and is content containing text. Also, the content may be, for example, text, still images, moving images, audio, etc. posted as advertisements on media such as websites.
[全体構成]
図1は、実施形態における情報提供装置100を含む情報提供システム1の一例を示す図である。実施形態における情報提供システム1は、例えば、一以上の端末装置10と、情報提供装置100とを備える。これらの装置は、ネットワークNWを介して接続される。
[overall structure]
FIG. 1 is a diagram showing an example of an
図1に示す各装置は、ネットワークNWを介して種々の情報を送受信する。ネットワークNWは、例えば、インターネット、WAN(Wide Area Network)、LAN(Local Area Network)、プロバイダ端末、無線通信網、無線基地局、専用回線などを含む。なお、図1に示す各装置の全ての組み合わせが相互に通信可能である必要はなく、ネットワークNWは、一部にローカルなネットワークを含んでもよい。 Each device shown in FIG. 1 transmits and receives various information via the network NW. The network NW includes, for example, the Internet, WAN (Wide Area Network), LAN (Local Area Network), provider terminal, wireless communication network, wireless base station, leased line, and the like. Note that not all combinations of the devices shown in FIG. 1 need to be able to communicate with each other, and the network NW may partially include a local network.
端末装置10は、例えば、スマートフォンなどの携帯電話、タブレット端末、各種パーソナルコンピュータなどの、入力装置、表示装置、通信装置、記憶装置、および演算装置を備える端末装置である。通信装置は、NIC(Network Interface Card)などのネットワークカード、無線通信モジュールなどを含む。端末装置10では、ウェブブラウザやアプリケーションプログラムなどのUA(User Agent)が起動し、ユーザの入力する内容に応じたリクエストを情報提供装置100に送信する。また、UAが起動された端末装置10は、情報提供装置100から取得した情報に基づいて、表示装置に各種画像を表示させる。
The
情報提供装置100は、例えば、ウェブブラウザからのリクエストに応じてウェブページを端末装置10に提供するウェブサーバである。ウェブページには、上述したコンテンツが掲載される。また、情報提供装置100は、アプリケーションプログラムからのリクエストに応じて画像や音声などのコンテンツを端末装置10に提供するアプリサーバであってもよい。例えば、情報提供装置100は、文書検索や画像検索といった、あるデータベースから所望のコンテンツを検索するサービス(以下、検索サービスと称する)を、ウェブサイトやアプリケーションを介して、端末装置10を利用するユーザに提供する。
The
[情報提供装置の構成]
図2は、実施形態における情報提供装置100の構成の一例を示す図である。図示のように、情報提供装置100は、例えば、通信部102と、制御部110と、記憶部130とを備える。
[Configuration of Information Providing Device]
FIG. 2 is a diagram showing an example of the configuration of the
通信部102は、例えば、NIC等の通信インターフェースを含む。通信部102は、ネットワークNWを介して、端末装置10と通信し、端末装置10から各種情報を取得する。例えば、通信部102は、端末装置10からログイン情報を取得する。ログイン情報とは、検索サービスを利用するためのアカウントに対応付けられたユーザID(アカウントID)やパスワードなどを含む情報である。
The
制御部110は、例えば、コンテンツベクトル生成部112と、ユーザベクトル生成部114と、レコメンドコンテンツ決定部116と、コンテンツ配信部118と、情報更新部120と、学習処理部122とを備える。ユーザベクトル生成部114は、「導出部」の一例であり、レコメンドコンテンツ決定部116は、「決定部」の一例である。
The
これらの構成要素は、例えば、CPU(Central Processing Unit)などのプロセッサが記憶部130に格納されたプログラムを実行することにより実現される。また、制御部110の構成要素の一部または全部は、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはGPU(Graphics Processing Unit)などのハードウェア(回路部;circuitry)により実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。
These components are implemented by executing a program stored in the
記憶部130は、例えば、HDD(Hard Disc Drive)、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)、ROM(Read Only Memory)、RAM(Random Access Memory)などの記憶装置により実現される。記憶部130には、ファームウェアやアプリケーションプログラムなどの各種プログラムの他に、コンテンツ情報132、コンテンツベクトル情報134、ユーザ情報136、行動ログ138、ユーザベクトル情報140、学習器情報142などが記憶される。
The
コンテンツ情報132は、各種コンテンツを含む情報である。例えば、コンテンツがニュース記事である場合、コンテンツ情報132は、ニュース記事に含まれるテキスト情報、画像、音声等の内容、ニュース記事の配信元や著者等の情報を含んでよい。
The
図3は、コンテンツ情報132の一例を示す図である。図示の例のように、コンテンツ情報132は、各コンテンツを識別するためのコンテンツIDに対して、所定の周期Tiごとの総閲覧数が対応付けられた情報であってよい。所定の周期Tiは、例えば、分、時間、日、週、月、年などの任意の期間であってよい。また、コンテンツ情報132は、各種コンテンツを含む情報であってよく、例えば、コンテンツがニュース記事である場合、ニュース記事に含まれるテキスト情報、画像等の内容、ニュース記事の配信元や著者等の情報を含んでよい。
FIG. 3 is a diagram showing an example of the
図4は、コンテンツベクトル情報134の一例を示す図である。コンテンツベクトル情報134は、コンテンツ情報132に含まれる各コンテンツの特徴がベクトル化された情報であり、例えば、各コンテンツIDに対して、コンテンツがベクトル化されたコンテンツベクトルが対応付けられた情報である。
FIG. 4 is a diagram showing an example of the
図5は、ユーザ情報136の一例を示す図である。ユーザ情報136は、例えば、各ユーザを識別するためのユーザID(アカウントID)に対して、ログイン時に照合されるパスワードやユーザ属性などが対応付けられた情報である。ユーザ属性には、例えば、性別、年齢、居住地域、収入、職業、学歴などの、そのユーザのもつ人口統計学的な属性(デモグラフィック属性)が含まれる。これらの人口統計学的な属性は、例えば、アカウント作成時に予め登録されるものとする。また、ユーザ属性には、例えば、ユーザがログイン時に利用した端末装置10が、スマートフォンなどの携帯電話であるのか、タブレット端末であるのか、パーソナルコンピュータであるのか、といったことを表す端末装置10の種類や、ログイン時の曜日や時間帯などの各種情報が属性として含まれてもよい。
FIG. 5 is a diagram showing an example of the
図6は、行動ログ138の一例を示す図である。行動ログ138は、ユーザによるコンテンツの閲覧履歴に基づく情報であり、例えば、各ユーザIDに対して、ユーザが閲覧したコンテンツのコンテンツIDと、所定期間におけるコンテンツの閲覧回数とが対応付けられた情報である。所定期間は、例えば、ユーザがログインしてから数周期Ti或いは数十周期Ti程度が経過するまでの期間である。また、所定期間は、例えば、ユーザがログインしてからログアウトするまでの期間であってもよい。
FIG. 6 is a diagram showing an example of the
図7は、ユーザベクトル情報140の一例を示す図である。ユーザベクトル情報140は、ユーザ情報136が示す各ユーザの特徴がベクトル化された情報であり、例えば、ユーザIDに対して、ユーザがベクトル化されたユーザベクトルが対応付けられた情報である。
FIG. 7 is a diagram showing an example of
学習器情報142は、学習器(学習モデル)を規定する情報である。学習器は、例えば、GRU(Gated Recurrent Unit)やLSTM(Long short-term memory)といった種類の再帰型ニューラルネットワーク(Reccurent Neural Network:RNN)によって実現されてよい。これらの再帰型ニューラルネットワークによって学習器が実現される場合、学習器情報142には、再帰型ニューラルネットワークを構成する入力層と、一以上の中間層(隠れ層)と、出力層との其々に含まれるニューロン(ユニット)が互いにどのように結合されるのかという結合情報や、結合されたニューロン間で入出力されるデータに付与される結合係数などの各種情報が含まれる。結合情報とは、例えば、各層に含まれるニューロン数や、各ニューロンの結合先のニューロンを指定する情報、各ニューロンを実現する活性化関数、隠れ層のニューロン間に設けられたゲートなどの情報を含む。ニューロンを実現する活性化関数は、例えば、正規化線形関数(ReLU関数)であってもよいし、シグモイド関数や、ステップ関数、その他の関数などであってもよい。ゲートは、例えば、活性化関数によって返される値(例えば1または0)に応じて、ニューロン間で伝達されるデータを選択的に通過させる。結合係数は、活性化関数のパラメータであり、例えば、ニューラルネットワークの隠れ層において、ある層のニューロンから、より深い層のニューロンにデータが出力される際に、出力データに対して付与される重みを含む。また、結合係数は、各層の固有のバイアス成分などを含んでもよい。
The
コンテンツベクトル生成部112は、コンテンツ情報132に含まれる各コンテンツの特徴をベクトル化し、コンテンツベクトルを生成する。例えば、コンテンツベクトル生成部112は、コンテンツがニュース記事である場合、そのニュース記事をコーパスとして、Countinuous Bag-of-Wordsおよび/またはSkip-gramの学習モデルに基づいて、ニュース記事をベクトル化する。例えば、コンテンツベクトル生成部112は、ニュース記事を複数の形態素に分割し、その複数の形態素のうち、特定の品詞(名詞など)を、Countinuous Bag-of-WordsおよびSkip-gramの双方の学習モデルを適用したニューラルネットワーク(例えばword2vec)に単語として入力することで、そのニューラルネットワークから出力される各単語の単語ベクトルを取得する。そして、コンテンツベクトル生成部112は、各単語に対応した複数の単語ベクトルの和を正規化(例えば単語数で除算)した値を、単語の抽出元であるニュース記事のベクトル(コンテンツベクトルの一例)として導出する。すなわち、コンテンツベクトル生成部112は、複数の単語ベクトルによって分散表現されたニュース記事のベクトルを生成する。このニュース記事のベクトルは、複数の単語ベクトルの其々を次元(基底ベクトル)とした多次元ベクトルである。
The content
また、コンテンツベクトル生成部112は、Bag-of-Words単体によって構成された学習モデルや、Global Vector Prediction(GloVe)などの他の学習モデルを利用して、各ニュース記事をベクトル化してもよい。また、コンテンツベクトル生成部112は、コンテンツが静止画像や動画像である場合、例えば、畳み込みニューラルネットワークを利用して、それらコンテンツをベクトル化してよい。
In addition, the content
コンテンツベクトル生成部112は、生成したコンテンツベクトルと、そのコンテンツベクトルの元となったコンテンツのコンテンツIDとを対応付けて、これをコンテンツベクトル情報134として記憶部130に記憶させる。なお、コンテンツの特徴をベクトル化する処理は、コンテンツベクトル生成部112が自ら行う代わりに、外部装置に処理を依頼することで実現されてもよい。
The content
ユーザベクトル生成部114は、コンテンツベクトル情報134および行動ログ138を基に、ユーザ情報136に含まれる各ユーザの特徴をベクトル化し、ユーザベクトルを生成する。例えば、ユーザベクトル生成部114は、学習器情報142を参照して、学習器の一例である再帰型ニューラルネットワークを生成(構築)する。一方で、ユーザベクトル生成部114は、行動ログ138を参照し、ユーザIDごとに、ユーザが閲覧したコンテンツのコンテンツIDを記憶部130から取得してから、コンテンツベクトル情報134を参照し、取得したコンテンツIDに対応したコンテンツベクトルを記憶部130から取得する。そして、ユーザベクトル生成部114は、ユーザが閲覧したコンテンツのコンテンツIDに対応した各コンテンツベクトルを、生成した再帰型ニューラルネットワークの入力層に入力することで、再帰型ニューラルネットワークの出力層からユーザの特徴がベクトル化されたユーザベクトルを取得する。すなわち、ユーザベクトル生成部114は、複数のコンテンツベクトルによって分散表現されたユーザベクトルを生成する。このユーザベクトルは、複数のコンテンツベクトルの其々を次元(基底ベクトル)とした多次元ベクトルである。ユーザベクトルは、「ユーザの特徴」の一例である。
Based on the
図6の例の場合、行動ログ138によって、ユーザIDが「USER_2」のユーザが、コンテンツIDが「CONT_6」、「CONT_14」といったコンテンツを閲覧したことが表されている。このような場合、ユーザベクトル生成部114は、コンテンツベクトル情報134を参照し、コンテンツIDが「CONT_6」のコンテンツに対応したコンテンツベクトルV(CONT_6)と、コンテンツIDが「CONT_14」のコンテンツに対応したコンテンツベクトルV(CONT_14)とを少なくも取得し、これらのコンテンツベクトルを少なくとも含むベクトル集合を再帰型ニューラルネットワークに入力する。再帰型ニューラルネットワークは、入力された各コンテンツベクトルを、隠れ層において結合係数(重み)を付与し、出力層に至るまでに平均化(例えば加重平均化)する。そして、ユーザベクトル生成部114は、再帰型ニューラルネットワークによって複数のコンテンツベクトルが平均化された一つのベクトルを、ユーザIDが「USER_2」のユーザのユーザベクトルとして導出する。
In the example of FIG. 6, the action log 138 indicates that a user with a user ID of "USER_2" browsed contents with content IDs of "CONT_6" and "CONT_14". In such a case, the user
ユーザベクトル生成部114は、生成したユーザベクトルと、そのユーザベクトルの元となったユーザのユーザIDとを対応付けて、これをユーザベクトル情報140として記憶部130に記憶させる。
The user
レコメンドコンテンツ決定部116は、ユーザベクトル生成部114により生成された複数のユーザベクトルのうち、対象ユーザがベクトル化されたユーザベクトル(以下、対象ユーザベクトルと称する)と、コンテンツベクトル生成部112により生成された一以上のコンテンツベクトルの其々との類似度に基づくスコア(指標値)を導出し、導出したスコアに応じて、対象ユーザに閲覧を推薦するコンテンツ(以下、レコメンドコンテンツと称する)を決定する。対象ユーザは、例えば、ログイン後に検索サービスを利用して所望の情報を検索する際に、検索窓などにクエリを入力したユーザである。
The recommended
例えば、レコメンドコンテンツ決定部116は、スコアが最も大きい一つのコンテンツベクトルに対応したコンテンツを、レコメンドコンテンツに決定する。また、レコメンドコンテンツ決定部116は、スコアが大きい上位所定数のコンテンツベクトルの其々に対応したコンテンツの集合を、レコメンドコンテンツに決定してもよいし、スコアが閾値以上の全てのコンテンツベクトルの其々に対応したコンテンツの集合を、レコメンドコンテンツに決定してもよい。
For example, the recommended
コンテンツ配信部118は、通信部102を用いて、レコメンドコンテンツ決定部116によりレコメンドコンテンツとして決定された一つまたは複数のコンテンツを、対象ユーザがクエリを入力するのに利用した端末装置10に配信する。
The
情報更新部120は、例えば、コンテンツ配信部118により配信されたレコメンドコンテンツが対象ユーザによって閲覧された場合、行動ログ138において、対象ユーザのユーザIDに、レコメンドコンテンツのコンテンツIDを新たに加えたり、閲覧時刻の古いコンテンツのコンテンツIDと置き換えたりすることで、行動ログ138を更新する。この際、ユーザベクトル生成部114は、ユーザベクトル情報140において、対象ユーザベクトルが存在しない場合、更新された行動ログ138に基づき、対象ユーザベクトルを新たに生成してよい。また、ユーザベクトル生成部114は、ユーザベクトル情報140において、対象ユーザベクトルが既に存在する場合、更新された行動ログ138に基づき、対象ユーザベクトルを更新してよい。
For example, when the recommended content distributed by the
なお、情報更新部120は、行動ログ138において、対象ユーザのユーザIDにコンテンツIDが存在する場合、すなわち、対象ユーザベクトルが既に存在する場合に、対象ユーザが所定期間内にいずれのコンテンツも閲覧しなかった場合、対象ユーザの行動ログ138において、ユーザIDに対応付けられた全てのコンテンツIDを消去し、閲覧履歴を初期化してよい。この場合、ユーザベクトル生成部114は、例えば、既に生成した対象ユーザベクトルを消去してよい。
Note that, in the action log 138, when the content ID exists in the user ID of the target user, i.e., when the target user vector already exists, the
学習処理部122は、行動ログ138に基づいて、学習器情報142によって規定される学習器を学習させる。例えば、学習器が再帰型ニューラルネットワークである場合、学習処理部122は、一周期Tiが経過するまでの間の各ユーザのコンテンツの閲覧履歴を基に、再帰型ニューラルネットワークの結合係数(活性化関数のパラメータ)を機械学習する。学習器の学習手法の詳細については後述する。
The
[運用時の処理フロー]
以下、情報提供装置100の運用時の一連の処理の流れをフローチャートに即して説明する。運用時とは、学習処理部122によってある程度学習された学習器を利用する状態である。図8は、情報提供装置100による一連の処理の流れを示すフローチャートである。本フローチャートの処理は、例えば、通信部102によってログイン情報が取得された端末装置10から、更に、コンテンツを検索するためのクエリが取得された場合に行われる。
[Processing flow during operation]
The flow of a series of processes during operation of the
まず、ユーザベクトル生成部114は、コンテンツベクトル情報134および行動ログ138を参照し、記憶部130から、対象ユーザによって閲覧されたコンテンツのコンテンツベクトルベクトルを取得する(S100)。
First, the user
次に、ユーザベクトル生成部114は、学習器情報142が示す学習器に、取得した複数のコンテンツベクトルを入力することで、対象ユーザの特徴が複数のコンテンツベクトルによって分散表現された対象ユーザベクトルを生成する(S102)。
Next, the user
次に、レコメンドコンテンツ決定部116は、数式(1)に基づいて、ユーザベクトル生成部114により生成された対象ユーザベクトルと、コンテンツベクトル生成部112により生成された一以上のコンテンツベクトルの其々との類似度を基に、レコメンドコンテンツを決定する際に参照するスコアを導出する(S102)。
Next, the recommended
数式(1)におけるuは、行動ログ138にユーザIDが含まれる複数のユーザのうち対象ユーザを表し、aは、コンテンツベクトルが生成された複数のコンテンツのうち、スコアの導出対象として選択された一つのコンテンツを表し、tは、検索サービスにおいてコンテンツが掲載された時刻(ニュース記事なら入稿された時刻)を表している。R(u,a,t)は、スコアを表し、Vcont(a)は、コンテンツaに対応したコンテンツベクトルを表し、Vuser(u)は、対象ユーザuに対応した対象ユーザベクトルを表している。Tは、転置を表している。pv(a,t)は、ある任意の時刻tにおけるコンテンツaの所定の周期Tiあたりの閲覧回数に基づく指標値(例えば閲覧回数の対数値など)を表している。bpvは、pv(a,t)に乗算されるバイアス成分を表している。pv(a,t)は、変数にuを含まないため、数式(1)の右辺の第1項から見て、第2項(bpv・pv(a,t))は、第1項を加算または減算する定数項として扱われる。パラメータbpvは、学習処理部122によって、再帰型ニューラルネットワークの結合係数が学習される際に併せて学習される。パラメータbpvは、スコアの導出対象として選択されたコンテンツaの時間経過に応じた閲覧回数の変化(例えば閲覧回数の時間微分値)が小さいほど、その値が大きくなるように学習される。
u in Equation (1) represents a target user among a plurality of users whose user IDs are included in the action log 138, and a is selected as a score derivation target among a plurality of contents for which content vectors are generated. It represents one piece of content, and t represents the time when the content was published in the search service (the time when the article was submitted in the case of a news article). R(u, a, t) represents the score, V cont (a) represents the content vector corresponding to the content a, and V user (u) represents the target user vector corresponding to the target user u. there is T represents transposition. pv(a, t) represents an index value (for example, a logarithm of the number of times of viewing) based on the number of times content a is viewed per predetermined period T i at an arbitrary time t. b pv represents the bias component multiplied by pv(a,t). Since pv(a, t) does not include u as a variable, from the first term on the right side of Equation (1), the second term (b pv pv(a, t)) is Treated as a constant term to add or subtract. The parameters b pv are learned by the
例えば、レコメンドコンテンツ決定部116は、数式(1)の右辺の第1項として、コンテンツベクトルVcont(a)ごとに、対象ユーザベクトルVuser(u)とのコサイン類似度を導出する。一方で、レコメンドコンテンツ決定部116は、数式(1)の右辺の第2項として、コンテンツaの時刻tにおける閲覧回数に基づく指標値pv(a,t)とバイアス値bpvとの積を導出する。そして、レコメンドコンテンツ決定部116は、これらの和を、スコアR(u,a,t)として導出する。数式(1)において、右辺の第1項であるVcont(a)T・Vuser(u)は、対象ユーザのこれまでのコンテンツの閲覧履歴に応じて値が変動する項であるのに対して、右辺の第2項であるbpv・pv(a,t)は、対象ユーザに応じて値が変動せず、時刻tにおけるコンテンツの閲覧回数に応じて値が変動する項である。従って、ユーザが頻繁に閲覧するコンテンツに類似し、且つ、時間経過に応じた閲覧回数の変化が小さいコンテンツほど、高いスコアR(u,a,t)が導出される。なお、数式(1)において、スコアR(u,a,t)は、第1項と第2項との積として導出されてもよいが、対象ユーザの興味関心のあるコンテンツを推薦する精度を向上させるために、スコアR(u,a,t)は、第1項と第2項との和として導出されるほうが好ましい。
For example, the recommended
次に、レコメンドコンテンツ決定部116は、導出したスコアに基づいて、各コンテンツベクトルに対応した複数のコンテンツの集合の中から、対象ユーザに閲覧を推薦するレコメンドコンテンツを決定する(S106)。
Next, the recommended
次に、コンテンツ配信部118は、通信部102を用いて、レコメンドコンテンツ決定部116によりレコメンドコンテンツとして決定された一つまたは複数のコンテンツを、対象ユーザの端末装置10に配信する(S108)。これによって本フローチャートの処理が終了する。
Next, the
[学習時の処理フロー]
以下、情報提供装置100の学習時の一連の処理の流れをフローチャートに即して説明する。学習時とは、運用時に利用される学習器を学習させる状態である。図9は、情報提供装置100による一連の処理の流れを示すフローチャートである。本フローチャートの処理は、例えば、所定の周期で繰り返し行われてよい。
[Processing flow during learning]
A series of processing flow during learning of the
まず、学習処理部122は、数式(1)のスコア導出式に含まれるパラメータbpvを学習する(S200)。例えば、学習処理部122は、コンテンツaの時間経過に応じた閲覧回数の変化が小さいコンテンツほどパラメータbpvの値が大きくなり、コンテンツaの時間経過に応じた閲覧回数の変化が大きいコンテンツほどパラメータbpvの値が小さくなるように学習する。
First, the
図10は、パラメータbpvとコンテンツの閲覧回数の時間変化との関係の一例を示す図である。例えば、パラメータbpvは、図示のように、コンテンツの閲覧回数の時間変化が大きくなるほど減少するステップ関数によって表されてよい。例えば、図3のコンテンツIDが「CONT_1」や「CONT_3」のコンテンツのように、ある周期だけ突出して閲覧回数が多いコンテンツ(以下、バズコンテンツと称する)の場合、パラメータbpvの値が小さくなりやすい。従って、スコア導出対象のコンテンツaがバズコンテンツであり、パラメータpv(a,t)の値が大きくなっても、その値をパラメータbpvが減少させるため、結果として数式(1)の右辺の第2項が小さくなる。例えば、学習処理部122は、機械学習によって、閲覧回数に応じたパラメータbpvの下げ幅を決定する。なお、パラメータbpvは、ステップ関数に限られず、コンテンツの閲覧回数の時間変化が大きくなるほど減少する関数であれば如何なる関数であってもよい。
FIG. 10 is a diagram showing an example of the relationship between the parameter bpv and the change over time in the number of views of content. For example, the parameter b pv may be represented by a step function that decreases as the number of times the content is viewed increases over time, as shown. For example, in the case of content (hereinafter referred to as "buzz content") that has a high number of views (hereinafter referred to as "buzz content"), such as the content with the content ID "CONT_1" or "CONT_3" in FIG. 3, the value of the parameter bpv becomes small. Cheap. Therefore, even if the content a for which the score is to be derived is buzz content and the value of the parameter pv(a, t) increases, the value of the parameter b pv decreases. 2 terms become smaller. For example, the
次に、学習処理部122は、学習器情報142によって規定される学習器のパラメータを学習する(S204)。例えば、学習器によって出力されるユーザベクトルが、学習器に入力された複数のコンテンツベクトルの加重平均で表される場合、学習処理部122は、各コンテンツベクトルに付与される重みを学習によって決定する。数式(2)は、ユーザベクトルの導出式の一例である。
Next, the
数式(2)は、w1~wkは、学習器に入力されるコンテンツベクトルVcont(1)~Vcont(k)の其々に対して付与される重みである。これらの重みw1~wkは、学習器が再帰型ニューラルネットワークである場合、ニューラルネットワークの結合係数(活性化関数のパラメータ)となる。例えば、学習処理部122は、図6に例示するように、ユーザIDが「USER_1」のユーザを対象ユーザとした場合、そのユーザのユーザベクトルVUSER(1)を導出する際に、コンテンツIDが「CONT_1」、「CONT_2」、「CONT_3」であるコンテンツのコンテンツベクトルVcont(1)~Vcont(3)に付与する重みw1~w3を、他のコンテンツベクトルに付与する重みに比して大きくなるように、誤差逆伝搬によって更新する。
In Expression (2), w 1 to w k are weights given to the content vectors V cont (1) to V cont (k) input to the learner, respectively. These weights w 1 to w k become coupling coefficients (activation function parameters) of the neural network when the learner is a recurrent neural network. For example, as illustrated in FIG. 6, when the user with the user ID "USER_1" is set as the target user, the
この際、学習処理部122は、閲覧回数の時間変化が大きいコンテンツほど重みwを小さくするように学習する。例えば、図3において、コンテンツIDが「CONT_1」および「CONT_3」であるコンテンツは、コンテンツIDが「CONT_2」のコンテンツに比して、所定の周期Tiごとの閲覧回数の変化が大きいことから、バズコンテンツであることを表している。従って、学習処理部122は、本来であれば、ユーザIDが「USER_1」であるユーザが、「CONT_1」、「CONT_2」、「CONT_3」のコンテンツを閲覧したため、これらのコンテンツベクトルVcont(1)~Vcont(3)に付与する重みw1~w3が大きくなるように機械学習によって決定するところ、「CONT_1」と「CONT_3」のコンテンツがバズコンテンツであるため、「CONT_1」のコンテンツのコンテンツベクトルVcont(1)に付与する重みw1と、「CONT_3」のコンテンツのコンテンツベクトルVcont(3)に付与する重みw3との双方が、バズコンテンツでない「CONT_2」のコンテンツのコンテンツベクトルVcont(2)に付与する重みw2に比して小さくなるように機械学習によって決定される。これによって、対象ユーザベクトルを導出する際に、対象ユーザによって閲覧された複数のコンテンツのコンテンツベクトルのうち、閲覧回数の時間変化が小さいコンテンツのコンテンツベクトル(例えばVcont(2))ほど、対象ユーザベクトルに対する寄与度を高くし、閲覧回数の時間変化が大きいコンテンツのコンテンツベクトル(例えばVcont(1)やVcont(2))ほど、対象ユーザベクトルに対する寄与度を低くすることができる。この結果、バズコンテンツに対するユーザベクトルの類似度が小さくなるため、レコメンドコンテンツからバズコンテンツを除外することができる。
At this time, the
次に、学習処理部122は、学習器のパラメータを更新した後、記憶部130に記憶された学習器情報142を更新し(S204)、本フローチャートの処理を終了する。
Next, after updating the learning device parameters, the
図11および図12は、学習器のパラメータを決定する際の処理の内容を模式的に示す図である。例えば、図11の例では、ある周期T1の時点で、「選挙」に関連したコンテンツAと、「野球」に関連したコンテンツBとが配信されており、対象ユーザkがこの2つのコンテンツAおよびBを閲覧したとする。また、この周期T1の時点では、コンテンツAの閲覧回数の時間変化は0.01であり、コンテンツBの閲覧回数の時間変化は0.9であるものとする。このような場合、学習処理部122は、対象ユーザkが閲覧したコンテンツのうち、閲覧回数の時間変化が大きいコンテンツBのコンテンツベクトルVcont(B)の重みを大きくし、閲覧回数の時間変化が小さいコンテンツAのコンテンツベクトルVcont(A)の重みを小さくするように学習器のパラメータを決定する。
11 and 12 are diagrams schematically showing the contents of the processing when determining the parameters of the learning device. For example, in the example of FIG. 11, a content A related to "election" and a content B related to "baseball" are distributed at a certain period T1. and B are viewed. It is also assumed that at the time of this period T1, the time change in the number of times content A is viewed is 0.01, and the time change in the number of times content B is viewed is 0.9. In such a case, the
図12の例では、周期T1の時点から更に時間が進んだ周期T2の時点でのコンテンツの配信の様子を表している。周期T2の時点では、引き続き「選挙」に関連したコンテンツAと「野球」に関連したコンテンツBとが配信されており、更に、「災害」に関連したコンテンツCが新たに配信されている。対象ユーザkは、これらのコンテンツのうち、コンテンツBおよびCを閲覧したとする。また、この周期T2の時点では、コンテンツAの閲覧回数の時間変化は0.01であり、コンテンツBの閲覧回数の時間変化は0.9であり、コンテンツCの閲覧回数の時間変化は0.0.3であるものとする。このような場合、学習処理部122は、対象ユーザkが閲覧したコンテンツのうち、閲覧回数の時間変化が大きいコンテンツBのコンテンツベクトルVcont(B)の重みを大きくし、閲覧回数の時間変化が小さいコンテンツCのコンテンツベクトルVcont(C)の重みを小さくするように学習器のパラメータを決定する。これによって、「選挙」や「災害」といったコンテンツのように、一時的に閲覧回数が多くなっているバズコンテンツを対象ユーザkが閲覧した場合、複数のコンテンツベクトルによって分散表現される対象ユーザベクトルにおいて、バズコンテンツの寄与度が他のコンテンツに比して低下する。一方で、「野球」のような閲覧回数が時間に依らず略一定のコンテンツを対象ユーザkが閲覧した場合、対象ユーザベクトルにおいて、「野球」のようなコンテンツの寄与度が相対的に上昇する。このように、その時期に選挙などの一過性のイベントが開催されるなどして一時的に閲覧回数が多くなったバズコンテンツをユーザが閲覧した場合であっても、その閲覧されたバズコンテンツの寄与度を低下させた上でユーザベクトルを生成することができる。この結果、単に閲覧回数が多いコンテンツのコンテンツベクトルの寄与度を大きくする場合に比べて、ユーザにとって関心興味の高いと想定されるコンテンツをより精度良く推薦することができる。
The example of FIG. 12 shows how the contents are delivered at the time of the cycle T2, which is further advanced from the time of the cycle T1. At the time of cycle T2, content A related to "election" and content B related to "baseball" continue to be delivered, and content C related to "disaster" is newly delivered. It is assumed that target user k viewed contents B and C among these contents. Also, at the time of this period T2, the change over time in the number of views of content A is 0.01, the change over time in the number of views of content B is 0.9, and the change over time in the number of views of content C is 0. .0.3. In such a case, the
なお、上述した例では、学習処理部122は、ユーザベクトルを生成する際に、コンテンツの閲覧回数の時間変化に応じて各コンテンツベクトルの重みを決定するものとして説明したがこれに限られない。例えば、学習処理部122は、ウェブページやアプリケーションなどの媒体にコンテンツが掲載される際に、媒体に対するコンテンツの掲載位置に応じてコンテンツベクトルの重みを決定してもよい。例えば、媒体がウェブページである場合、学習処理部122は、ユーザによって閲覧されたコンテンツの掲載位置がウェブページの上方であるほど重みwを小さくし、コンテンツの掲載位置がウェブページの下方であるほど重みwを大きくしてよい。これによって、例えば、掲載位置が上方のコンテンツほど閲覧されやすく、掲載位置が下方のコンテンツほど閲覧されにくいことを考慮して適切にユーザベクトルを生成することができる。
In the above example, the
以上説明した実施形態によれば、ユーザによって閲覧されたコンテンツの特徴がベクトル化されたコンテンツベクトルに基づいて、ユーザの特徴をベクトル化したユーザベクトルを生成するユーザベクトル生成部114と、ユーザベクトル生成部114により生成されたユーザベクトルと、配信対象の複数のコンテンツの其々のコンテンツベクトルとに基づいて、配信対象の複数のコンテンツの中からユーザに推薦するレコメンドコンテンツを決定するレコメンドコンテンツ決定部116と、を備え、ユーザベクトル生成部114が、ユーザベクトルを生成する際に、ユーザによって閲覧された一以上のコンテンツのコンテンツベクトルのうち、時間経過に応じた閲覧回数の変化が小さいコンテンツの特徴ほど大きくユーザベクトルに反映させることによって、ユーザにとって関心興味の高いと想定されるコンテンツを精度良く推薦することができる。
According to the embodiments described above, the user
一般的に、自身が興味関心を寄せるコンテンツの他に、世間で良く閲覧されているコンテンツを閲覧したり、広告として掲載されたコンテンツなどを閲覧したりする傾向を有するユーザが存在している。このようなユーザの場合に、単に閲覧回数が多いコンテンツのコンテンツベクトルの寄与度を大きくしてユーザベクトルを生成した場合、そのコンテンツに類似するコンテンツがユーザに推薦されることになる。しかしながら、世間で良く閲覧されているコンテンツや、広告として掲載されたコンテンツなどは、必ずしもユーザが興味関心のあるコンテンツとは限られず、ユーザにとって関心興味の低いコンテンツが推薦されてしまう場合がある。 In general, there are users who have a tendency to view content that is often viewed in the world or content published as advertisements, in addition to content that they themselves are interested in. In the case of such a user, if the user vector is generated by simply increasing the contribution of the content vector of content that has been viewed many times, content similar to that content will be recommended to the user. However, content that is often viewed by the public and content published as advertisements are not necessarily content that interests the user, and content that has little interest for the user may be recommended.
これに対して、本実施形態では、単に閲覧回数の多い少ないに依らずに、その閲覧回数の時間経過に応じた変化の大きさに応じて、コンテンツベクトルの寄与度を調整するため、閲覧回数が多いコンテンツほどユーザが興味関心を寄せていると一律に判断せずに、閲覧回数が少ないコンテンツであっても閲覧回数の時間経過に応じた変化が小さければ、そのコンテンツはユーザが本質的に興味関心を寄せているコンテンツであると判断することができる。これによって、適切なユーザベクトルを生成することができる。この結果、例えば、ゴシップ記事のような、瞬間的に不特定多数のユーザによって閲覧されたコンテンツをユーザが偶発的に閲覧してしまった場合であっても、そのユーザに対して、ゴシップ記事のようなコンテンツを推薦し難くすることができ、ユーザが本当に関心興味を寄せていると想定されるコンテンツを推薦することができる。 On the other hand, in the present embodiment, the degree of contribution of the content vector is adjusted according to the degree of change in the number of times of viewing over time, regardless of whether the number of times of viewing is large or small. Instead of uniformly judging that users are more interested in content that has a higher number of digits, if the change in the number of views over time is small even for content with a low number of views, that content is essentially It can be determined that the content is of interest. This allows a suitable user vector to be generated. As a result, for example, even if a user accidentally browses a content such as a gossip article that has been browsed by an unspecified number of users in an instant, the user cannot read the gossip article. It is possible to make it difficult to recommend such content, and it is possible to recommend content that is assumed to be of real interest to the user.
<ハードウェア構成>
上述した実施形態の情報提供装置100は、例えば、図13に示すようなハードウェア構成により実現される。図13は、実施形態の情報提供装置100のハードウェア構成の一例を示す図である。
<Hardware configuration>
The
情報提供装置100は、NIC100-1、CPU100-2、RAM100-3、ROM100-4、フラッシュメモリやHDDなどの二次記憶装置100-5、およびドライブ装置100-6が、内部バスあるいは専用通信線によって相互に接続された構成となっている。ドライブ装置100-6には、光ディスクなどの可搬型記憶媒体が装着される。二次記憶装置100-5、またはドライブ装置100-6に装着された可搬型記憶媒体に格納されたプログラムがDMAコントローラ(不図示)などによってRAM100-3に展開され、CPU100-2によって実行されることで、制御部110が実現される。制御部110が参照するプログラムは、ネットワークNWを介して他の装置からダウンロードされてもよい。
The
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何ら限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 As described above, the mode for carrying out the present invention has been described using the embodiments, but the present invention is not limited to such embodiments at all, and various modifications and replacements can be made without departing from the scope of the present invention. can be added.
1…情報提供システム、10…端末装置、100…情報提供装置、102…通信部、110…制御部、112…コンテンツベクトル生成部、114…ユーザベクトル生成部、116…レコメンドコンテンツ決定部、118…コンテンツ配信部、120…情報更新部、122…学習処理部、130…記憶部
DESCRIPTION OF
Claims (6)
前記導出部により導出されたユーザの特徴と、配信対象の複数のコンテンツの其々の特徴とに基づいて、前記配信対象の複数のコンテンツの中から前記ユーザに推薦するコンテンツを決定する決定部と、を備え、
前記導出部は、
前記ユーザによって閲覧された各コンテンツの時間経過に応じた閲覧回数の変化に基づいて、前記ユーザの特徴を導出し、
入力された一以上のコンテンツの特徴に重みを付与し、前記重みを付与した一以上のコンテンツの特徴に基づいて、前記コンテンツを閲覧したユーザの特徴を出力するように構成された学習器に、前記コンテンツの特徴を入力することで、前記ユーザの特徴を導出する、
情報提供装置。 a derivation unit that derives the features of the user based on the features of the content viewed by the user;
a determination unit that determines content to be recommended to the user from among the plurality of contents to be distributed, based on the characteristics of the user derived by the derivation unit and the characteristics of each of the plurality of contents to be distributed; , and
The derivation unit is
Deriving characteristics of the user based on changes in the number of views of each piece of content viewed by the user over time,
Weighting one or more input features of content, and based on the weighted one or more content features, a learner configured to output features of a user who viewed the content, Deriving characteristics of the user by inputting characteristics of the content;
Information provider.
前記導出部により導出されたユーザの特徴と、前記配信対象の複数のコンテンツの其々の特徴との類似度を導出し、
前記配信対象の複数のコンテンツの其々の特徴ごとに導出した類似度と、前記配信対象の複数のコンテンツの其々の閲覧回数に基づく指標値とに基づいて、前記配信対象の複数のコンテンツの中から前記ユーザに推薦するコンテンツを決定する、
請求項1に記載の情報提供装置。 The decision unit
deriving a degree of similarity between the characteristics of the user derived by the derivation unit and the characteristics of each of the plurality of contents to be distributed;
of the plurality of contents to be distributed based on similarity derived for each feature of the plurality of contents to be distributed and an index value based on the number of views of each of the plurality of contents to be distributed; determine which content to recommend to the user;
The information providing device according to claim 1 .
請求項2に記載の情報提供装置。 Further comprising a learning processing unit that determines the index value by machine learning according to a change in the number of views of the content over time,
3. The information providing device according to claim 2 .
請求項3に記載の情報提供装置。 The learning processing unit determines the index value to be smaller as the change in the number of times the content is viewed over time increases, and to increase as the change in the number of times the content is viewed over time decreases.
The information providing device according to claim 3 .
ユーザによって閲覧されたコンテンツの特徴に基づいて、前記ユーザの特徴を導出し、
前記導出したユーザの特徴と、配信対象の複数のコンテンツの其々の特徴とに基づいて、前記配信対象の複数のコンテンツの中から前記ユーザに推薦するコンテンツを決定し、
前記ユーザによって閲覧された各コンテンツの時間経過に応じた閲覧回数の変化に基づいて、前記ユーザの特徴を導出し、
入力された一以上のコンテンツの特徴に重みを付与し、前記重みを付与した一以上のコンテンツの特徴に基づいて、前記コンテンツを閲覧したユーザの特徴を出力するように構成された学習器に、前記コンテンツの特徴を入力することで、前記ユーザの特徴を導出する、
情報提供方法。 the computer
deriving features of the user based on features of content viewed by the user;
determining content to be recommended to the user from among the plurality of contents to be distributed based on the derived characteristics of the user and the characteristics of each of the plurality of contents to be distributed;
Deriving characteristics of the user based on changes in the number of views of each piece of content viewed by the user over time,
Weighting one or more input features of content, and based on the weighted one or more content features, a learner configured to output features of a user who viewed the content, Deriving characteristics of the user by inputting characteristics of the content;
How to provide information.
ユーザによって閲覧されたコンテンツの特徴に基づいて、前記ユーザの特徴を導出する処理と、
前記導出したユーザの特徴と、配信対象の複数のコンテンツの其々の特徴とに基づいて、前記配信対象の複数のコンテンツの中から前記ユーザに推薦するコンテンツを決定する処理と、
前記ユーザによって閲覧された各コンテンツの時間経過に応じた閲覧回数の変化に基づいて、前記ユーザの特徴を導出する処理と、
入力された一以上のコンテンツの特徴に重みを付与し、前記重みを付与した一以上のコンテンツの特徴に基づいて、前記コンテンツを閲覧したユーザの特徴を出力するように構成された学習器に、前記コンテンツの特徴を入力することで、前記ユーザの特徴を導出する処理と、
を実行させるためのプログラム。 to the computer,
a process of deriving features of the user based on features of content viewed by the user;
a process of determining content to be recommended to the user from among the plurality of contents to be distributed based on the derived characteristics of the user and the characteristics of each of the plurality of contents to be distributed;
a process of deriving characteristics of the user based on changes in the number of views of each piece of content viewed by the user over time;
Weighting one or more input features of content, and based on the weighted one or more content features, a learner configured to output features of a user who viewed the content, a process of deriving the features of the user by inputting the features of the content;
program to run the
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021041744A JP7160980B2 (en) | 2017-12-21 | 2021-03-15 | INFORMATION PROVIDING DEVICE, INFORMATION PROVIDING METHOD AND PROGRAM |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017245343A JP6854748B2 (en) | 2017-12-21 | 2017-12-21 | Information providing equipment, information providing method, and program |
JP2021041744A JP7160980B2 (en) | 2017-12-21 | 2021-03-15 | INFORMATION PROVIDING DEVICE, INFORMATION PROVIDING METHOD AND PROGRAM |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017245343A Division JP6854748B2 (en) | 2017-12-21 | 2017-12-21 | Information providing equipment, information providing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021103542A JP2021103542A (en) | 2021-07-15 |
JP7160980B2 true JP7160980B2 (en) | 2022-10-25 |
Family
ID=67222580
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017245343A Active JP6854748B2 (en) | 2017-12-21 | 2017-12-21 | Information providing equipment, information providing method, and program |
JP2021041744A Active JP7160980B2 (en) | 2017-12-21 | 2021-03-15 | INFORMATION PROVIDING DEVICE, INFORMATION PROVIDING METHOD AND PROGRAM |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017245343A Active JP6854748B2 (en) | 2017-12-21 | 2017-12-21 | Information providing equipment, information providing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP6854748B2 (en) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6854748B2 (en) * | 2017-12-21 | 2021-04-07 | ヤフー株式会社 | Information providing equipment, information providing method, and program |
JP2021032309A (en) * | 2019-08-22 | 2021-03-01 | 有限会社アールストーン | Pipe support |
CN110659417A (en) * | 2019-09-12 | 2020-01-07 | 广东浪潮大数据研究有限公司 | Information pushing method and system, electronic equipment and storage medium |
JP7179033B2 (en) * | 2020-02-28 | 2022-11-28 | ヤフー株式会社 | CONTENT SELECTION DEVICE, CONTENT SELECTION METHOD, AND PROGRAM |
CN112000700B (en) * | 2020-07-14 | 2024-08-06 | 北京百度网讯科技有限公司 | Map information display method and device, electronic equipment and storage medium |
JP6925495B1 (en) * | 2020-10-07 | 2021-08-25 | 株式会社カカクコム | Information processing system, server, information processing method and information processing program |
KR102618991B1 (en) * | 2020-12-31 | 2023-12-28 | 원종규 | Experience recommendation system to complement characteristics |
KR102340976B1 (en) * | 2021-01-12 | 2021-12-17 | 서문윤 | Deep learning-based customized content provision system using web service user experience |
KR102544534B1 (en) * | 2022-10-14 | 2023-06-20 | 주식회사 데이터쿡 | Service providing device, method and program for configuring the user`s exercise program using the user`s health data |
JP7325598B1 (en) * | 2022-12-23 | 2023-08-14 | 株式会社博報堂Dyホールディングス | Recommendation server, recommendation method and program |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002245212A (en) | 2000-11-22 | 2002-08-30 | Matsushita Electric Ind Co Ltd | Group-forming system, group-forming device, group- forming method, program, and medium therefor |
JP2010224623A (en) | 2009-03-19 | 2010-10-07 | Nomura Research Institute Ltd | Method and program for recommending related article |
JP2011060182A (en) | 2009-09-14 | 2011-03-24 | Aim Co Ltd | Content selection system |
JP2014203442A (en) | 2013-04-10 | 2014-10-27 | 株式会社Nttドコモ | Recommendation information generation device and recommendation information generation method |
JP2016120135A (en) | 2014-12-25 | 2016-07-07 | 公立大学法人広島市立大学 | Contact detection device using electromagnetic induction |
JP2017123094A (en) | 2016-01-08 | 2017-07-13 | 日本放送協会 | Program information distribution device and program |
JP6854748B2 (en) | 2017-12-21 | 2021-04-07 | ヤフー株式会社 | Information providing equipment, information providing method, and program |
-
2017
- 2017-12-21 JP JP2017245343A patent/JP6854748B2/en active Active
-
2021
- 2021-03-15 JP JP2021041744A patent/JP7160980B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002245212A (en) | 2000-11-22 | 2002-08-30 | Matsushita Electric Ind Co Ltd | Group-forming system, group-forming device, group- forming method, program, and medium therefor |
JP2010224623A (en) | 2009-03-19 | 2010-10-07 | Nomura Research Institute Ltd | Method and program for recommending related article |
JP2011060182A (en) | 2009-09-14 | 2011-03-24 | Aim Co Ltd | Content selection system |
JP2014203442A (en) | 2013-04-10 | 2014-10-27 | 株式会社Nttドコモ | Recommendation information generation device and recommendation information generation method |
JP2016120135A (en) | 2014-12-25 | 2016-07-07 | 公立大学法人広島市立大学 | Contact detection device using electromagnetic induction |
JP2017123094A (en) | 2016-01-08 | 2017-07-13 | 日本放送協会 | Program information distribution device and program |
JP6854748B2 (en) | 2017-12-21 | 2021-04-07 | ヤフー株式会社 | Information providing equipment, information providing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP2021103542A (en) | 2021-07-15 |
JP2019113943A (en) | 2019-07-11 |
JP6854748B2 (en) | 2021-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7160980B2 (en) | INFORMATION PROVIDING DEVICE, INFORMATION PROVIDING METHOD AND PROGRAM | |
US11514333B2 (en) | Combining machine-learning and social data to generate personalized recommendations | |
US20210110306A1 (en) | Meta-transfer learning via contextual invariants for cross-domain recommendation | |
US10922609B2 (en) | Semi-supervised learning via deep label propagation | |
US10509837B2 (en) | Modeling actions for entity-centric search | |
US10354184B1 (en) | Joint modeling of user behavior | |
US10102482B2 (en) | Factorized models | |
CN108345702A (en) | Entity recommends method and apparatus | |
US20120016642A1 (en) | Contextual-bandit approach to personalized news article recommendation | |
JP6415619B2 (en) | Analysis device, analysis method, and program | |
CN115917535A (en) | Recommendation model training method, recommendation device and computer readable medium | |
CN108292309A (en) | Use deep learning Model Identification content item | |
US20170351961A1 (en) | Information appropriateness assessment tool | |
US11651255B2 (en) | Method and apparatus for object preference prediction, and computer readable medium | |
US20190362025A1 (en) | Personalized query formulation for improving searches | |
US10817845B2 (en) | Updating messaging data structures to include predicted attribute values associated with recipient entities | |
JP2018128942A (en) | Analyzing apparatus, analyzing method, and program | |
CN110781405A (en) | Document context perception recommendation method and system based on joint convolution matrix decomposition | |
CN118043802A (en) | Recommendation model training method and device | |
Sengupta et al. | Simple surveys: Response retrieval inspired by recommendation systems | |
JP6960838B2 (en) | Information providing equipment, information providing method, and program | |
JP7088795B2 (en) | Information processing equipment, information processing methods, and programs | |
Wang et al. | Prediction of purchase behaviors across heterogeneous social networks | |
JP7420851B2 (en) | Information processing device, information processing method, and program | |
López Hernández et al. | A Nondisturbing Service to Automatically Customize Notification Sending Using Implicit‐Feedback |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210315 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220425 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220517 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220816 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20220816 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20220823 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20220830 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220913 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221013 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7160980 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |