JP2012058972A - 評価予測装置、評価予測方法、及びプログラム - Google Patents

評価予測装置、評価予測方法、及びプログラム Download PDF

Info

Publication number
JP2012058972A
JP2012058972A JP2010200980A JP2010200980A JP2012058972A JP 2012058972 A JP2012058972 A JP 2012058972A JP 2010200980 A JP2010200980 A JP 2010200980A JP 2010200980 A JP2010200980 A JP 2010200980A JP 2012058972 A JP2012058972 A JP 2012058972A
Authority
JP
Japan
Prior art keywords
evaluation value
latent vector
posterior distribution
item
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010200980A
Other languages
English (en)
Inventor
Masashi Sekino
正志 関野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010200980A priority Critical patent/JP2012058972A/ja
Priority to EP11179306A priority patent/EP2428926A3/en
Priority to US13/222,638 priority patent/US20120059788A1/en
Priority to CN2011102657404A priority patent/CN102402569A/zh
Publication of JP2012058972A publication Critical patent/JP2012058972A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0282Rating or review of business operators or products
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/101Collaborative creation, e.g. joint development of products or services

Abstract

【課題】高速に評価値を予測可能な評価予測装置を提供すること。
【解決手段】第1アイテムが持つ潜在的な特徴を表す第1潜在ベクトル、第2アイテムが持つ潜在的な特徴を表す第2潜在ベクトル、及び、前記第1潜在ベクトルと前記第2潜在ベクトルとの内積で表現される評価値を要素に持つランク数Hの評価値行列のランクh(h=0〜H)の残差行列Rhをそれぞれ正規分布に従う確率変数とみなし、学習データとして与えられた既知の評価値を用いた変分ベイズ推定を実行することにより、前記第1潜在ベクトル及び前記第2潜在ベクトルの変分事後分布を算出する事後分布算出部と、前記事後分布算出部により算出された前記第1潜在ベクトル及び第2潜在ベクトルの変分事後分布を用いて未知の前記評価値を予測する評価値予測部と、を備える、評価予測装置が提供される。
【選択図】図10

Description

本発明は、評価予測装置、評価予測方法、及びプログラムに関する。
近年、広帯域化したネットワークを通じて膨大な量の情報がユーザに提供されるようになってきた。そのため、ユーザの側からすれば、提供される膨大な情報の中から、自身が求める情報を探すのが難しくなってしまった。一方、情報を提供する側からすれば、ユーザに提供したい情報が膨大な情報の中に埋もれてしまい、そうした情報がユーザに閲覧され難くなってしまった。こうした状況を改善するため、膨大な情報の中からユーザが好む情報を的確に抽出し、その情報をユーザに提供するための仕組み作りが進められている。
膨大な情報の中からユーザが好む情報を抽出する仕組みとしては、例えば、協調フィルタリング、内容ベースフィルタリングと呼ばれるフィルタリング手法が知られている。また、協調フィルタリングには、ユーザベース協調フィルタリング、アイテムベース協調フィルタリング、行列分解ベース協調フィルタリング(例えば、下記の非特許文献1を参照)などの種類がある。一方、内容ベースフィルタリングには、ユーザベース内容ベースフィルタリング、アイテムベース内容ベースフィルタリングなどの種類がある。
ユーザベース協調フィルタリングは、あるユーザAと似た嗜好を持つユーザBを検出し、あるアイテム群に対してユーザBが行った評価に基づいて、ユーザAが好むアイテムを抽出するといった手法である。例えば、ユーザBがアイテムXに対して好意的な評価を行っている場合、ユーザAもアイテムXを好むものと予想される。この予想に基づくと、ユーザAが好む情報としてアイテムXを抽出することができる。なお、行列分解ベース協調フィルタリングは、ユーザベース協調フィルタリングとアイテムベース協調フィルタリングの特徴を併せ持つ手法であり、詳細については下記の非特許文献1を参照されたい。
また、アイテムベース協調フィルタリングは、あるアイテムAと似た特徴を持つアイテムBを検出し、あるユーザ群がアイテムBに対して行った評価に基づいて、アイテムAを好むユーザを抽出するといった手法である。例えば、アイテムBに対してユーザXが好意的な評価を行っている場合、アイテムAもユーザXに好まれるものと予想される。この予想に基づくと、アイテムAを好むユーザとしてユーザXを抽出することができる。
また、ユーザベース内容フィルタリングとは、例えば、ユーザAが好むアイテム群が存在する場合に、そのアイテム群の特徴に基づいてユーザAの嗜好を解析し、ユーザAの嗜好に合う特徴を持った新たなアイテムを抽出するといった手法である。そして、アイテムベース内容フィルタリングとは、例えば、アイテムAを好むユーザ群が存在する場合に、そのユーザ群の嗜好に基づいてアイテムAの特徴を解析し、アイテムAの特徴を好む新たなユーザを抽出するといった手法である。
Ruslan Salakhutdinov and Andriy Mnih. Probabilistic matrix factorization. In Advances in Neural Information Processing Systems, volume 20, 2008.
上記のようなフィルタリング手法を利用すると、膨大な情報の中から、ユーザが好む情報を抽出することが可能になる。ユーザは、自身が好む情報だけに絞り込まれた情報群の中から所望の情報を抽出できるようになり、情報の検索性が大きく向上する。一方、情報を提供する側からすれば、ユーザが好む情報を的確に提供することができるようになり、効果的な情報提供が実現できるようになる。しかしながら、フィルタリングの精度が低いと、ユーザが好む情報の絞り込みが適切に行われず、検索性の向上や効果的な情報提供といった効果は得られない。そのため、精度の高いフィルタリング手法が求められている。
上記の協調フィルタリングを利用する場合、ユーザ数やアイテム数が少ない状況下において低い精度となることが知られている。一方、内容ベースフィルタリングを利用する場合、ユーザ数やアイテム数が多い状況下において協調フィルタリングよりも低い精度となることが知られている。また、内容ベースフィルタリングの場合、ユーザ群やアイテム群を特徴付ける特徴の種類を巧く選択しないと低い精度となることが知られている。
こうした状況に鑑み、本件発明者は、変分ベイズ推定を用いた確率的行列分解に基づくフィルタリング手法を考案した。なお、確率的行列分解に基づくフィルタリング手法については、例えば、(文献1)Y.J.Lim and Y.W.Teh., “Variational Bayesian approach to movie rating prediction”, In Proceedings of KDD Cup and Workshop, 2007.、(文献2)Ruslan Salakhutdinov and Andriy Mnih.,“Probablistic matrix factorization”, In Advances in Neural Information Processing Systems, volume 20, 2008.、(文献3)Ruslan Salakhutdinov and Andriy Mnih.,“Bayesian probablistic matrix factorization using Markov chain Monte Carlo.”, In Proceedings of the International Conference on Machine Learning, volume 25, 2008.などに記載がある。
しかし、変分ベイズ推定は反復解法であり、初期値を適切に選ばないと解の収束に時間がかかったり、質の悪い収束解が得られたりしてしまう。また、上記の確率的行列分解に基づくフィルタリング手法は、アイテムの数が多くなると、その計算に膨大なメモリ量が必要になったり、計算負荷が非常に大きくなったりしてしまう。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、計算に要するメモリ量を抑制しつつ、より高速に確率的行列分解に基づくフィルタリングを実現することが可能な、新規かつ改良された評価予測装置、評価予測方法、及びプログラムを提供することにある。
上記課題を解決するために、本発明のある観点によれば、第1アイテムが持つ潜在的な特徴を表す第1潜在ベクトル、第2アイテムが持つ潜在的な特徴を表す第2潜在ベクトル、及び、前記第1潜在ベクトルと前記第2潜在ベクトルとの内積で表現される評価値を要素に持つランク数Hの評価値行列のランクh(h=0〜H)の残差行列Rhをそれぞれ正規分布に従う確率変数とみなし、学習データとして与えられた既知の評価値を用いた変分ベイズ推定を実行することにより、前記第1潜在ベクトル及び前記第2潜在ベクトルの変分事後分布を算出する事後分布算出部と、前記事後分布算出部により算出された前記第1潜在ベクトル及び第2潜在ベクトルの変分事後分布を用いて未知の前記評価値を予測する評価値予測部と、を備える、評価予測装置が提供される。
また、前記事後分布算出部は、前記残差行列Rhを確率変数とみなして変分ベイズ推定を実行することにより得られた前記第1潜在ベクトル及び前記第2潜在ベクトルの変分事後分布を初期値とし、前記評価値行列を正規分布に従う確率変数とみなして変分ベイズ推定を実行することにより、前記第1潜在ベクトル及び前記第2潜在ベクトルの変分事後分布を算出する、ように構成されていてもよい。
また、前記事後分布算出部は、前記第1アイテムが持つ特徴を表す第1特徴ベクトルと、前記第2アイテムが持つ特徴を表す第2特徴ベクトルと、前記第1特徴ベクトルを前記第1潜在ベクトルの空間に射影する第1射影行列と、前記第2特徴ベクトルを前記第2潜在ベクトルの空間に射影する第2射影行列と、を定義し、前記第1射影行列による前記第1特徴ベクトルの射影値を期待値とする正規分布により前記第1潜在ベクトルの分布を表現し、前記第2射影行列による前記第2特徴ベクトルの射影値を期待値とする正規分布により前記第2潜在ベクトルの分布を表現し、前記第1潜在ベクトル及び前記第2潜在ベクトルの変分事後分布と共に、前記第1射影行列及び前記第2射影行列の変分事後分布を算出する、ように構成されていてもよい。
また、前記評価値予測部は、前記第1潜在ベクトル及び第2潜在ベクトルの変分事後分布を用いて算出される前記第1潜在ベクトルの期待値及び前記第2潜在ベクトルの期待値の内積を前記未知の評価値の予測値とする、ように構成されていてもよい。
また、上記の評価予測装置は、前記評価値予測部により予測された未知の評価値が所定の閾値を上回る場合、当該未知の評価値に対応する第2アイテムを当該未知の評価値に対応する第1アイテムの推薦先に決定する推薦先決定部をさらに備えていてもよい。
また、前記第2アイテムはユーザを表してもよい。この場合、上記の評価予測装置は、前記推薦先決定部により第1アイテムの推薦先が決定された場合、当該第1アイテムの推薦先に対応するユーザに対して当該第1アイテムを推薦する推薦部をさらに備える。
また、上記課題を解決するために、本発明の別の観点によれば、第1アイテムが持つ潜在的な特徴を表す第1潜在ベクトル、第2アイテムが持つ潜在的な特徴を表す第2潜在ベクトル、及び、前記第1潜在ベクトルと前記第2潜在ベクトルとの内積で表現される評価値を要素に持つランク数Hの評価値行列のランクh(h=0〜H)の残差行列Rhをそれぞれ正規分布に従う確率変数とみなし、学習データとして与えられた既知の評価値を用いた変分ベイズ推定を実行することにより、前記第1潜在ベクトル及び前記第2潜在ベクトルの変分事後分布を算出する事後分布算出ステップと、前記事後分布算出ステップで算出された前記第1潜在ベクトル及び第2潜在ベクトルの変分事後分布を用いて未知の前記評価値を予測する評価値予測ステップと、を含む、評価予測方法が提供される。
また、上記課題を解決するために、本発明の別の観点によれば、第1アイテムが持つ潜在的な特徴を表す第1潜在ベクトル、第2アイテムが持つ潜在的な特徴を表す第2潜在ベクトル、及び、前記第1潜在ベクトルと前記第2潜在ベクトルとの内積で表現される評価値を要素に持つランク数Hの評価値行列のランクh(h=0〜H)の残差行列Rhをそれぞれ正規分布に従う確率変数とみなし、学習データとして与えられた既知の評価値を用いた変分ベイズ推定を実行することにより、前記第1潜在ベクトル及び前記第2潜在ベクトルの変分事後分布を算出する事後分布算出機能と、前記事後分布算出機能により算出された前記第1潜在ベクトル及び第2潜在ベクトルの変分事後分布を用いて未知の前記評価値を予測する評価値予測機能と、をコンピュータに実現させるためのプログラムが提供される。また、上記課題を解決するために、本発明の別の観点によれば、上記のプログラムが記録された、コンピュータにより読み取り可能な記録媒体が提供される。
以上説明したように本発明によれば、計算に要するメモリ量を抑制しつつ、より高速に確率的行列分解に基づくフィルタリングを実現することが可能になる。
行列分解ベース協調フィルタリングに基づくアイテムの推薦が可能な推薦システムの構成について説明するための説明図である。 評価値データベースの構成について説明するための説明図である。 潜在特徴ベクトルの構成について説明するための説明図である。 潜在特徴ベクトルの構成について説明するための説明図である。 行列分解ベース協調フィルタリングに基づくアイテムの推薦に係る処理の流れについて説明するための説明図である。 確率的行列分解ベース協調フィルタリングに基づく評価値の予測及びアイテムの推薦が可能な評価予測装置の機能構成について説明するための説明図である。 特徴ベクトルの構成について説明するための説明図である。 特徴ベクトルの構成について説明するための説明図である。 確率的行列分解ベース協調フィルタリングに基づく評価値の予測及びアイテムの推薦に係る処理の流れについて説明するための説明図である。 本発明の一実施形態に係る評価予測装置の機能構成について説明するための説明図である。 同実施形態に係る評価予測装置の構成を適用することにより得られる効果について説明するための実験結果を示す説明図である。 同実施形態に係る評価予測装置の構成を適用することにより得られる効果について説明するための実験結果を示す説明図である。 同実施形態に係る評価予測装置の機能を実現することが可能な情報処理装置のハードウェア構成について説明するための説明図である。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
[説明の流れについて]
ここで、以下に記載する本発明の実施形態に関する説明の流れについて簡単に述べる。まず、図1〜図5を参照しながら、行列分解ベース協調フィルタリングに基づくアイテムの推薦を実現可能な推薦システムのシステム構成及びその動作について説明する。次いで、図6〜図9を参照しながら、確率的行列分解ベース協調フィルタリングに基づく評価値の予測及びアイテムの推薦を実現可能な評価予測装置(推薦システム)の機能構成及びその動作について説明する。次いで、図10を参照しながら、本実施形態に係る評価予測装置の機能構成について説明する。次いで、図11、図12を参照しながら、本実施形態に係る評価予測装置の構成を適用した場合に得られる効果について、具体的な実験結果を参照しながら説明する。次いで、図13を参照しながら、本発明の一実施形態に係る評価予測装置の機能を実現可能な情報処理装置のハードウェア構成について説明する。
(説明項目)
1:はじめに
1−1:行列分解ベース協調フィルタリングについて
1−1−1:推薦システム10の構成
1−1−2:推薦システム10の動作
1−2:確率的行列分解ベース協調フィルタリングについて
1−2−1:着眼点について
1−2−2:評価予測装置100の構成
1−2−3:評価予測装置100の動作
2:実施形態
2−1:評価予測装置100の構成
2−2:実験結果
3:ハードウェア構成例
<1:はじめに>
はじめに、行列分解ベース協調フィルタリング及び確率的行列分解ベース協調フィルタリングについて簡単に説明する。そして、これらのフィルタリング手法が抱える問題点について纏める。なお、後述する本実施形態のフィルタリング手法(以下、本手法と呼ぶ場合がある。)は、これら一般的なフィルタリング手法が抱える問題点を解決するものである。
[1−1:行列分解ベース協調フィルタリングについて]
まず、行列分解ベース協調フィルタリングについて説明する。行列分解ベース協調フィルタリングは、ユーザとアイテムの組み合わせに対する既知の評価値がうまく説明されるように、ユーザの嗜好に対応するベクトルとアイテムの特徴に対応するベクトルを推定し、その推定結果に基づいて未知の評価値を予測する手法である。
(1−1−1:推薦システム10の構成)
まず、図1を参照しながら、行列分解ベース協調フィルタリングを実現することが可能な推薦システム10の機能構成について述べる。図1は、行列分解ベース協調フィルタリングを実現することが可能な推薦システム10の機能構成を示す説明図である。
図1に示すように、推薦システム10は、主に、評価値データベース11と、行列分解部12と、評価値予測部13と、推薦部14とにより構成される。
(評価値データベース11)
評価値データベース11は、図2に示すように、ユーザiとアイテムjの組み合わせに対する評価値が格納されたデータベースである。以下では、説明の都合上、各ユーザを識別するためのIDをi=1,…,M、アイテムを識別するためのIDをj=1,…,Nと表記する。なお、評価値が付されていないユーザとアイテムの組み合わせも存在する。行列分解ベース協調フィルタリングは、ユーザの潜在的な特徴とアイテムの潜在的な特徴を考慮して、評価値が付されていないユーザとアイテムの組み合わせに対する評価値を予測する手法である。
(行列分解部12)
ユーザi、アイテムjに対応する評価値をyijと表記すると、評価値データベース11に格納された評価値の集合は、yijを要素とする評価値行列{yij}(i=1,…,M、j=1,…,N)とみなすことができる。行列分解部12は、ユーザiの潜在的な特徴を表す潜在特徴ベクトルu(図4を参照)、アイテムj(j=1,…,N)の潜在的な特徴を表す潜在特徴ベクトルv(図3を参照)を導入し、既知の評価値yij全体がうまく説明されるように、評価値行列{yij}を分解して潜在特徴ベクトルu,vで表現する。なお、既知の評価値yijとは、評価値データベース11に評価値が格納された評価値yijのことである。
なお、潜在特徴ベクトルuの各要素は、ユーザの潜在的な特徴を表すものである。同様に、潜在特徴ベクトルvの各要素は、アイテムの潜在的な特徴を表すものである。但し、ここで「潜在的な」という表現を用いていることからも理解されるように、潜在特徴ベクトルu,vの各要素は、ユーザやアイテムの具体的な特徴を表すものではなく、後述するモデル計算の中で得られる単なるパラメータである。但し、潜在特徴ベクトルuを構成するパラメータ群は、ユーザの好みを反映したものとなる。また、潜在特徴ベクトルvを構成するパラメータ群は、アイテムの特徴を反映したものとなる。
ここで、行列分解部12による具体的な処理について説明する。まず、行列分解部12は、下記の式(1)に示すように、評価値yijを潜在特徴ベクトルu,vの内積で表現する。但し、上付きのTは転置を表す。また、潜在特徴ベクトルu,vの次元数はHとする。既知の評価値yij全体がうまく説明されるように潜在特徴ベクトルu,vを求めるには、例えば、下記の式(2)で定義される二乗誤差Jが最小となる潜在特徴ベクトルu,vを算出すればよいと考えられる。しかし、実際には、二乗誤差Jを最小とする潜在特徴ベクトルu,vを用いて未知の評価値yijを予測しても、十分な予測精度が得られないことが知られている。
そこで、行列分解部12は、下記の式(3)で定義される正規化項Rを用いて潜在特徴ベクトルu,vを算出する。具体的には、行列分解部12は、二乗誤差Jと正規化項Rの線形結合で表現される目的関数Q(下記の式(4)を参照)が最小化されるような潜在特徴ベクトルu,vを算出する。なお、βは、正規化項Rの重みを表現するためのパラメータである。下記の式(3)から明らかなように、正規化項Rは、目的関数Qが最小となる潜在特徴ベクトルu,vを算出する際に、潜在特徴ベクトルu,vが0に近づくように作用する。
なお、目的関数Qが最小となる潜在特徴ベクトルu,vを算出する際に、潜在特徴ベクトルu,vがベクトルμ,μに近づくように作用させるには、正規化項Rを下記の式(5)のように変形すればよい。但し、上記のベクトルμは潜在特徴ベクトルuの平均、上記のベクトルμは潜在特徴ベクトルvの平均である。
行列分解部12は、上記の式(4)に示した目的関数Qが最小となる潜在特徴ベクトルu,vを算出するものとする。このようにして行列分解部12により算出された潜在特徴ベクトルu,vは、評価値予測部13に入力される。
(評価値予測部13)
行列分解部12から潜在特徴ベクトルu,v(i=1,…,M、j=1,…,N)が入力されると、評価値予測部13は、上記の式(1)に基づき、入力された潜在特徴ベクトルu,vを用いて未知の評価値を算出する。例えば、評価値ymnが未知の場合、評価値予測部13は、潜在特徴ベクトルu,vを用いて評価値ymn=u を算出する。このようにして評価値予測部13により算出された未知の評価値は、推薦部14に入力される。
(推薦部14)
評価値予測部13から未知の評価値ymnが入力されると、推薦部14は、入力された未知の評価値ymnに基づいて、ユーザmにアイテムnを推薦するか否かを判断する。例えば、未知の評価値ymnが所定の閾値を上回る場合、推薦部14は、ユーザmにアイテムnを推薦する。一方、未知の評価値ymnが所定の閾値を下回る場合、推薦部14は、ユーザmにアイテムnを推薦しない。なお、推薦部14は、閾値を基準に推薦するアイテムを決定するのではなく、例えば、ランキング上位となる一定数のアイテムを推薦するように構成されていてもよい。
以上、行列分解ベース協調フィルタリングを実現可能な推薦システム10の機能構成について説明した。上記の行列分解ベース協調フィルタリングでは既知の評価値しか利用されないため、ユーザ数やアイテム数が少なかったり、評価値のログが少なかったりする状況下では十分な予測精度が得られないという問題がある。
(1−1−2:推薦システム10の動作)
次に、図5を参照しながら、推薦システム10の動作について述べ、行列分解ベース協調フィルタリングに係る処理の流れについて説明する。図5は、行列分解ベース協調フィルタリングに係る処理の流れについて説明するための説明図である。
まず、推薦システム10は、行列分解部12の機能により、評価値データベース11から評価値yijの集合{yij}を取得する(Step.1)。次いで、推薦システム10は、行列分解部12の機能により、Step.1で取得した既知の評価値集合{yij}を用いて、上記の式(3)で定義される目的関数Qを最小化する潜在特徴ベクトル{u}{v}を算出する(Step.2)。行列分解部12により算出された潜在特徴ベクトル{u}{v}は、評価値予測部13に入力される。
次いで、推薦システム10は、評価値予測部13の機能により、Step.2で算出された潜在特徴ベクトル{u}{v}を用いて、未知の評価値{ymn}を算出(予測)する(Step.3)。評価値予測部13により算出された未知の評価値{ymn}は、推薦部14に入力される。次いで、推薦システム10は、推薦部14の機能により、Step.3で算出された評価値{ymn}が所定の閾値を上回る場合に、ユーザmにアイテムnを推薦する(Step.4)。もちろん、Step.3で算出された評価値{ymn}が所定の閾値を下回る場合、ユーザmに対するアイテムnの推薦は行われない。
以上説明したように、行列分解ベース協調フィルタリングにおいては、既知の評価値{yij}を利用して潜在特徴ベクトル{u}{v}が算出され、その算出結果に基づいて未知の評価値{ymn}が予測される。そして、その予測結果に基づいてユーザmに対するアイテムnの推薦が行われる。
行列分解ベース協調フィルタリングは、一般的なユーザベース協調フィルタリングやアイテムベース協調フィルタリングに比べて評価値の予測精度が高い。しかし、行列分解ベース協調フィルタリングでは既知の評価値しか利用されないため、ユーザ数やアイテム数が少なかったり、評価値のログが少なったりする状況下では予測精度が低くなるという問題がある。こうした問題を解決するために、本件発明者は、次のようなフィルタリング手法を考案した。
[1−2:確率的行列分解ベース協調フィルタリングについて]
ここで説明するフィルタリング手法は、先に説明した行列分解ベース協調フィルタリングとは異なり、既知の評価値のみならずユーザやアイテムが有する既知の特徴を考慮した新たなフィルタリング手法(以下、確率的行列分解ベース協調フィルタリング)に関するものである。この確率的行列分解ベース協調フィルタリングを適用すると、ユーザ数やアイテム数が少なかったり、評価値のログが少ない状況下においても、十分に高い精度で評価値を予測することが可能になる。また、協調フィルタリングがベースとなっているため、ユーザ数やアイテム数が増加するにつれ、評価値の予測精度が向上するという利点も有する。以下、詳細に説明する。
(1−2−1:着眼点について)
先に説明した行列分解ベース協調フィルタリングにおいては、既知の評価値しか考慮されていなかった。一方、確率的行列分解ベース協調フィルタリングでは、既知の評価値に加えてユーザやアイテムが持つ既知の特徴を考慮し、これら既知の特徴を潜在特徴ベクトル{u}{v}に反映させる。例えば、先の行列分解ベース協調フィルタリングにおいて上記の式(5)で表現されていた正規化項Rを下記の式(6)に示す正規化項Rに変更する。但し、下記の式(6)に含まれるD,Dは、特徴ベクトルxui,xvjをそれぞれ潜在特徴ベクトルu,vの空間に射影するための回帰行列である。
上記の式(6)のように正規化項Rを変更した場合、上記の式(4)で表現される目的関数Qを最小化するように潜在特徴ベクトル{u}{v}を算出する際、潜在特徴ベクトルuはDuiに近づくように、vはDvjに近づくように制限される。そのため、既知の特徴が似たユーザの潜在特徴ベクトルu同士が近づくことになる。同様に、既知の特徴が似たアイテムの潜在特徴ベクトルv同士も近づくことになる。従って、既知の評価値が少ないユーザやアイテムであっても、既知の特徴に基づいて他のユーザやアイテムと似た潜在特徴ベクトルが得られるようになる。その結果、既知の評価値が少ない状況下にあるユーザやアイテムに対しても、高い精度で評価値を予測することが可能になる。以下、具体的な計算手法及び当該計算手法を実現可能な評価予測装置100の構成について説明する。
(1−2−2:評価予測装置100の構成)
図6を参照しながら、確率的行列分解ベース協調フィルタリングを実現することが可能な評価予測装置100の機能構成について説明する。図6は、評価予測装置100の機能構成について説明するための説明図である。なお、図6に例示した評価予測装置100の構成には、ユーザにアイテムを推薦する構成要素を含んでいるが、未知の評価値を予測する部分だけを切り出して評価予測装置100としてもよい。
図6に示すように、評価予測装置100は、評価値データベース101と、特徴量データベース102と、事後分布算出部103と、パラメータ保持部104とを有する。さらに、評価予測装置100は、評価値予測部105と、予測評価値データベース106と、推薦部107と、通信部108とを有する。また、評価予測装置100は、ネットワーク200を介してユーザ端末300に接続されている。
(評価値データベース101)
評価値データベース101は、ユーザiとアイテムjの組み合わせに対して付された評価値が格納されたデータベースである(図2を参照)。なお、先に説明した行列分解ベース協調フィルタリングの場合と同様、説明の都合上、各ユーザを識別するためのIDをi=1,…,M、アイテムを識別するためのIDをj=1,…,Nと表記する。また、各評価値をyijと表記し、その評価値の集合を{yij}と表記する。
(特徴量データベース102)
特徴量データベース102は、図7、図8に示すように、ユーザが持つ既知の特徴を表した特徴ベクトル{xui}の各要素、及びアイテムが持つ既知の特徴を表した特徴ベクトル{xvj}の各要素が格納されたデータベースである。ユーザが持つ既知の特徴としては、例えば、年齢、性別、出身地、職業などがある。一方、アイテムが持つ既知の特徴としては、例えば、ジャンル、著者、出演者、監督、出版年、曲調などがある。
(事後分布算出部103、パラメータ保持部104)
確率的行列分解ベース協調フィルタリングにおいては、上記の式(6)に示すように、回帰行列D,Dがパラメータとして追加された。そこで、パラメータ数の増加が推定の精度に与える影響を最小限に抑えるため、ここではベイズ推定の利用を考える。ベイズ推定は、確率モデルを用い、学習データが与えられた状況下で未知のパラメータを推定する手法である。ここでは、学習データとして、既知の評価値集合{yij}と特徴ベクトル{xui}{xvj}が与えられる。また、未知のパラメータとしては、未知の評価値集合{ymn}、回帰行列D,D、その他確率モデルに含まれるパラメータがある。
確率的行列分解ベース協調フィルタリングで用いる確率モデルは、下記の式(7)〜式(9)で表現される。但し、N(μ,Σ)は、平均がμ、共分散行列がΣの正規分布を表す。また、diag(…)は、…を対角成分に持つ対角行列を表す。なお、λ、β、βは、確率モデルの中で導入されたパラメータである。λはスカラー量であり、β=(βu1,…,βuH)、β=(βv1,…,βvH)である。下記の式(7)〜式(9)で表現される確率モデルは、上記の式(6)で表現した正規化項Rを用いて目的関数Qを最小化するように潜在特徴ベクトル{u}{v}を算出する演算と等価である。但し、上記の式(4)に現れるスカラー量のパラメータβがベクトル量のβ、βに変更されている点で、より柔軟なモデルへと変更されている。
事後分布算出部103は、上記の確率モデルに基づいてベイズ推定を行い、潜在特徴ベクトル{u}{v}、回帰行列D,D、確率モデルに含まれるパラメータλ,β,βの事後分布を算出する手段である。なお、以下の説明において、潜在特徴ベクトル{u}{v}、回帰行列D,D、確率モデルに含まれるパラメータλ,β,βをまとめてパラメータと呼ぶ場合がある。また、事後分布算出部103により設定又は算出されたパラメータは、パラメータ保持部104に格納される。
ベイズ推定は、確率モデルに基づき、学習データが与えられた状況下で各パラメータの事後分布を求める推定ステップと、求めた事後分布を周辺化してパラメータの分布やその期待値を求める予測ステップとで構成される。複雑な確率モデルを用いると、事後分布も非常に複雑になり、予測ステップで求めたいパラメータの分布や期待値を求めることが難しくなる。そこで、以下ではベイズ推定の近似解法である変分ベイズ推定を用いることにする。変分ベイズ推定の場合、事後分布が計算しやすい分布で近似されるため、事後分布の複雑化が回避され、パラメータの分布や期待値が求めやすくなる。
例えば、学習データをベクトル量X、パラメータの集合をΘ={θ,…,θ}と表現すると、変分ベイズ推定の場合、事後分布p(Θ|X)は、下記の式(10)のように近似される。このように近似した場合、パラメータθ(k=1,…,K)の変分事後分布q(θ)は、下記の式(11)及び式(12)となることが知られている。
但し、Ep(x)[f(x)]は、分布p(x)の下におけるf(x)の期待値を表す。また、const.は定数を表す。なお、各変分事後分布q(θ)(k=1,…,K)は、他の分布に依存している。そのため、最適な変分事後分布を算出するには、適当な初期化処理の下、各変分事後分布のパラメータを他の変分事後分布の下で更新する処理を繰り返し実行する必要がある。この処理に関する具体的なアルゴリズムについては後述する。
ここで、変分ベイズ推定に関するアルゴリズムを上記の式(7)〜式(9)で表現した確率モデルに当てはめる。まず、事後分布p(Θ|X)は、下記の式(13)のように表現される。但し、回帰行列D,DをD=(du1,…,duH、D=(dv1,…,dvHと表現した。なお、duh,dvh(h=1,…,H)はベクトル量である。
ところで、潜在特徴ベクトルu、vの間には対称性がある。そこで、以下ではuの分布だけについて考えることにする。また、表記を簡単にするため、βを単にβ=(β,…,β)と表記し、Dを単にDと表記し、duhをdと表記し、xuiをxと表記する。そして、特徴ベクトルx及び回帰ベクトルdとその事前分布のパラメータγはK次元であるものとする。ここで、パラメータd、βの事前分布を下記の式(14)、式(15)のように定義する。また、下記の式(14)に現れるパラメータγ=(γ,…,γ)の分布を下記の式(16)のように定義する。これらの分布は、事後分布も同じ分布となる共役事前分布である。なお、事前知識がない場合には、事前分布のパラメータを一様分布に設定しておけばよい。また、事前知識を反映させる場合には、事前分布のパラメータを調整すればよい。
上記の式(15)及び式(16)に現れるGam(…)はガンマ分布を表す。事後分布算出部103は、上記の式(13)〜式(16)に示した条件の下で、上記の式(11)の変分事後分布を算出する。まず、潜在特徴ベクトルuの変分事後分布q(u)は、下記の式(17)となる。但し、下記の式(17)に現れるパラメータμ’ui,Σ’uiは、下記の式(18)及び式(19)で表現される。また、回帰行列Dの要素dに関する変分事後分布q(d)は、下記の式(20)となる。但し、下記の式(20)に現れるパラメータμ’dh,Σ’dhは、下記の式(21)及び式(22)で表現される。
なお、上記の式(18)及び式(19)に現れるベクトルπ=(πi1,…,πiNは、評価値yijが既知の場合にπij=1、未知の場合にπij=0となるベクトルである。また、上記の式(18)に現れるベクトルyは、評価値yijを要素とするベクトルy=(yi1,…,yiNである。そして、上記の式(18)及び式(19)に現れるVは、潜在特徴ベクトルvを要素とする行列V=(v,…,vである。さらに、上記の式(21)及び式(22)に現れるXは、特徴ベクトルxを要素とする行列X=(x,…,xである。
また、確率モデルのパラメータβ、γに関する変分事後分布q(β)、q(γ)は、それぞれ下記の式(23)、式(26)となる。但し、下記の式(23)に現れるパラメータa’βh、b’βhは、それぞれ下記の式(24)、式(25)で表現される。そして、下記の式(26)に現れるパラメータa’γk、b’γkは、それぞれ下記の式(27)、式(28)で表現される。
上記の式(17)〜式(28)を用いて各パラメータの変分事後分布が表現されることから、下記のアルゴリズムに基づいて各変分事後分布のパラメータを他の変分事後分布の下で更新することにより、各パラメータの最適な変分事後分布が得られる。以下、潜在特徴ベクトルu(i=1,…,M)の更新アルゴリズムを示す。
潜在特徴ベクトルv(j=1,…,N)の更新アルゴリズムも同様に、以下のようになる。但し、潜在特徴ベクトルvの更新アルゴリズムにおいて、β=(β,…,β)はβを表し、DはDを表し、dはdvhを表し、xはxvjを表す。また、特徴量xj及び回帰ベクトルdとその事前分布のパラメータγはK次元とする。さらに、π=(π1j,…,πMjは、評価値yijが既知の場合にπij=1、未知の場合にπij=0をとるベクトルである。また、yは、評価値yijを要素とするベクトルy=(y1j,…,yMjである。そして、Uは、潜在特徴ベクトルuを要素とする行列U=(u,…,uである。さらに、Xは、特徴ベクトルxを要素とする行列X=(x,…,xである。

事後分布算出部103は、パラメータが収束するまで、上記の更新アルゴリズムをU、Vについて交互に反復実行する。この処理により、各パラメータの変分事後分布が得られる。なお、パラメータλ、γを事前に与えられたハイパーパラメータとしてもよい。この場合、潜在特徴ベクトルu(i=1,…,M)の更新アルゴリズムにおいて、パラメータβは、下記の式(29)に基づいて更新される。潜在特徴ベクトルv(j=1,…,N)の更新アルゴリズムにおいても同様にしてパラメータβが更新される。
ここで得られた変分事後分布は、事後分布算出部103から評価値予測部105に入力される。ここまでの処理が推定ステップである。この推定ステップを終えると、評価予測装置100は、処理を予測ステップに進める。
(評価値予測部105)
評価値予測部105は、予測ステップの処理として、事後分布算出部103から入力された各パラメータの変分事後分布に基づいて評価値yijの期待値を算出する。上記の通り、事後分布算出部103によって潜在特徴ベクトルの変分事後分布q(u),q(v)が求められている。そこで、評価値予測部105は、下記の式(30)に示すように、潜在特徴ベクトルu,vの内積(評価値yij)に対する期待値を算出する。このようにして評価値予測部105により算出された評価値の期待値は、予測評価値データベース106に格納される。
(推薦部107、通信部108)
推薦部107は、予測評価値データベース106に格納された未知の評価値に対する期待値(以下、予測評価値)を参照し、予測評価値が高い場合にはユーザにアイテムを推薦する。例えば、推薦部107は、予測評価値ymnが所定の閾値を上回る場合、ユーザmに対してアイテムnを推薦する。また、推薦部107は、予測評価値データベース106を参照して、あるユーザが評価を行っていないアイテムに対して予測評価値が高い順にアイテムをソートしてリストを生成し、そのリストを当該ユーザに提示してもよい。例えば、推薦部107は、通信部108を介して、生成したリストをユーザ端末300に送信する。そして、送信されたリストは、ネットワーク200を通じてユーザ端末300に伝達され、ユーザ端末300の表示手段(非図示)に表示される。
以上、評価予測装置100の機能構成について説明した。
(メモリ容量及び計算量の節約について)
ところで、ある程度大きな次元の潜在特徴ベクトルu,vを用いて上記のフィルタリング手法を実現するには、十分なメモリ容量が必要になる。例えば、上記の更新アルゴリズムに現れるΣ’ui(i=1,…,M)及びΣ’vj(j=1,…,N)をメモリに保持するには、それぞれO(MH)[bit]及びO(NH)[bit]のメモリ領域が必要になる。そのため、ユーザ数M、アイテム数N、潜在特徴ベクトルの次元数Hが大きいと、これらを保持するだけで膨大なメモリ容量が必要になる。
同様に、Σ’dh(h=1,…,H)を保持するためにもO(HK)[bit]のメモリ領域が必要になる。そのため、潜在ベクトルの次元数Hや特徴量の数Kが大きいと、これを保持するだけで膨大なメモリ容量が必要となる。また、潜在ベクトルの次元数Hや特徴量の数Kが大きいと、上記の更新アルゴリズムを実行する際に必要となるメモリ容量だけでなく、計算量も膨大になる。例えば、Σ’dhを求めるのにO(K)の計算量が必要になる。
上記の更新アルゴリズムを実行する際に要する計算量やメモリ容量を減らすには、例えば、平均ベクトルμ’ui,μ’vj,μ’dhを共役勾配法などによって更新するようにし、Σ’ui,Σ’vj,Σ’dhは対角成分のみを保持するようにすればよい。この方法を用いることにより、必要となるメモリ容量を大幅に削減することが可能になる。具体的には、下記の式(31)を共役勾配法などにより解くことでμ’dhを更新する。また、Σ’dhは、下記の式(32)として対角要素のみを持つようにする。なお、上記の式(29)に代えて、下記の式(33)を用いることによっても計算量及びメモリ容量を削減することが可能である。
(1−2−3:評価予測装置100の動作)
次に、図9を参照しながら、評価予測装置100の動作について述べ、確率的行列分解ベース協調フィルタリングに係る処理の流れについて説明する。図9は、確率的行列分解ベース協調フィルタリングに係る処理の流れについて説明するための説明図である。
まず、評価予測装置100は、事後分布算出部103の機能により、評価値データベース101から既知の評価値{yij}を取得し、特徴量データベース102から特徴ベクトル{xui}{xvj}を取得する(Step.1)。次いで、評価予測装置100は、事後分布算出部103の機能により、確率モデルに含まれるパラメータを初期化する(Step.2)。次いで、評価予測装置100は、事後分布算出部103の機能により、Step.1で取得した既知の評価値{yij}、特徴ベクトル{xui}{xvj}を変分ベイズ推定アルゴリズムに入力し、各パラメータの変分事後分布を算出する(Step.3)。
Step.3で算出された変分事後分布は、事後分布算出部103から評価値予測部105に入力される。次いで、評価予測装置100は、評価値予測部105の機能により、Step.3で算出された変分事後分布から、未知の評価値の期待値(予測評価値)を算出する(Step.4)。ここで算出された予測評価値は、予測評価値データベース106に格納される。次いで、評価予測装置100は、推薦部107の機能により、Step.4で算出された予測評価値が高いアイテムをユーザに推薦する(Step.5)。
以上説明したように、上記の確率的行列分解ベース協調フィルタリングは、行列分解ベース協調フィルタリングの要素を含みつつ、既知の特徴ベクトルを考慮した新たなフィルタリング手法である。そのため、ユーザ数やアイテム数が少なかったり、既知の評価値が少ない状況下においても、高い推定精度を実現することが可能になる。
(応用例)
これまで、ユーザとアイテムの組み合わせに対する評価値を対象に、未知の評価値を予測する方法について説明してきた。しかし、本手法は、あるアイテム群Aのアイテムと、あるアイテム群Bのアイテムとの組み合わせに対して付される任意のラベルを対象に、未知のラベルを予測する任意の方法に応用することが可能である。
(例1)上記の確率的行列分解ベース協調フィルタリングは、ユーザとアイテムの組み合わせに対して、ユーザのアイテムに対する評価値や購入確率を予測して推薦するシステムに応用することができる。この場合、ユーザの特徴量としては、例えば、年齢、性別、職業、出身地などが利用される。一方、アイテムの特徴量としては、例えば、ジャンル、著者、出演者、年代などが利用される。
(例2)また、上記の確率的行列分解ベース協調フィルタリングは、ユーザと疾患の組み合わせに対して、ユーザが疾患にかかる確率を予測するシステムに応用することができる。この場合、ユーザの特徴量としては、例えば、年齢、性別、生活習慣、遺伝子に基づく特徴量などが利用される。なお、遺伝子に基づく特徴量のみを利用すれば、遺伝子と疾患の対応付けを行うシステムに応用することができる。
(例3)また、上記の確率的行列分解ベース協調フィルタリングは、銘柄と市場の組み合わせに対して、銘柄の価格を予測するシステムに応用することができる。この場合、銘柄の特徴量としては、例えば、企業の財務諸表に基づく特徴量や、市場平均や同業他社の価格などの時刻に依存した特徴量などが利用される。
(例4)また、上記の確率的行列分解ベース協調フィルタリングは、ユーザとコンテンツの組み合わせに対して、ユーザのコンテンツに対する評価語を予測して、単語に合ったコンテンツを提示するシステムに応用することができる。この場合、コンテンツの特徴量としては、例えば、画像特徴量や12音解析により得られた特徴量などが利用される。
(例5)また、上記の確率的行列分解ベース協調フィルタリングは、ユーザとユーザの組み合わせに対して、ユーザ間のつながりやすさを予測するSNS支援システムに応用することができる。この場合、ユーザの特徴量としては、例えば、年齢、性別、日記、友人の特徴量などが利用される。
(例6)また、上記の確率的行列分解ベース協調フィルタリングは、画像と単語の組み合わせに対して、画像に単語が指す物体が存在するか否かを予測するシステムに応用することもできる。
このように、上記の確率的行列分解ベース協調フィルタリングは、多様なアイテム群A、Bの組み合わせに対して付されるラベルを予測するシステムに応用することが可能である。
以上、本件発明者により考案された新たな確率的行列分解ベース協調フィルタリングについて説明した。なお、ここでは本件発明者が考案した予測精度の高い確率的行列分解ベース協調フィルタリングについて説明したが、その他にも確率的行列分解を利用したフィルタリング手法(例えば、(文献1)〜(文献3)を参照)が知られている。(文献1)に記載のフィルタリング手法は、変分ベイズ推定に基づく手法である。また、(文献2)に記載のフィルタリング手法は、MAP推定(正則化最小二乗法)に基づく手法である。そして、(文献3)に記載のフィルタリング手法は、Gibbsサンプリングによるベイズ推定に基づく手法である。
変分ベイズ推定やGibbsサンプリングによるベイズ推定に基づく手法は、MAP推定に基づく手法よりも高精度であることが知られている。しかしながら、変分ベイズ推定やGibbsサンプリングによるベイズ推定に基づく手法は、MAP推定に基づく手法に比べて計算量が多く、数百万人〜数億人規模のWebサービスなどへの適用を想定した場合には現実的ではない。そのため、高速に高精度な結果を得ることが可能な手法が求められている。
そこで、本件発明者は、変分ベイズ推定に基づく高速な解法を考案した。なお、この解法により得られた計算結果を上記の変分ベイズ推定に基づく各手法における初期値として利用してもよい。この解法により得られた計算結果を初期値として利用することにより、変分ベイズ推定の中で反復実行される処理の収束を早めたり、その処理の中で質の悪い局所解に収束してしまうのを防ぐことが可能になる。以下、この高速な解法について詳細に説明する。
<2:実施形態>
本発明の一実施形態について説明する。本実施形態は、変分ベイズ推定に基づく確率的行列分解に関する演算を高速化すると共に、その演算を実行する際に要するメモリ量を削減する方法に関する。
[2−1:評価予測装置100の構成]
まず、図10を参照しながら、本実施形態に係る評価予測装置100の機能構成について説明する。但し、評価値を予測するための構成要素(主に、図6の事後分布算出部103、評価値予測部105)を除く評価予測装置100の構成は、図6に示した評価予測装置100と実質的に同じである。そのため、ここでは評価値を予測するための構成要素についてのみ詳細に説明する。図10は、評価予測装置100の構成要素のうち、評価値の予測に関する構成要素について説明するための説明図である。
図10に示すように、本実施形態に係る評価予測装置100は、評価値の予測に関する構成要素として、初期値算出部131と、事後分布算出部132と、評価値予測部133とを有する。初期値算出部131、事後分布算出部132は、図6の事後分布算出部103を置き換えるものであり、評価値予測部133は、図6の評価値予測部105を置き換えるものである。
(初期値算出部131)
まず、初期値算出部131の機能について説明する。初期値算出部131は、事後分布算出部132により実行される変分ベイズ推定の初期値を算出する手段である。
これまでと同様、アイテムi、jに対応する評価値をyijと表記する。また、評価値yijが既知の場合にπij=1、評価値yijが未知の場合にπij=0をとるパラメータπijを定義する。さらに、評価値yijを要素に持つランク数Hの評価値行列をY={yij}、評価値行列Yのランクhの残差行列をR(h)={rij (h)}と定義する。また、残差行列R(h)に対応する潜在特徴ベクトルu・h∈R、v・h∈Rを定義する。なお、残差行列R(h)の各要素は、下記の式(34)のように定義される。
初期値算出部131は、この残差行列R(h)を潜在特徴ベクトルu・h∈R、v・h∈Rにより確率的に行列分解する。まず、初期値算出部131は、残差行列R(h)の要素rij (h)及び潜在特徴ベクトルu・hをそれぞれ下記の式(35)及び式(36)のように正規分布に従う確率変数とみなす。さらに、初期値算出部131は、潜在特徴ベクトルu・hの期待値μを下記の式(37)のように正規分布に従う確率変数とみなす。なお、ここでは簡単のために、λ、ξは、事前に決められたハイパーパラメータであるとする。また、λ、ξは、全てのランクh=1,…,Hで共通とする。
上記の式(36)〜式(38)のようにモデル化すると、初期値算出部131は、下記の式(39)及び式(42)に基づいて潜在特徴ベクトルu・hの変分事後分布q(u・h)及び期待値μの変分事後分布q(μuh)を得ることができる。但し、下記の式(39)に含まれるパラメータμ’uih、σ’uihは、下記の式(40)及び式(41)で定義される。また、下記の式(42)に含まれるパラメータμ’μuh、σ’μuhは、下記の式(43)及び式(44)で定義される。
潜在特徴ベクトルv・hの変分事後分布q(v・h)及び期待値μvhの変分事後分布q(μvh)もそれぞれ上記の式(39)及び式(42)と同様に表現されるため(u→v、i→jとすればよい。)、初期値算出部131は、同様にして潜在特徴ベクトルv・hの変分事後分布q(v・h)及び期待値μvhの変分事後分布q(μvh)を得ることができる。上記の変分事後分布を得ると、初期値算出部131は、この変分事後分布を用いてパラメータγを下記の式(45)に基づいて更新する。
また、初期値算出部131は、適当な初期化の後、潜在特徴ベクトルや期待値などのパラメータの変分事後分布を他のパラメータの変分事後分布の下で更新する。この更新処理は、各パラメータが収束するまで反復実行される。各パラメータが収束すると、初期値算出部131は、最終的に得られた変分事後分布を事後分布算出部132に入力する。なお、初期値算出部131による変分事後分布の具体的な更新アルゴリズム(以下、ランクワイズ変分ベイズ推定アルゴリズム)は、以下のようになる。
(初期値の設定方法について)
ランクワイズ変分ベイズ推定で得られた変分事後分布を後述する通常の変分ベイズ推定の初期値に用いる方法について述べる。以下で述べる通常の変分ベイズ推定のμ’uihの初期値としてランクワイズ変分ベイズ推定で得られたμ’uihを用い、μ’vjhの初期値としてランクワイズ変分ベイズ推定で得られたμ’vjhを用いる。Σ’uiの初期値としてdiag(σ’ ui1,…,σ’ uiH)を用い、Σ’vjの初期値としてdiag(σ’ vj1,…,σ’ vjH)を用いる。これらの初期値をセットした後、μ’μu、Σ’μu、μ’μv、Σ’μvについては後述する通常の変分ベイズ推定の更新を一度行うことで、初期化が完了する。
(事後分布算出部132)
事後分布算出部132は、変分ベイズ推定によりパラメータの変分事後分布を算出する手段である。ここでは評価値yijを下記の式(46)のようにモデル化する場合について考える。なお、潜在特徴ベクトルを行列U=(u,…,u、V=(v,…,vと表現すると、評価値行列Y={yij}の期待値はUVにより与えられる。潜在特徴ベクトルu、vの事前分布をそれぞれ下記の式(47)及び式(48)とし、下記の式(49)のようにして評価値yijの有無を考慮すると、学習データ(既知の評価値など)に対する対数尤度は、下記の式(50)により表現される(正則化二乗誤差に対応)。但し、行列Π={πij}である。
なお、上記の式(47)、式(48)で表現される潜在特徴ベクトルu、vの事前分布に平均パラメータを導入したり、共分散行列としてγ−1Iの代わりに対角行列や密対象行列を用いたりしてもよい。例えば、潜在特徴ベクトルu、vの事前分布をそれぞれ下記の式(51)、式(53)のように表現してもよい。但し、下記の式(51)に含まれる期待値μは、下記の式(52)のように正規分布に従う確率変数で表現される。また、Ξはハイパーパラメータとする。
さて、行列Y、U、V、μの同時分布は、下記の式(55)のように表現することができる。さらに、事後分布を因子分解して変分近似すると、下記の式(56)が得られる。
また、Γ=diag(γ)と表現すると、潜在特徴ベクトルu及びその期待値μの変分事後分布は、それぞれ下記の式(57)、式(60)のように表現される。但し、下記の式(57)に含まれるパラメータμ’ui、Σ’uiは、それぞれ下記の式(58)、式(59)で定義される。また、下記の式(60)に含まれるパラメータμ’μu、Σ’μuは、それぞれ下記の式(61)、式(62)で定義される。さらに、y=(yi1,…,yiM、π=(πi1,…,πiMである。
学習データが与えられると、事後分布算出部132は、上記の式(57)及び式(60)に基づいて潜在特徴ベクトルu及び期待値μの変分事後分布を得ることができる。また、潜在特徴ベクトルv及び期待値μの変分事後分布もそれぞれ上記の式(57)及び式(60)と同様に表現されることから(u→v、i→jとすればよい。)、事後分布算出部132は、同様にして潜在特徴ベクトルv及び期待値μの変分事後分布を得ることができる。上記の変分事後分布を得ると、事後分布算出部132は、下記の式(63)に基づいてパラメータγを更新する。
また、事後分布算出部132は、潜在特徴ベクトルや期待値などのパラメータの変分事後分布を他のパラメータの変分事後分布の下で更新する。このとき、事後分布算出部132は、初期値算出部131により入力された変分事後分布を初期値として利用する。この更新処理は、各パラメータが収束するまで反復実行される。各パラメータが収束すると、事後分布算出部132は、最終的に得られた変分事後分布を評価値予測部133に入力する。なお、事後分布算出部132による変分事後分布の具体的な更新アルゴリズム(以下、変分ベイズ推定アルゴリズム)は、以下のようになる。
(評価値予測部133)
評価値予測部133は、事後分布算出部132から入力された各パラメータの変分事後分布に基づいて評価値yijの期待値を算出する。上記の通り、事後分布算出部132によって潜在特徴ベクトルの変分事後分布q(u),q(v)が求められている。そこで、評価値予測部133は、上記の式(30)に示すように、潜在特徴ベクトルu,vの内積(評価値yij)に対する期待値を算出する。このようにして評価値予測部133により算出された評価値の期待値は、評価予測値として出力される。
(変形例:初期値算出部131の計算結果から評価値を予測する構成)
さて、ここまではランクワイズ変分ベイズ推定アルゴリズムにより得られた変分事後分布を上記の変分ベイズ推定アルゴリズムの初期値として利用する構成について説明してきた。しかし、評価値の予測精度を多少犠牲にしても高速に評価値を予測したい場合には、ランクワイズ変分ベイズ推定アルゴリズムにより得られた変分事後分布をそのまま評価値の予測に利用することもできる。この場合、初期値算出部131により得られた変分事後分布は、評価値予測部133に入力され、その変分事後分布から評価予測値が算出される。このような変形も当然に本実施形態の技術的範囲に属する。
(ランクワイズ変分ベイズ推定アルゴリズムの計算量とメモリ使用量について)
上記のランクワイズ変分ベイズ推定アルゴリズムは、上記の変分ベイズ推定アルゴリズムや上記の確率的行列分解ベース協調フィルタリングの中で用いた変分ベイズ推定のアルゴリズムに比べて高速である。例えば、上記の変分ベイズ推定アルゴリズムだけを利用して評価値を予測しようとする場合、一回の反復当たりの計算量はO(|Y|H)になる。但し、|Y|は学習データとして与えられる既知の評価値の数、Hは評価値行列Yのランク数である。また、この場合のメモリ使用量は、O((M+N)H)になる。従って、この場合には、大規模なデータを扱うと、計算量・メモリ使用量が現実的でなくなってしまう。
しかし、上記のランクワイズ変分ベイズ推定アルゴリズムだけを利用して評価値を予測しようとする場合、各ランクについて、一回の反復当たりの計算量はO(|Y|)となり、メモリ使用量はO((M+N))となる。つまり、全てのランクh=1,…,Hについてランクワイズ推定アルゴリズムを実行しても、計算量はO(|Y|H)、メモリ使用量はO((M+N)H)で済むことになる。従って、現実的に大規模なデータを扱うことが可能になる。なお、ランクワイズ変分ベイズ推定アルゴリズムを利用して得られた変分事後分布を初期値として利用することにより、上記の変分ベイズ推定アルゴリズムにおける反復処理の収束を早める効果も期待できる。
以上、本実施形態に係る評価予測装置100の機能構成について説明した。なお、上記の説明において示したランクワイズ変分ベイズ推定アルゴリズムは一例であり、例えば、上記1−2において説明した確率的行列分解ベース協調フィルタリングの手法に組み合わせることもできる。
[2−2:実験結果]
次に、図11、図12を参照しながら、ランクワイズ変分ベイズ推定アルゴリズムの性能について議論したい。図11、図12は、ランクワイズ変分ベイズ推定アルゴリズムの性能を評価するために行った実験結果を示した図表である。ここでは、性能評価のために、映画の評価値(レーティング)データセットであるMovieLensデータ(http://www.grouplens.org/を参照)を利用した。MovieLensデータは、ユーザが一部のアイテムに付した評価値、ユーザの特徴(性別、年齢、職業、ジップコード)、及びアイテムの特徴(ジャンル)を含んでいる。
比較した手法は、上記のランクワイズ変分ベイズ推定アルゴリズム(以下、Rankwise PMF)、当該ランクワイズ変分ベイズ推定アルゴリズムを上記1−2で説明した確率的行列分解ベース協調フィルタリングに応用した応用アルゴリズム(以下、Rankwise PMFR)、一般的な確率的行列分解に基づく変分ベイズ推定アルゴリズム(以下、PMF)、上記1−2で説明した確率的行列分解ベース協調フィルタリング(以下、PMFR)の4通りである。但し、上記の式(32)のように対角要素のみを保持する近似手法(以下、app.1)、上記の式(33)のようにdの分散も計算しない近似手法(以下、app.2)による結果も併せて示した。なお、PMFは、Rankwise PMFにより得られた変分事後分布を初期化に利用している。
図11、図12に示されている数値は誤差を示すものである。図11、図12を参照すると、全体の傾向として、Rankwise PMF>Rankwise PMFR>PMF>PMFRの順で誤差が大きくなっていることが分かる。また、exact(近似なし)、app.1、app.2を比較すると、誤差はexact≒app.1>app.2という結果となった。しかしながら、PMFやPMFRに比べてRankwise PMFやRankwise PMFRの誤差が著しく大きいということはない。つまり、図11、図12に示した実験結果から言えることは、計算量の少ないRankwise PMFやRankwise PMFRを用いても、PMFやPMFRに比べてそれほど性能が劣化しないということである。
以上説明したように、本実施形態に係る手法を適用することで、さほど性能を犠牲にせずに、PMFやPMFRに比べて高速なフィルタリングを実現することが可能になる。また、本実施形態に係る手法は、大規模なデータを扱う場合にもメモリ使用量を低く抑えることができる。
<3:ハードウェア構成例>
上記の評価予測装置100が有する各構成要素の機能は、例えば、図13に示す情報処理装置のハードウェア構成を用いて実現することが可能である。つまり、当該各構成要素の機能は、コンピュータプログラムを用いて図13に示すハードウェアを制御することにより実現される。なお、このハードウェアの形態は任意であり、例えば、パーソナルコンピュータ、携帯電話、PHS、PDA等の携帯情報端末、ゲーム機、又は種々の情報家電がこれに含まれる。但し、上記のPHSは、Personal Handy−phone Systemの略である。また、上記のPDAは、Personal Digital Assistantの略である。
図13に示すように、このハードウェアは、主に、CPU902と、ROM904と、RAM906と、ホストバス908と、ブリッジ910と、を有する。さらに、このハードウェアは、外部バス912と、インターフェース914と、入力部916と、出力部918と、記憶部920と、ドライブ922と、接続ポート924と、通信部926と、を有する。但し、上記のCPUは、Central Processing Unitの略である。また、上記のROMは、Read Only Memoryの略である。そして、上記のRAMは、Random Access Memoryの略である。
CPU902は、例えば、演算処理装置又は制御装置として機能し、ROM904、RAM906、記憶部920、又はリムーバブル記録媒体928に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。ROM904は、CPU902に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM906には、例えば、CPU902に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
これらの構成要素は、例えば、高速なデータ伝送が可能なホストバス908を介して相互に接続される。一方、ホストバス908は、例えば、ブリッジ910を介して比較的データ伝送速度が低速な外部バス912に接続される。また、入力部916としては、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力部916としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。
出力部918としては、例えば、CRT、LCD、PDP、又はELD等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。但し、上記のCRTは、Cathode Ray Tubeの略である。また、上記のLCDは、Liquid Crystal Displayの略である。そして、上記のPDPは、Plasma DisplayPanelの略である。さらに、上記のELDは、Electro−Luminescence Displayの略である。
記憶部920は、各種のデータを格納するための装置である。記憶部920としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。但し、上記のHDDは、Hard Disk Driveの略である。
ドライブ922は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体928に記録された情報を読み出し、又はリムーバブル記録媒体928に情報を書き込む装置である。リムーバブル記録媒体928は、例えば、DVDメディア、Blu−rayメディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体928は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。但し、上記のICは、Integrated Circuitの略である。
接続ポート924は、例えば、USBポート、IEEE1394ポート、SCSI、RS−232Cポート、又は光オーディオ端子等のような外部接続機器930を接続するためのポートである。外部接続機器930は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。但し、上記のUSBは、Universal Serial Busの略である。また、上記のSCSIは、Small Computer System Interfaceの略である。
通信部926は、ネットワーク932に接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB用の通信カード、光通信用のルータ、ADSL用のルータ、又は各種通信用のモデム等である。また、通信部926に接続されるネットワーク932は、有線又は無線により接続されたネットワークにより構成され、例えば、インターネット、家庭内LAN、赤外線通信、可視光通信、放送、又は衛星通信等である。但し、上記のLANは、Local Area Networkの略である。また、上記のWUSBは、Wireless USBの略である。そして、上記のADSLは、Asymmetric Digital Subscriber Lineの略である。
以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明は係る例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
(備考)
上記のユーザは、第1アイテムの一例である。上記のアイテムは、第2アイテムの一例である。上記の潜在特徴ベクトルuは、第1潜在ベクトルの一例である。上記の潜在特徴ベクトルvは、第2潜在ベクトルの一例である。上記の特徴ベクトルxuiは、第1特徴ベクトルの一例である。上記の特徴ベクトルxvjは、第2特徴ベクトルの一例である。上記の回帰行列Dは、第1射影行列の一例である。上記の回帰行列Dは、第2射影行列の一例である。上記の評価値予測部105、133は、推薦先決定部の一例である。
10 推薦システム
11 評価値データベース
12 行列分解部
13 評価値予測部
14 推薦部
100 評価予測装置
101 評価値データベース
102 特徴量データベース
103 事後分布算出部
104 パラメータ保持部
105 評価値予測部
106 予測評価値データベース
107 推薦部
108 通信部
131 初期値算出部
132 事後分布算出部
133 評価値予測部
200 ネットワーク
300 ユーザ端末

Claims (8)

  1. 第1アイテムが持つ潜在的な特徴を表す第1潜在ベクトル、第2アイテムが持つ潜在的な特徴を表す第2潜在ベクトル、及び、前記第1潜在ベクトルと前記第2潜在ベクトルとの内積で表現される評価値を要素に持つランク数Hの評価値行列のランクh(h=0〜H)の残差行列Rhをそれぞれ正規分布に従う確率変数とみなし、学習データとして与えられた既知の評価値を用いた変分ベイズ推定を実行することにより、前記第1潜在ベクトル及び前記第2潜在ベクトルの変分事後分布を算出する事後分布算出部と、
    前記事後分布算出部により算出された前記第1潜在ベクトル及び第2潜在ベクトルの変分事後分布を用いて未知の前記評価値を予測する評価値予測部と、
    を備える、
    評価予測装置。
  2. 前記事後分布算出部は、
    前記残差行列Rhを確率変数とみなして変分ベイズ推定を実行することにより得られた前記第1潜在ベクトル及び前記第2潜在ベクトルの変分事後分布を初期値とし、
    前記評価値行列を正規分布に従う確率変数とみなして変分ベイズ推定を実行することにより、前記第1潜在ベクトル及び前記第2潜在ベクトルの変分事後分布を算出する、
    請求項1に記載の評価予測装置。
  3. 前記事後分布算出部は、
    前記第1アイテムが持つ特徴を表す第1特徴ベクトルと、前記第2アイテムが持つ特徴を表す第2特徴ベクトルと、前記第1特徴ベクトルを前記第1潜在ベクトルの空間に射影する第1射影行列と、前記第2特徴ベクトルを前記第2潜在ベクトルの空間に射影する第2射影行列と、を定義し、
    前記第1射影行列による前記第1特徴ベクトルの射影値を期待値とする正規分布により前記第1潜在ベクトルの分布を表現し、前記第2射影行列による前記第2特徴ベクトルの射影値を期待値とする正規分布により前記第2潜在ベクトルの分布を表現し、
    前記第1潜在ベクトル及び前記第2潜在ベクトルの変分事後分布と共に、前記第1射影行列及び前記第2射影行列の変分事後分布を算出する、
    請求項2に記載の評価予測装置。
  4. 前記評価値予測部は、前記第1潜在ベクトル及び第2潜在ベクトルの変分事後分布を用いて算出される前記第1潜在ベクトルの期待値及び前記第2潜在ベクトルの期待値の内積を前記未知の評価値の予測値とする、
    請求項3に記載の評価予測装置。
  5. 前記評価値予測部により予測された未知の評価値が所定の閾値を上回る場合、当該未知の評価値に対応する第2アイテムを当該未知の評価値に対応する第1アイテムの推薦先に決定する推薦先決定部をさらに備える、
    請求項4に記載の評価予測装置。
  6. 前記第2アイテムはユーザを表し、
    前記推薦先決定部により第1アイテムの推薦先が決定された場合、当該第1アイテムの推薦先に対応するユーザに対して当該第1アイテムを推薦する推薦部をさらに備える、
    請求項5に記載の評価予測装置。
  7. 第1アイテムが持つ潜在的な特徴を表す第1潜在ベクトル、第2アイテムが持つ潜在的な特徴を表す第2潜在ベクトル、及び、前記第1潜在ベクトルと前記第2潜在ベクトルとの内積で表現される評価値を要素に持つランク数Hの評価値行列のランクh(h=0〜H)の残差行列Rhをそれぞれ正規分布に従う確率変数とみなし、学習データとして与えられた既知の評価値を用いた変分ベイズ推定を実行することにより、前記第1潜在ベクトル及び前記第2潜在ベクトルの変分事後分布を算出する事後分布算出ステップと、
    前記事後分布算出ステップで算出された前記第1潜在ベクトル及び第2潜在ベクトルの変分事後分布を用いて未知の前記評価値を予測する評価値予測ステップと、
    を含む、
    評価予測方法。
  8. 第1アイテムが持つ潜在的な特徴を表す第1潜在ベクトル、第2アイテムが持つ潜在的な特徴を表す第2潜在ベクトル、及び、前記第1潜在ベクトルと前記第2潜在ベクトルとの内積で表現される評価値を要素に持つランク数Hの評価値行列のランクh(h=0〜H)の残差行列Rhをそれぞれ正規分布に従う確率変数とみなし、学習データとして与えられた既知の評価値を用いた変分ベイズ推定を実行することにより、前記第1潜在ベクトル及び前記第2潜在ベクトルの変分事後分布を算出する事後分布算出機能と、
    前記事後分布算出機能により算出された前記第1潜在ベクトル及び第2潜在ベクトルの変分事後分布を用いて未知の前記評価値を予測する評価値予測機能と、
    をコンピュータに実現させるためのプログラム。
JP2010200980A 2010-09-08 2010-09-08 評価予測装置、評価予測方法、及びプログラム Withdrawn JP2012058972A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2010200980A JP2012058972A (ja) 2010-09-08 2010-09-08 評価予測装置、評価予測方法、及びプログラム
EP11179306A EP2428926A3 (en) 2010-09-08 2011-08-30 Rating prediction device, rating prediction method, and program
US13/222,638 US20120059788A1 (en) 2010-09-08 2011-08-31 Rating prediction device, rating prediction method, and program
CN2011102657404A CN102402569A (zh) 2010-09-08 2011-09-01 评价预测装置、评价预测方法以及程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010200980A JP2012058972A (ja) 2010-09-08 2010-09-08 評価予測装置、評価予測方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2012058972A true JP2012058972A (ja) 2012-03-22

Family

ID=44674352

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010200980A Withdrawn JP2012058972A (ja) 2010-09-08 2010-09-08 評価予測装置、評価予測方法、及びプログラム

Country Status (4)

Country Link
US (1) US20120059788A1 (ja)
EP (1) EP2428926A3 (ja)
JP (1) JP2012058972A (ja)
CN (1) CN102402569A (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014016872A (ja) * 2012-07-10 2014-01-30 Kddi Corp データベース補完システム、データベース補完方法、データ補完サーバおよびプログラム
JP2014016922A (ja) * 2012-07-11 2014-01-30 Kddi Corp アイテム推薦システム、アイテム推薦方法およびプログラム
JP2015162233A (ja) * 2014-02-28 2015-09-07 日本電信電話株式会社 収束判定装置、方法、及びプログラム
KR20160009155A (ko) * 2014-07-15 2016-01-26 한양대학교 산학협력단 효과적인 학습 독려와 가이드 및 학습 전략 수립 서비스 제공을 위한 스마트 개인화 학습 가이드 방법 및 시스템
JP2016192204A (ja) * 2015-03-30 2016-11-10 日本電気株式会社 関係データのためのデータモデル生成方法及びシステム
JP2017220001A (ja) * 2016-06-07 2017-12-14 日本電信電話株式会社 予測装置、予測方法及びプログラム
JP2018106453A (ja) * 2016-12-27 2018-07-05 Kddi株式会社 情報処理装置、情報処理方法、プログラム、情報処理システム、及び通信端末
JP2018195198A (ja) * 2017-05-19 2018-12-06 ヤフー株式会社 提供装置、提供方法及び提供プログラム
JP2018195187A (ja) * 2017-05-19 2018-12-06 ヤフー株式会社 情報提供装置、情報提供方法および情報提供装置プログラム
JP7361759B2 (ja) 2018-08-15 2023-10-16 セールスフォース インコーポレイテッド 機械学習システムのためのデータのトレーニングセットでの後知恵バイアスに関連付けられているデータの包含のインスタンスの削減

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3164480A1 (en) * 2011-07-13 2013-01-17 Dxc Technology Company Computer system and method for conducting auctions over a computer network
US20130080208A1 (en) * 2011-09-23 2013-03-28 Fujitsu Limited User-Centric Opinion Analysis for Customer Relationship Management
CA2883307A1 (en) * 2012-08-27 2014-03-06 Opera Solutions, Llc Method and apparatus for ordering recommendations according to a mean/variance tradeoff
US8983888B2 (en) * 2012-11-07 2015-03-17 Microsoft Technology Licensing, Llc Efficient modeling system for user recommendation using matrix factorization
EP2744219A1 (en) * 2012-12-14 2014-06-18 Thomson Licensing Prediction of user appreciation of items and corresponding recommendation method
US20140201271A1 (en) * 2013-01-13 2014-07-17 Qualcomm Incorporated User generated rating by machine classification of entity
WO2014158204A1 (en) * 2013-03-13 2014-10-02 Thomson Licensing Method and apparatus for recommendations with evolving user interests
US10257136B2 (en) 2013-05-28 2019-04-09 Convida Wireless, Llc Data aggregation in the internet of things
CN103390032B (zh) * 2013-07-04 2017-01-18 上海交通大学 基于关系型协同话题回归的推荐系统及方法
US20150073932A1 (en) * 2013-09-11 2015-03-12 Microsoft Corporation Strength Based Modeling For Recommendation System
CN103617259A (zh) * 2013-11-29 2014-03-05 华中科技大学 一种基于有社会关系和项目内容的贝叶斯概率矩阵分解推荐方法
US10380649B2 (en) 2014-03-03 2019-08-13 Spotify Ab System and method for logistic matrix factorization of implicit feedback data, and application to media environments
US10872110B2 (en) * 2014-03-03 2020-12-22 Spotify Ab Systems, apparatuses, methods and computer-readable medium for automatically generating playlists based on taste profiles
US9582425B2 (en) 2015-02-18 2017-02-28 International Business Machines Corporation Set selection of a set-associative storage container
US10204352B2 (en) 2015-05-04 2019-02-12 ContextLogic Inc. Systems and techniques for ranking items on a scrollable feed using a hybrid user interface
US10860646B2 (en) 2016-08-18 2020-12-08 Spotify Ab Systems, methods, and computer-readable products for track selection
CN107832170B (zh) * 2017-10-31 2019-03-12 北京金风科创风电设备有限公司 缺失数据的恢复方法和装置
US11030634B2 (en) 2018-01-30 2021-06-08 Walmart Apollo, Llc Personalized mechanisms to resolve explore-exploit dilemma with dynamically shared learnings
US11055742B2 (en) 2018-01-30 2021-07-06 Walmart Apollo, Llc Automated mechanisms to resolve explore-exploit dilemma with adaptive revival opportunities
US11042895B2 (en) 2018-01-30 2021-06-22 Walmart Apollo, Llc Automatic resolution of the explore-exploit decision in omnichannel settings
CN112948668B (zh) * 2021-02-04 2023-03-03 深圳大学 一种信息推荐方法、电子设备及存储介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4326174B2 (ja) * 2001-10-04 2009-09-02 ソニー株式会社 情報処理システム、情報処理装置および方法、記録媒体、並びにプログラム
CN100515052C (zh) * 2003-11-13 2009-07-15 松下电器产业株式会社 节目推荐装置以及节目推荐装置的节目推荐方法
JP4524709B2 (ja) * 2007-12-03 2010-08-18 ソニー株式会社 情報処理装置および方法、並びに、プログラム
JP4591794B2 (ja) * 2008-04-22 2010-12-01 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP4591793B2 (ja) * 2008-04-22 2010-12-01 ソニー株式会社 推定装置および方法、並びにプログラム
JP5534547B2 (ja) 2009-03-04 2014-07-02 Toto株式会社 照明付浴槽装置

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014016872A (ja) * 2012-07-10 2014-01-30 Kddi Corp データベース補完システム、データベース補完方法、データ補完サーバおよびプログラム
JP2014016922A (ja) * 2012-07-11 2014-01-30 Kddi Corp アイテム推薦システム、アイテム推薦方法およびプログラム
JP2015162233A (ja) * 2014-02-28 2015-09-07 日本電信電話株式会社 収束判定装置、方法、及びプログラム
KR20160009155A (ko) * 2014-07-15 2016-01-26 한양대학교 산학협력단 효과적인 학습 독려와 가이드 및 학습 전략 수립 서비스 제공을 위한 스마트 개인화 학습 가이드 방법 및 시스템
KR101642577B1 (ko) * 2014-07-15 2016-07-27 한양대학교 산학협력단 효과적인 학습 독려와 가이드 및 학습 전략 수립 서비스 제공을 위한 스마트 개인화 학습 가이드 방법 및 시스템
JP2016192204A (ja) * 2015-03-30 2016-11-10 日本電気株式会社 関係データのためのデータモデル生成方法及びシステム
JP2017220001A (ja) * 2016-06-07 2017-12-14 日本電信電話株式会社 予測装置、予測方法及びプログラム
JP2018106453A (ja) * 2016-12-27 2018-07-05 Kddi株式会社 情報処理装置、情報処理方法、プログラム、情報処理システム、及び通信端末
JP2018195198A (ja) * 2017-05-19 2018-12-06 ヤフー株式会社 提供装置、提供方法及び提供プログラム
JP2018195187A (ja) * 2017-05-19 2018-12-06 ヤフー株式会社 情報提供装置、情報提供方法および情報提供装置プログラム
JP7361759B2 (ja) 2018-08-15 2023-10-16 セールスフォース インコーポレイテッド 機械学習システムのためのデータのトレーニングセットでの後知恵バイアスに関連付けられているデータの包含のインスタンスの削減

Also Published As

Publication number Publication date
EP2428926A2 (en) 2012-03-14
EP2428926A3 (en) 2013-02-06
US20120059788A1 (en) 2012-03-08
CN102402569A (zh) 2012-04-04

Similar Documents

Publication Publication Date Title
JP2012058972A (ja) 評価予測装置、評価予測方法、及びプログラム
JP5440394B2 (ja) 評価予測装置、評価予測方法、及びプログラム
Kleinke Multiple imputation under violated distributional assumptions: A systematic evaluation of the assumed robustness of predictive mean matching
Duchi et al. Distributionally robust losses for latent covariate mixtures
KR101868830B1 (ko) 머신 러닝에서의 가중치 생성
Rodríguez et al. Label switching in Bayesian mixture models: Deterministic relabeling strategies
KR101868829B1 (ko) 머신 러닝에서의 가중치의 생성
CN111242310B (zh) 特征有效性评估方法、装置、电子设备及存储介质
CN112115257A (zh) 用于生成信息评估模型的方法和装置
CN111783810B (zh) 用于确定用户的属性信息的方法和装置
WO2022179384A1 (zh) 一种社交群体的划分方法、划分系统及相关装置
JP6699753B2 (ja) 分析プログラム、情報処理装置および分析方法
Lu et al. A modified whale optimization algorithm for parameter estimation of software reliability growth models
Jiang et al. Prediction accuracy for the cure probabilities in mixture cure models
JP2015114988A (ja) 処理装置、処理方法、およびプログラム
US11893990B2 (en) Audio file annotation
König et al. An optimized Bayesian hierarchical two-parameter logistic model for small-sample item calibration
Kolamunnage-Dona et al. Time-dependent efficacy of longitudinal biomarker for clinical endpoint
CN111161238A (zh) 图像质量评价方法及装置、电子设备、存储介质
Zhu et al. A hybrid model for nonlinear regression with missing data using quasilinear kernel
JP2020021343A (ja) 解析装置、解析方法及びプログラム
JP2015114987A (ja) 処理装置、処理方法、およびプログラム
CN113792952A (zh) 用于生成模型的方法和装置
Li et al. Buckley–James estimation of generalized additive accelerated lifetime model with ultrahigh‐dimensional data
Nishida et al. Multi-Objective Deep Reinforcement Learning for Crowd Route Guidance Optimization

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20131203