JP2012079225A - 協調フィルタリング処理方法およびプログラム - Google Patents

協調フィルタリング処理方法およびプログラム Download PDF

Info

Publication number
JP2012079225A
JP2012079225A JP2010225844A JP2010225844A JP2012079225A JP 2012079225 A JP2012079225 A JP 2012079225A JP 2010225844 A JP2010225844 A JP 2010225844A JP 2010225844 A JP2010225844 A JP 2010225844A JP 2012079225 A JP2012079225 A JP 2012079225A
Authority
JP
Japan
Prior art keywords
matrix
cluster
equation
eigenvector
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010225844A
Other languages
English (en)
Inventor
Katsuhiro Honda
克宏 本多
Akira Nozu
亮 野津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Osaka University NUC
Osaka Prefecture University PUC
Original Assignee
Osaka University NUC
Osaka Prefecture University PUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Osaka University NUC, Osaka Prefecture University PUC filed Critical Osaka University NUC
Priority to JP2010225844A priority Critical patent/JP2012079225A/ja
Publication of JP2012079225A publication Critical patent/JP2012079225A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】協調フィルタリング処理に係る計算処理、特に固有値の計算を効率化する手法を提供する。
【解決手段】n人のユーザのm個のアイテムに対する嗜好および/または受容の度合いが肯定的であることを表すスコア1または否定的または未知であることを表すスコア0の何れかを要素とし、縦横が各ユーザと各アイテムとの和集合からなる(n+m)×(n+m)の正方行列、
Figure 2012079225

(ただし、Zは、縦横がn×mの二値の行列、Oはゼロ値行列)が与えられたとき、ユーザとアイテムとが強い関係性を有する組み合わせを少なくとも一つのクラスターとして抽出する処理の中で前記行列Sの最大固有値λ1および固有ベクトルw1を算出するにあたり、(n+m)×(n+m)次元の前記行列Sのスパース性に着目して固有値を求める計算式をn×n次元に縮小することにより固有値計算に伴う負担を低減する。
【選択図】なし

Description

この発明は、協調フィルタリング処理方法およびプログラムに関する。
協調フィルタリングでは、嗜好の類似した近傍ユーザ群を抽出し、群内のユーザが好むアイテムを推薦することで、ネットワーク上で疑似的に「くちこみ」が実装される(例えば、非特許文献1参照)。
いま、n 人のユーザとm 個のアイテムの関連性を表すn×m データ行列Z =[zij] が得られたとする。
たとえば、商品の購買履歴データであれば、zij はユーザi がアイテムj を購入していれば「1」、それ以外は「0」(ゼロ)を持つものとし、要素「0」は必ずしも否定的な関係のみではなく未評価(未購入)を含む。
発明者らは、ユーザやアイテムを区別なくノードととらえると、関係性データは社会科学におけるネットワークグラフとの類似性を有することに着目し、グラフ構造の均衡化に基づく手法を発展させることで、ユーザ・アイテム共クラスターを抽出する手法を提案した(例えば、特許文献1、非特許文献2参照)。
即ち、CartwrightとHararyは、均衡がとれているシステムでは、互いに正の関係性を持つノードからなる二つのグループに分割されることを示している(例えば、非特許文献3参照)。また、Davisは構造の均衡化をより一般化してとらえ、2群分割された部分集合がさらに小さな部分集合に分割できる場合として、その再分割後の部分集合がその中では互いに正の関係性を持つ一方で異なる部分集合間では正の関係性を持たない状況を指摘している(例えば、非特許文献5参照)。
そこで、発明者らは前記特許文献1および非特許文献2において、n×m の長方形状の関係性データに未知要素0(ゼロ)を組み込むことで、正方形状の(n+m)×(n+m) ブロック行列としてユーザ・アイテム関係性行列を再構築する手法を示した。
Figure 2012079225
さらに、標本間の類似度を要素に持つ関係性データからファジィクラスターを逐次的に抽出するTsuda らの手法(例えば、非特許文献4参照)を援用することで、共クラスター抽出を行った。
より詳細に述べると、要素i とj の非負の類似度をeij とおき、eij =eji, eij ≧0 であるとする。第k クラスター(k は1より大きい整数)のメンバシップベクトルwk の抽出のための目的関数は以下のように定義される。
Figure 2012079225
ここで、第2項はクラスターの重なりを防ぐためのペナルティ項で、第1クラスターの抽出では0(ゼロ)とおかれる。dup(wk, wt) が制約を満たすために付加されたペナルティ項であり、
Figure 2012079225
のようにおく。βt はペナルティ項の重みで、前記非特許文献4ではクラスターの凝集度を考慮して以下のように定めている。
Figure 2012079225
ηはペナルティ項が第1項より十分大きくなる値とする。
最適なwk は行列S =[sij] の最大固有値に対応する固有ベクトルとして求まる。
Figure 2012079225
協調フィルタリング問題では、ユーザ・アイテムクラスターの抽出時にユーザが排他的であれば必ずしもアイテムは排他的である必要はなく、いくつかのクラスターで共有されうるべきである(前記非特許文献2参照)。そこで、アイテムの共有を許容する場合には、メンバシップベクトルwt
Figure 2012079225
と分割し、
Figure 2012079225
Figure 2012079225
とおいた上で、ユーザのみが排他的となるように
Figure 2012079225
なる制約を用いる。そのため、第k 番目のクラスターの抽出に用いる関係性行列では、対角要素sii を以下のように修正して最大固有値と対応する固有ベクトルを算出する。
Figure 2012079225
特開2010−73195号公報
J. A. Konstan, B. N. Miller, D. Maltz, J. L. Herlocker, L. R. Gardon and J. Riedl: Grouplens: applying col-laborative filtering to usenet news; Communications of the ACM, Vol.40, No.3, pp.77-87 (1997) 本多克宏、野津亮、市橋秀友: 逐次的なユーザ・アイテム クラスター抽出に基づく協調フィルタリング, システム制御 情報学会論文誌, Vol.22, No.10, pp.364-370 (2009) D. Cartwright and F. Harary: Structural balance, a generalization of Heider's theory, Psychological Review , Vol. 63, pp. 167-293 (1956) K. Tsuda, M. Minoh and K. Ikeda: Extracting straight lines by sequential fuzzy clustering, Pattern Recognition Letters, Vol. 17, pp. 643-649 (1996) J. A. Davis: Clustering and structural balance in graph, Human Relation, Vol. 20, pp. 181-187 (1967)
上述の協調フィルタリングによる処理手法は高い推薦性能を得ることができたものの、以下の課題がある。
(1)縦横が(ユーザ数+アイテム数)の(n+m)×(n+m)行列は大きく、計算処理に時間 がかかる。特に固有値の計算に要する時間の比重が大きい。固有値計算に用いる行列の 要素数を減らすことが望まれている。
(2)新規のユーザに対する推薦アイテムの探索手順が未定義である。従来の計算モデル をそのまま適用すると、新規ユーザが来た場合には、すべての計算を再度、行う必要が あり、処理が煩雑であり、かつ時間を要する。そこで、簡便な計算で新規ユーザの追加 に適用できるような計算モデルの改良が望まれている。
この発明は、以上のような事情を考慮してなされたものであって、関係性ブロック行列のスパース性に着目して、協調フィルタリング処理に係る計算処理、特に固有値の計算を効率化する手法を提供するものである。
この発明は、関係性ブロック行列のスパース性に着目して、協調フィルタリングに係る計算処理を効率的に行う手法を実現し、かつ新規ユーザが追加されても前記計算処理に係る負担を最小限にとどめる手法を提供するものである。
前述の課題を解決するために、この発明は、
(i)n 人のユーザのm 個のアイテム(n、m は1より大きい整数)に対する嗜好および/または受容の度合いが肯定的であることを表すスコア1または否定的または未知であることを表すスコア0の何れかを要素とし、縦横が各ユーザと各アイテムとの和集合からなる(n+m )×(n+m )の正方行列、
Figure 2012079225
(ただし、Zは、縦横がn×m の二値の行列、Oはゼロ値行列)
が与えられたとき、ユーザとアイテムとが強い関係性を有する組み合わせを少なくとも一つのクラスターとしてコンピュータが抽出する処理であって、前記行列S の最大固有値λ1 および固有ベクトルw1 を算出するにあたり、前記固有ベクトルw1 をユーザについての部分ベクトルwu 1 とアイテムについての部分ベクトルwi 1 とに分け、前記行列S の固有値を求める計算式を、
Figure 2012079225
の2つに分割し、(7)式よりwu 1 を用いてwi 1 を表した
Figure 2012079225
を(6)式に代入してなる
Figure 2012079225
の固有値計算を解いてベクトルwu 1 を求め、求めたwu 1 を(8)式に適用してベクトルwi 1 を求めることにより固有ベクトルw1を得、得られた固有ベクトルw1 の各要素が予め定められた閾値以上か否かに応じて各要素に対応するユーザおよびアイテムが第1のクラスターに属するか否かを少なくとも決定する分類工程と、前記分類工程の決定に基づく第1のクラスターのユーザに対して第1のクラスターのアイテムを推薦候補とする推薦工程とを備えることを特徴とする協調フィルタリング処理方法を提供する。また、この発明は、
(ii)前記分類工程が、前記(8)、(9)式に代えて、(6)式よりwi 1 を用いてwu 1 を表した
Figure 2012079225
を(7)式に代入してなる
Figure 2012079225
の固有値計算を解いてベクトルwi 1 を求め、
求めたwi 1 を(10)式に適用してベクトルwu 1 を求めることにより固有ベクトルw1を得る協調フィルタリング処理方法を提供する。
また、異なる観点から、この発明は、前記(i)または(ii)の方法をコンピュータに実行させるためのプログラムを提供する。
この発明の協調フィルタリング処理方法は、各ユーザおよび各アイテムの前記クラスターへの属否を判断する固有ベクトルw1 を算出するにあたり、縦横が(n+m )×(n+m )の正方行列S の固有値を求める計算式を直接解く代わりに、前記(i)では縦横がn ×n の行列ZZT の計算式である(9)式の固有値計算を行うので、(n+m )×(n+m )次元の固有値計算を直接解く場合に比べて計算時間を短縮することができる。即ち、繰り返し計算を伴う固有値計算を(n+m )×(n+m )次元からn ×n 次元に縮小するので固有値計算に伴う負担を低減することができる。
また、前記(ii)では、縦横がm ×m の行列ZTZ の計算式である(11)式の固有値計算を行うので、(n+m )×(n+m )次元の固有値計算を直接解く場合に比べて計算時間を短縮することができる。即ち、繰り返し計算を伴う固有値計算を(n+m )×(n+m )次元からm ×m 次元に縮小するので固有値計算に伴う負担を低減することができる。
前記(i)または(ii)の方法をコンピュータに実行させるためのプログラムについても同様の効果を奏する。
この発明において、分類工程は、1以上のユーザとアイテムとのクラスターを抽出する。前記(i)または(ii)の方法では、そのうち第1クラスターの抽出に係る特徴に着目している。第2クラスター以降の抽出に係る特徴については後述する。
(1)式の正方行列S は、n 人のユーザがm 個のアイテムを評価する場合の各スコアの行列としてのn×m 次元の評価値行列を(n+m )×(n+m )次元の正方行列に拡張したものである。一般に、協調フィルタリングは、評価値行列の一部に評価済みのスコアが格納され、一部が未評価(欠測値)の状態で適用される。協調フィルタリングは前記評価値行列中の欠測値の推定に用いられるからである。各スコアのとり得る範囲は、事例に応じて適宜決定される。各スコアがどのような範囲をとり得るかにかかわらず、この発明においては前記評価値行列の各スコアが予め定められた閾値以上か否かに注目し、拡張された正方行列S の要素をゼロまたは正値に2値化する。スコアが未知の要素はゼロで置換する。
(1)式の正方行列S は、認知的均衡化理論において用いられる関係性行列の形式に適合させるべく前記評価値行列を拡張したものである。各各要素sijがとり得る値は予め定められる。嗜好の度合いおよび/または受容の度合いを表すスコアの一例として、次のものが挙げられる。各ユーザが各アイテムを評価した評価値があれば、その評価値をスコアとして適用できる。また、各ユーザの各アイテムについての購入履歴のデータがあれば、その購入履歴データをスコアとして適用できる。
それらのスコアと前記正方行列の要素sijがとる値との対応関係の一例として、次のものが挙げられる。肯定的な関係、即ち、ユーザの評価として「好む」とされた場合やユーザがそのアイテムを購入済の場合に対応して「+1」、未知または否定的な関係、即ち、ユーザの評価が「好まない」または「その他」とされた場合やそのアイテムについてユーザが未購入(不明を含んでもよい)の場合に対応して「0」(ゼロ)が定められる。
逐次的クラスター抽出のアルゴリズムは、ファジィクラスタリングの一手法として知られ、n ×n 関係性行列が与えられた場合に、関係性の強い個体の群(クラスター)を一つずつ逐次的に取り出す手法である。
最小均衡化アルゴリズムは、関連性行列が与えられたときに系の乖離度合いが最小となる均衡状態に不均衡な辺の関係を変化させる手順を求めるアルゴリズムである(例えば、O. Katai and S. Iwai: Studies on the balancing, the minimal balancing, and the minimum balancing processes for social groups with planar and nonplanar graph structures, J. Math. Psychol., 18, 2, 141-176 (1978)参照)。前記アルゴリズムを適用すると、系の各ノード(この発明におけるユーザおよびアイテムに対応する)が2つのグループに分類される。同一グループに属するユーザは評価が類似し、各ユーザと同一グループに属するアイテムに高い評価を与えている。
この発明の実験例2において、アイテムのクラスター指標を更新せずに新規ユーザの割合を増やしていったときの平均誤差の推移を示すグラフである。
以下、この発明の好ましい態様について説明する。
前記分類工程は、n <m の場合に(8)および(9)式を用いて固有ベクトルw1 を得るようにしてもよい。このようにすれば、m ×m の(11)式よりも次元数の少ないn ×n の(9)式の固有値計算を解いて、計算時間をより短縮することができる。
また、前記分類工程は、n >m の場合に(10)および(11)式を用いて固有ベクトルw1を得るようにしてもよい。このようにすれば、n ×n の(9)式よりも次元数の少ないm ×m の(11)式の固有値計算を解いて、計算時間をより短縮することができる。
さらに、前記分類工程は、ユーザとアイテムの組み合わせを二以上のクラスターとして抽出するために第1のクラスターに属するユーザおよびアイテムを決定した後、(5)式の行列S に逐次的クラスター抽出のアルゴリズムを適用し、前記アルゴリズムは、第k クラスター(k は1より大きい整数)を抽出するにあたり、k =2のときは(5)式の行列S の各対角要素を所定の規則に基づき修正した行列であり、k >2のときは、第(k −1)クラスターを抽出する際に用いた行列Sk-1 の各対角要素を所定の規則に基づき修正した行列
Figure 2012079225
(ただし、Wu はsii を第i 対角要素に持つn×n 対角行列、i は1以上n 以下の整数、Wi はsn+t,n+t を第t 対角要素に持つm×m 対角行列、t は1以上m 以下の整数)の最大固有値λkおよび固有ベクトルwk を算出するために、前記固有ベクトルwk をユーザについての部分ベクトルwu k とアイテムについての部分ベクトルwi k とに分け、前記行列Sk の固有値を求める計算式を、
Figure 2012079225
(ただし、InおよびImはそれぞれn 次元、m 次元の単位行列)の2つに分割し、(14)式よりwu k を用いてwi k を表した下記(16)式を(13)式に代入してなる下記(15)式の固有値計算を解いてwu k を求め、求めたwu k を(16)式に適用してwi k を求めることにより固有ベクトルwk を得、
Figure 2012079225
あるいは、(13)式からwi k を用いてwu k を表した下記(18)式を(14)式に代入してなる下記(17)式の固有値計算を解いてwi k を求め、求めたwi k を(18)式に適用してwu k を求めることにより固有ベクトルwk を得、
Figure 2012079225
得られた固有ベクトルwk の各要素が予め定められた閾値と比較して閾値以上か否かに応じて各要素に対応するユーザおよびアイテムが第k クラスターに属するか否かを決定するようにしてもよい。
このようにすれば、各ユーザおよび各アイテムの前記クラスターへの属否を判断する固有ベクトルwk を算出するにあたり、縦横が(n+m )×(n+m )の正方行列Sk の固有値を求める計算式を直接解く代わりに、縦横がn ×n の行列Z(Im −Wi )-1ZT の計算式である(15)式の固有値計算を行うので、(n+m )×(n+m )次元の固有値計算を直接解く場合に比べて計算時間を短縮することができる。即ち、繰り返し計算を伴う固有値計算を(n+m )×(n+m )次元からn ×n 次元に縮小するので固有値計算に伴う負担を低減することができる。
また、前記(ii)では、縦横がm ×m の行列ZT(In −Wu )-1Z の計算式である(17)式の固有値計算を行うので、(n+m )×(n+m )次元の固有値計算を直接解く場合に比べて計算時間を短縮することができる。即ち、繰り返し計算を伴う固有値計算を(n+m )×(n+m )次元からm ×m 次元に縮小するので固有値計算に伴う負担を低減することができる。
前記(i)または(ii)の方法をコンピュータに実行させるためのプログラムについても同様の効果を奏する。
ここで、前記分類工程は、n <m の場合に(15)および(16)式を用いて固有ベクトルwk を得るようにしてもよい。
このようにすれば、m ×m の(17)式よりも少ない次元数のn ×n の(15)式の固有値計算を解いて、計算時間をより短縮することができる。
また、前記分類工程は、n >m の場合に(17)および(18)式を用いて固有ベクトルwk を得るようにしてもよい。
このようにすれば、n ×n の(15)式よりも少ない次元数のm ×m の(17)式の固有値計算を解いて、計算時間をより短縮することができる。
ここで示した種々の好ましい態様は、それら複数を組み合わせることもできる。
以下、図面を用いてこの発明をさらに詳述する。なお、以下の説明は、すべての点で例示であって、この発明を限定するものと解されるべきではない。
≪前提とする協調フィルタリング処理≫
この発明の理解を容易にするために、まず、前提となる協調フィルタリング処理について簡単に説明しておく。
表1は、n 人のユーザ(u-1,・・・,u-n)とm 個のアイテム(i-1,・・・,i-m)の関係性を表すn×m 関係性行列Z の例である。
Figure 2012079225
表1の行列の要素で、「1」は正の関係性、即ち、ユーザが対象のアイテムを嗜好および/または受容していることを表す。「0」(ゼロ)は負の関係性、即ち、ユーザが対象のアイテムを嗜好および/または受容していないか、または関係性未知、即ち、対象アイテムに対するユーザの嗜好や受容の度合いが未知であることを表す。前述の正の関係性は肯定的関係性、負の関係性は否定的または未知の関係性ともいえる。
たとえば、購買履歴であれば、「1」は「購入歴あり」(嗜好している)を表し、「0」は「購入歴なし」を表すが、その「購入歴なし」には「その製品が好きでない」(嗜好していない)と「今後購入する可能性がある」(嗜好が未知)の両方が含まれる。
このような関係性行列Z を用いてユーザとアイテムの関係性を表す手法はすでに知られている。関係性行列が与えられたとき、ユーザとアイテムのすべての組についての関係性を表現するために、全体の(n+m)×(n+m)関係性行列、S =[sij] を表2のようなブロック行列で表す。
表2は、n人のユーザ(u-1,・・・,u-n)とm個のアイテム(i-1,・・・,i-m)を合わせたn+m個の項目間の(n+m)×(n+m)関係性行列の例である。
関係性が規定されていないユーザ間(およびアイテム間)の関係性については「0」を代入して処理している。
また、前記ブロック行列S を式で表現すると、以下の通りである。
Figure 2012079225
ここで、ブロック行列Sは、最初のn 個(または残りのm 個)の項がn 人のユーザ(またはm 種類のアイテム)に対応している。
Figure 2012079225
行列S が求まると、S = [sij]の最大固有値に対応する固有ベクトルとして、第1クラスターへの所属度合いを表すn+m 次元ベクトルw1 =[w1i] が求められる。
表3は、n人のユーザ(u-1,・・・,u-n)とm個のアイテム(i-1,・・・,i-m)を合わせたn+m個の項目についてのn+m 次元固有ベクトルの例である。表3の固有ベクトルにおいてすべての要素は0(ゼロ)以上であり、値が大きいほど第1クラスターへの所属度合いが大きいことを示している。算出された固有ベクトルに基づいて第1クラスターを抽出するには、例えば、予め定められた閾値以上の要素を有するユーザを第1クラスターに所属するメンバーとすればよい。
なお、関係性行列から最大固有値とそれに対応する固有ベクトルを求める具体的な方法としては、既存の汎用的な方法(たとえば、べき乗法やヤコビ法など)を利用すればよい。
Figure 2012079225
以上のようにして、第1クラスターが抽出された後に2番目以降のクラスターを抽出する手順は次の通りである。第k 番目のクラスターを抽出する場合は、k-1 番目までのクラスターに所属するユーザが含まれないようにする必要があるので、重なりがなくなるための制約を定めなければならない。ただし、アイテムについては複数のクラスターに共有されてもかまわない。たとえば、アイテムA とB を好むユーザ群のクラスターのほかにアイテムA とC を好むユーザ群のクラスターが存在してもかまわない。したがって、ユーザのみについて重複を排除するための制約として、
Figure 2012079225
を用いる。ここで、
Figure 2012079225
は、
Figure 2012079225
のうちでユーザに関する部分を抜き出したn 次元ベクトルである。表4は、n 人のユーザ(u-1,・・・,u-n)について所属度を並べたn次元固有ベクトルの例である。
Figure 2012079225
制約を満たすベクトル
Figure 2012079225
を求めるために、行列S の対角要素sii を以下におきかえる。
Figure 2012079225
ただし、βt は重み係数で、たとえば、以下のように定める。
Figure 2012079225
ここで、ηはβt が十分大きくなるように適宜定める係数である。
修正後の行列S の最大固有値に対応する固有ベクトルは、
Figure 2012079225
となる。
表5は、第k クラスターの所属度ベクトルを算出する際の関係性行列の例である。ユーザについての対角要素が、上で求めた値に置き換えられている。
Figure 2012079225
≪改良された計算モデル−第1クラスターの抽出≫
以上で述べた従来の計算モデルの計算量、特に固有値計算に係る処理負荷を軽減し、かつ、新規ユーザが追加された場合に簡便な処理で対応できる、この発明に係る計算モデルについて説明する。
着眼点は、次の通りである。表2のブロック行列の非対角ブロックの要素がすべて0(ゼロ)であることを考慮してその特性を生かせば、第1クラスターのクラスター指標の計算、即ち、(1)式の関係性行列S の固有値問題は以下の二つに分割できる。
Figure 2012079225
ここで、λ1 はS の最大固有値である。また、
Figure 2012079225
はユーザについてのクラスター指標のベクトルであり、
Figure 2012079225
はアイテムについてのクラスター指標ベクトルである。
(20)式から
Figure 2012079225
なる関係が得られるので、(19)式に代入することで、wu 1 の算出が
Figure 2012079225
なる固有値問題に帰着される。(22)式に公知のべき乗法やヤコビ法などを適用して行列ZZT に係る固有値計算を行い、ユーザについてのクラスター指標のベクトルwu 1 を算出することができる。wu 1 が得られたら、得られたwu 1 を(21)式に適用し、アイテムについてのクラスター指標ベクトルwi 1 が求められる。(22)式の固有値計算は繰り返し計算を伴うが、ここで注目すべき点は、行列ZZT の要素数が(ユーザ数)×(ユーザ数)であり、従来のS の要素数よりも少ないことである。また、(21)式は、掛け算を1回実行するだけであり繰り返し計算を含まない。よって、表2のS にべき乗法やヤコビ法などを適用して表3の固有ベクトルを算出する従来の手法に比べると、固有値の計算量が低減される。
以上の計算は、(22)式を用いてユーザについてのクラスター指標のベクトルwu 1 を先に計算し、その結果に基づいてアイテムについてのクラスター指標ベクトルwi 1 を計算するものである。
これと異なり、アイテムについてのクラスター指標ベクトルwi 1 を先に計算し、その結果に基づいてユーザについてのクラスター指標のベクトルwu 1 を計算する手順もある。
その場合は、(19)式から、
Figure 2012079225
なる関係が得られるので、(20)式に代入することで、wi 1 の算出が
Figure 2012079225
として、ZTZ の固有値問題に帰着できる。
固有値計算に用いる行列ZTZ の要素数は(ユーザ数)×(ユーザ数)であり、従来のS の要素数よりも少ない。よって、表2のS にべき乗法やヤコビ法などを適用して表3の固有ベクトルを算出する従来の手法に比べると、固有値の計算量が低減される。
いずれの計算手順が有利かは、行列ZZTとZTZ の要素数、即ち、ユーザ数とアイテム数の大小関係による。即ち、
(1)(ユーザ数)<(アイテム数)なら、ユーザの指標を先に計算する方が速くなり、
(2)(ユーザ数)>(アイテム数)なら、アイテムの指標を先に計算する方が速くなる。
前記(1)または(2)のいずれか適当な方を選択することで、固有値問題の対象となる行列の要素数をS の25% 以下に削減できる。
≪改良された計算モデル−第2クラスター以降の抽出≫
以上の処理手順により、第1クラスターのメンバーを抽出した後、第2クラスター以降の抽出手順について説明する。
一般に第k クラスター(k は、1より大きい整数)の抽出の際には、すでに抽出されたメンバーが重複して抽出されないように考慮しつつクラスター抽出を行わなければならない(共クラスター抽出)。
ただし、この発明においては、表2のように、n 人のユーザとm 個のアイテムを正方形状の(n+m)×(n+m) ブロック行列としたユーザ・アイテム関係性行列を用いており、ユーザとアイテムの両方の重複を避けた共クラスター抽出を行うこともできるが、アイテムの重複を許容しユーザの重複のみを避けるようにすることもでき、逆にユーザの重複を許容しアイテムの重複のみを避けるようにすることもできる。
ここでは、クラスター間でのアイテムの重複を許容し、ユーザのみについて重複を排除する態様を説明する。共クラスター抽出のため、従来手法と同様にTsudaらの手法(前記非特許文献4参照)を援用する。
≪クラスター抽出の具体例≫
表1に示す関係性行列Z を例にして、この発明の具体的な処理手順を示す。
まず、第1クラスターのクラスター指標の計算例を示す。改めて、関係性行列Z =[zij] を以下に示す。
Figure 2012079225
この関係性行列Z に対する転置行列ZT は、次のようになる。
Figure 2012079225
関係性行列Z の要素数が、n>m、即ち(ユーザ数)>(アイテム数)であるとする。その場合、アイテムについてのクラスター指標のベクトルwi 1 をまず算出する。固有値計算に用いる行列ZTZ を以下に示す。
Figure 2012079225
行列ZTZ は、m個のアイテム間の関連性を表す(m×m)関係性データ行列である。要素の値が大きいほど、関係性が強いことを示す。例えば、各アイテムが商品なら、合わせ買いの頻度が高いことを示している。
第1クラスターを抽出する。行列ZTZ の最大固有値に対応する固有ベクトルとして、アイテムのクラスター指標
Figure 2012079225
を求める。その結果を表9に示す。
Figure 2012079225
表9は、m 個のアイテム(i-1,・・・,i-m)について所属度を並べたm 次元の固有ベクトルである。
求められた固有ベクトルwi 1 を次の式、
Figure 2012079225
に適用し、ユーザのクラスター指標
Figure 2012079225
を求める。以上の処理手順で、第1クラスターを抽出することができる。
続いて、第k クラスター(ただし、k は1より大きい整数)の共クラスター抽出について説明する。
第k クラスターを抽出する際の関係性行列は、表5および(3)式または(4)式に示したように、関係性行列S のユーザについての対角要素をsii に置換したものである。ここで、sii を第i対角要素に持つn×n対角行列をWu と置く。表10に対角行列Wuを示す。
Figure 2012079225
表10で、siiは、ユーザi に対するペナルティ重みである。ユーザi がまだどのクラスターにも所属していなければ、siiは0(ゼロ)に近い値である。ユーザi がすでにどこかに所属していれば、siiは負の小さな値になる。また、Wi をsn+t,n+t を第t 対角要素に持つ対角行列とする。
このとき、修正後の関係性データ行列は
Figure 2012079225
となり、固有値問題は以下のように分解される。
Figure 2012079225
ただし、In はn×n、Im はm×mの単位行列であり、λk はSk の最大固有値である。
ユーザのクラスター指標ベクトルwu k の算出は、以下の何れかの手順で算出する固有値問題に帰着される。
第1の手順は、次の式を用いて、ユーザのクラスター指標ベクトルwu k を先に計算するものである。固有値計算に用いる行列は(ユーザ数)×(ユーザ数)の要素を持つ。
Figure 2012079225
次の表11に、上式の対角行列(In-Wu)の例を示す。
Figure 2012079225
第2の手順は、次の式を用いて、アイテムのクラスター指標ベクトルwi k を先に求めるものである。固有値計算に用いる行列は(アイテム数)×(アイテム数)の要素を持つ。
Figure 2012079225
次の表12に、上式の(In-Wu-1の例を示す。
Figure 2012079225
上式で
Figure 2012079225
の各要素は、
Figure 2012079225
で求められる。
このように、関係性行列S のスパース性を利用することで、従来に比べて計算量の削減が可能となる。
≪新規ユーザへの適応≫
つぎに、新たなユーザが追加された場面を考える。即ち、すでに十分な数のユーザのデータが収集されており、
Figure 2012079225
Figure 2012079225
が求まった後に、新規ユーザ(第n+1 ユーザ)を追加する場合である。
新規ユーザのm 種類のアイテムに関する関連性を要素とするベクトルをzn+1 =(zn+1,1,…,zn+1,m)Tとする。従来の計算モデルではユーザの追加は考慮されていなかったが、この発明に係る協調フィルタリング処理手法によれば、ユーザとアイテムのクラスター指標を分離して算出しているため、信頼性の高いwi k が求められているなら、そこから第(n+1) ユーザのメンバシップ指標が推定可能であると期待できる。
nが十分に大きく、
Figure 2012079225
が精度良く求まっているならば、第n+1 ユーザを加えた履歴データに対して上述の計算を行ったとしても、その結果求められる
Figure 2012079225
Figure 2012079225
とはほとんど変化しないと考えられるからである。
そこで、
Figure 2012079225
を信頼できる値であるとし、再計算をせずに第n+1 ユーザのクラスター指標のみを簡便に計算する。
(24)式から、wu k,n+1 とwi k の間には以下の関係が得られる。
Figure 2012079225
したがって、第(n+1) ユーザの第kクラスターへの帰属度の推定値は、以下のように求められる。
Figure 2012079225
同様に、アイテムの追加も考えられる。第(m+1) アイテムとn 人のユーザとの関連性ベクトルが
Figure 2012079225
と得られたなら、(25)式から、
Figure 2012079225
なる関係が得られるため、第(m+1) アイテムのクラスターk への帰属度の推定値は、以下のように求められる。
Figure 2012079225
運用に際しては、一旦、充分な量のトレーニングデータからwu k とwi k が求められたなら、wu k やwi k に大きな変化が生じないとみなされる範囲内で、固有値計算を行うことなしにユーザとアイテムの追加が随時可能となる。
≪新規ユーザ追加の具体例≫
新規ユーザ(第n+1 ユーザ)を追加する場合の計算例を以下に示す。
次の表13は、第n+1 ユーザの各アイテムに対する履歴データの例である。即ち、第n+1 ユーザの追加により、表1の関係性行列Z の第n+1 行目の項目u-(n+1)に追加されるべき各アイテムについての要素である。
Figure 2012079225
表13に示すベクトルの各要素は、第n+1 ユーザがm個のアイテム(i-1,・・・,i-m)について購入したか否かを示している。
次の表14は、第k クラスターにおけるアイテムのクラスター指標を示すm 次元の固有ベクトルwi k を示している。表14の各要素は、m 個のアイテム(i-1,・・・,i-m)について、第k クラスターへの所属度を示す固有ベクトルである。
表14の固有ベクトルは、新規ユーザを追加する前に、n人のユーザについてのデータから計算された値である。これに対して、たかだか一人のユーザ(第n+1 ユーザ)のデータが付加されただけでは、再計算を行っても変化がほとんどないと考えられる。よって、この固有ベクトルを、そのまま第n+1 ユーザのクラスター指標計算に用いる。
Figure 2012079225
そうすれば、第n+1 ユーザの第k クラスターへの所属度は、(29)式から類推されるように、
Figure 2012079225
と、
Figure 2012079225
との内積、即ち、m 回の掛け算と足し算を行い、それを、
Figure 2012079225
で割り算するだけで計算できる。このように、新規ユーザが追加されたときの計算は、非常に簡便である。
≪実験例≫
この発明の有効性を示すために、以下の実験を行った。
実験には、日本経済新聞社のNEEDS-SCAN/PANELより、2000年の購買調査の対象となった996 世帯が18 種類の製品を所有しているか否かのデータ(996×18 データ行列)を用いた。
実験例1:計算時間の比較
この発明では、当該推薦を行う際のクラスター抽出にかかる時間の比較を行った。固有値計算はQR分解とハウスホルダー変換により行った。また、Intel Xeon CPU3.0GHz を搭載したWindows(登録商標) XP コンピュータを用いた。
下の表15に、この実験に係る関係性行列Zのデータの一例を示す。
Figure 2012079225
この実験において、固有値計算を行う(996+18)×(996+18)関係性行列のデータの一例を次の表16に示す。
Figure 2012079225
計算時間の比較結果を表17に示す。表17で、計算方法の「full matrix」は前記非特許文献2に示した従来の計算方法を示す。「user matrix」は、この発明おいてn×n 行列の固有値問題から先にwu 1(あるいはwu k )を算出するアプローチを用いた場合であり、「item matrix」は、この発明においてm×m 行列からwi 1(あるいはwi k )を先に算出する場合である。ただし、当然のことではあるが、「user matrix」および「item matrix」のいずれのアプローチを用いた場合も同じクラスターが抽出されている。
Figure 2012079225
次の表18は、「full matrix」の計算方法において求まる固有ベクトルのデータの一例を示している。即ち、996人のユーザ(u-1,・・・,u-996)と18個のアイテム(i-1,・・・,i-18)を合わせた(996+18)個の項目についての(996+18)次元固有ベクトルである。
Figure 2012079225
「full matrix」の計算方法では、ユーザのクラスター指標(996個世帯に対応する各要素)とアイテムのクラスター指標(18種類の製品に対応する各要素)が一括で計算される。
一方、「user matrix」の計算方法においては、固有値計算を行うのは、関係性行列ZZT である。次の表19は、関係性行列ZZT のデータの一例を示している。
Figure 2012079225
表19に示すように、関係性行列ZZT は、996人のユーザ間の関連性を表す(996×996)の要素からなる関係性行列である。
次の表20は、表19の関連性行列から求まる固有ベクトルのデータの一例を示している。
Figure 2012079225
表20に示すように、固有ベクトルは、996人のユーザ(u-1,・・・,u-996)についての996次元のベクトルである。
ユーザのクラスター指標wu 1のみが固有値計算で算出される。アイテムのクラスター指標wi 1 は、
Figure 2012079225
により、即ち、アイテムごとに、996回の掛け算と足し算、および1回の割り算のみという簡便な計算で算出される。
また、「item matrix」の計算方法では、先にアイテムのクラスター指標wi 1(あるいはwi k )を固有値計算により算出し、その後に、求まっているクラスター指標から簡略計算のみでユーザのクラスター指標wu 1(あるいはwu k )を算出する。「item matrix」の計算方法で固有値計算を行うのは、関係性行列ZTZ である。次の表21は、関係性行列ZTZ のデータの一例を示している。
Figure 2012079225
表21に示すように、関係性行列ZTZ は、18種類のアイテム間の関連性を表す(18×18)の要素からなる関係性データ行列である。
次の表22は、表21の関係性行列から求まる固有ベクトルのデータの一例を示している。
Figure 2012079225
表22に示すように、固有ベクトルは、18個のアイテム(i-1,・・・,i-18)についての18次元のベクトルである。
アイテムのクラスター指標wi 1 のみが固有値計算で算出される。ユーザのクラスター指標wu 1 は、
Figure 2012079225
により、即ち、ユーザごとに、18回の掛け算および足し算と1回の割り算のみという簡便な計算で算出される。
以上、従来の「full matrix」、この発明による「user matrix」および「item matrix」の3種類の計算方法での計算時間の比較結果を示す表17から、この発明による計算処理の手順に従えば、従来手法の241秒に比べて計算時間が大幅に削減できたことが分かる。「user matrix」では、従来の約68% の計算時間であり、「user matrix」の場合は、従来の約2% の計算時間にとどまっている。この実験例では、アイテム数m =18 がユーザ数n =996よりも大幅に少ないことから、アイテム行列を用いた際の効率化の効果が特に際立っている。本実験のデータでは、アイテム数が少ないことが初めから分かっているため、実用の際には「item matrix」の計算方法を採用すればよいことは事前に分かっている。つまり、「full matrix」あるいは「user matrix」を行う必要がないことは、あらかじめ分かる。しかし、この比較実験で「user matrix」をあえて実行した意義は次の点にある。即ち、「full matrix」の縦横の項目数996+18 =1014 のわずか2% に満たない18項目を減らして固有値計算を行った「user matrix」であっても、計算時間が約32%短縮された。このことから、固有値の計算に係る行列の要素数を減らすというこの発明の思想の有効性が示されたといえる。
実験例2:新規ユーザへの適応
つぎに、新規ユーザへの適応について、実験を行った。実験の手順は次のようなものである。実験例1と同じ996人のユーザを、アイテムのクラスター指標wi 1 (あるいはwi k )の算出に用いるトレーニングデータ(トレーニングユーザ)と、評価用のテストデータに分ける。
そして、クラスター構造(wu 1 とwi 1 、あるいはwu k とwi k )の推定に用いるトレーニングユーザの数を徐々に減じ、残りを新規ユーザ(テストユーザ)とみなしてメンバシップ指標を簡便な計算のみで推定した。
次の表23は、トレーニングデータに用いるユーザ数を500とした場合の関係性行列Z のデータの一例を示している。
Figure 2012079225
トレーニングデータ(u-1からu-500)の情報のみから、アイテムのクラスター指標wi 1 を固有値計算で算出する。
一方、テストデータとしたユーザ(u-501からu-996)のクラスター指標wu 1 は、トレーニングデータのみから算出されたwi k を用いて、
Figure 2012079225
という簡便な計算のみで算出する。
テストユーザ(新規のユーザ)について、アイテムのクラスター指標の更新なしに計算した値wu 1 と、実験例1ですべてのユーザをトレーニングデータとして計算したクラスター指標wu 1 とを比較する実験を行った。
図1は、前述のようにテストユーザ数を変えながら、アイテムのクラスター指標の更新なしに計算した値wu 1 とすべてのユーザをトレーニングデータとして計算したクラスター指標wu 1 との平均誤差の推移を示すグラフである。
図1に示すように、500 件以上のユーザをトレーニングユーザとした場合には、テストユーザについても誤差0.001 以下でメンバシップ指標を推定できた。例えば、表20に示すように、固有ベクトル各要素は、0(ゼロ)以上かつ1以下の値をとる。表20の固有ベクトルの最小の要素は、0.1である。この固有ベクトルwu 1 の各要素の値は、各ユーザが第1クラスターに属するか否かの判定のために予め定められた閾値と比較される。第k クラスターの固有ベクトルwu k についても同様である。前記閾値は0から1の間に設定されるが、通常、0.1 以下の小さな閾値でクラスターへの属否を判定することは考えられない。これに対して、図1に示すように、996 人中500 人を新規ユーザとしたときの誤差は、0.001 以下である。この誤差は、最小の要素の値である0.1 に対して1% 以下にとどまっている。即ち、新規ユーザがトレーニングユーザ数とほぼ同じになる500人より少ないか同程度までは、精度よく推定できていることが分かる。
以上のことから、充分な量の関係性データからクラスター構造を推定したのちは、簡便な計算のみで新規ユーザに対しても帰属クラスターが精度よく推定できることが示された。
また、トレーニングユーザと同数程度の新規ユーザが追加されたのちは、クラスター構造の再構築が必要といえる。
前述した実施の形態の他にも、この発明について種々の変形例があり得る。それらの変形例は、この発明の範囲に属さないと解されるべきものではない。この発明には、請求の範囲と均等の意味および前記範囲内でのすべての変形とが含まれるべきである。

Claims (8)

  1. n 人のユーザのm 個のアイテム(n、m は1より大きい整数)に対する嗜好および/または受容の度合いが肯定的であることを表すスコア1または否定的または未知であることを表すスコア0の何れかを要素とし、縦横が各ユーザと各アイテムとの和集合からなる(n+m )×(n+m )の正方行列、
    Figure 2012079225
    (ただし、Zは、縦横がn×m の二値の行列、Oはゼロ値行列)
    が与えられたとき、ユーザとアイテムとが強い関係性を有する組み合わせを少なくとも一つのクラスターとしてコンピュータが抽出する処理であって、
    前記行列S の最大固有値λ1 および固有ベクトルw1 を算出するにあたり、前記固有ベクトルw1 をユーザについての部分ベクトルwu 1 とアイテムについての部分ベクトルwi 1 とに分け、前記行列S の固有値を求める計算式を、
    Figure 2012079225
    の2つに分割し、(3)式よりwu 1 を用いてwi 1 を表した
    Figure 2012079225
    を(2)式に代入してなる
    Figure 2012079225
    の固有値計算を解いてベクトルwu 1 を求め、
    求めたwu 1 を(4)式に適用してベクトルwi 1 を求めることにより固有ベクトルw1を得、
    得られた固有ベクトルw1 の各要素が予め定められた閾値以上か否かに応じて各要素に対応するユーザおよびアイテムが第1のクラスターに属するか否かを少なくとも決定する分類工程と、
    前記分類工程の決定に基づく第1のクラスターのユーザに対して第1のクラスターのアイテムを推薦候補とする推薦工程とを備えることを特徴とする協調フィルタリング処理方法。
  2. 前記分類工程は、(4)、(5)式に代えて、(2)式よりwi 1 を用いてwu 1 を表した
    Figure 2012079225
    を(3)式に代入してなる
    Figure 2012079225
    の固有値計算を解いてベクトルwi 1 を求め、
    求めたwi 1 を(6)式に適用してベクトルwu 1 を求めることにより固有ベクトルw1を得る請求項1に記載の方法。
  3. 前記分類工程は、n <m の場合に(4)および(5)式を用いて固有ベクトルw1 を得る請求項1に記載の方法。
  4. 前記分類工程は、n >m の場合に(6)および(7)式を用いて固有ベクトルw1 を得る請求項2に記載の方法。
  5. 前記分類工程は、ユーザとアイテムの組み合わせを二以上のクラスターとして抽出するために第1のクラスターに属するユーザおよびアイテムを決定した後、(1)式の行列S に逐次的クラスター抽出のアルゴリズムを適用し、
    前記アルゴリズムは、第k クラスター(k は1より大きい整数)を抽出するにあたり、k =2のときは(1)式の行列S の各対角要素を所定の規則に基づき修正した行列であり、k >2のときは、第(k −1)クラスターを抽出する際に用いた行列Sk-1 の各対角要素を所定の規則に基づき修正した行列
    Figure 2012079225
    (ただし、Wu はsii を第i 対角要素に持つn×n 対角行列、i は1以上n 以下の整数、Wi はsn+t,n+t を第t 対角要素に持つm×m 対角行列、t は1以上m 以下の整数)
    の最大固有値λkおよび固有ベクトルwk を算出するために、前記固有ベクトルwk をユーザについての部分ベクトルwu k とアイテムについての部分ベクトルwi k とに分け、前記行列Sk の固有値を求める計算式を、
    Figure 2012079225
    (ただし、InおよびImはそれぞれn 次元、m 次元の単位行列)
    の2つに分割し、(10)式よりwu k を用いてwi k を表した下記(12)式を(9)式に代入してなる下記(11)式の固有値計算を解いてwu k を求め、求めたwu k を(12)式に適用してwi k を求めることにより固有ベクトルwk を得、
    Figure 2012079225
    あるいは、(9)式からwi k を用いてwu k を表した下記(14)式を(10)式に代入してなる下記(13)式の固有値計算を解いてwi k を求め、求めたwi k を(14)式に適用してwu k を求めることにより固有ベクトルwk を得、
    Figure 2012079225
    得られた固有ベクトルwk の各要素が予め定められた閾値と比較して閾値以上か否かに応じて各要素に対応するユーザおよびアイテムが第k クラスターに属するか否かを決定する請求項1〜4の何れか一つに記載の方法。
  6. 前記分類工程は、n <m の場合に(11)および(12)式を用いて固有ベクトルwk を得る請求項5に記載の方法。
  7. 前記分類工程は、n >m の場合に(13)および(14)式を用いて固有ベクトルwk を得る請求項5に記載の方法。
  8. 請求項1または2に記載の方法をコンピュータに実行させるためのプログラム。
JP2010225844A 2010-10-05 2010-10-05 協調フィルタリング処理方法およびプログラム Pending JP2012079225A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010225844A JP2012079225A (ja) 2010-10-05 2010-10-05 協調フィルタリング処理方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010225844A JP2012079225A (ja) 2010-10-05 2010-10-05 協調フィルタリング処理方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2012079225A true JP2012079225A (ja) 2012-04-19

Family

ID=46239355

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010225844A Pending JP2012079225A (ja) 2010-10-05 2010-10-05 協調フィルタリング処理方法およびプログラム

Country Status (1)

Country Link
JP (1) JP2012079225A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107274093A (zh) * 2017-06-13 2017-10-20 国网新疆电力公司经济技术研究院 一种电网运行安全的风险评估方法
JP2017215647A (ja) * 2016-05-30 2017-12-07 ヤフー株式会社 選択装置、選択方法および選択プログラム
US10083211B2 (en) 2014-12-10 2018-09-25 Iucf-Hyu (Industry-University Cooperation Foundation Hanyang University) Item recommendation method and apparatus
KR20210053247A (ko) * 2019-11-01 2021-05-11 국방과학연구소 태스크 할당 방법 및 장치

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10083211B2 (en) 2014-12-10 2018-09-25 Iucf-Hyu (Industry-University Cooperation Foundation Hanyang University) Item recommendation method and apparatus
JP2017215647A (ja) * 2016-05-30 2017-12-07 ヤフー株式会社 選択装置、選択方法および選択プログラム
CN107274093A (zh) * 2017-06-13 2017-10-20 国网新疆电力公司经济技术研究院 一种电网运行安全的风险评估方法
KR20210053247A (ko) * 2019-11-01 2021-05-11 국방과학연구소 태스크 할당 방법 및 장치
KR102411173B1 (ko) 2019-11-01 2022-06-21 국방과학연구소 태스크 할당 방법 및 장치

Similar Documents

Publication Publication Date Title
CN113705772A (zh) 一种模型训练方法、装置、设备及可读存储介质
Sun et al. Feature selection using rough entropy-based uncertainty measures in incomplete decision systems
Sharma et al. Classification through machine learning technique: C4. 5 algorithm based on various entropies
Chen et al. A modified super-efficiency measure based on simultaneous input–output projection in data envelopment analysis
Liang et al. An equivalent measure of partial correlation coefficients for high-dimensional gaussian graphical models
CN107480694B (zh) 基于Spark平台采用两次评价的加权选择集成三支聚类方法
Cheng et al. LorSLIM: low rank sparse linear methods for top-n recommendations
Mittas et al. Improving analogy-based software cost estimation by a resampling method
CN108171010B (zh) 基于半监督网络嵌入模型的蛋白质复合体检测方法与装置
CN102326160A (zh) 用于对产生于数据库的数据群集的方法和系统
Zhang et al. A rough set-based multiple criteria linear programming approach for the medical diagnosis and prognosis
US20210383275A1 (en) System and method for utilizing grouped partial dependence plots and game-theoretic concepts and their extensions in the generation of adverse action reason codes
AU2020326407B2 (en) Extending finite rank deep kernel learning to forecasting over long time horizons
CN114154557A (zh) 癌症组织分类方法、装置、电子设备及存储介质
JP2012079225A (ja) 協調フィルタリング処理方法およびプログラム
Paul et al. ML-KnockoffGAN: Deep online feature selection for multi-label learning
Shajarian et al. A clustering-based matrix factorization method to improve the accuracy of recommendation systems
Li et al. Time series clustering based on relationship network and community detection
CN111428741B (zh) 网络社区的发现方法、装置、电子设备及可读存储介质
Li et al. Affinity inference with application to recommender systems
Guo et al. Explainable recommendation systems by generalized additive models with manifest and latent interactions
CN117252665B (zh) 业务推荐方法、装置、电子设备及存储介质
Xu et al. Hawkes processes on graphons
Łukasik et al. Clustering with nature-inspired metaheuristics
CN113688229B (zh) 一种文本推荐方法、系统、存储介质和设备