CN110503508A - 一种层级多粒度矩阵分解的物品推荐方法 - Google Patents

一种层级多粒度矩阵分解的物品推荐方法 Download PDF

Info

Publication number
CN110503508A
CN110503508A CN201910637456.1A CN201910637456A CN110503508A CN 110503508 A CN110503508 A CN 110503508A CN 201910637456 A CN201910637456 A CN 201910637456A CN 110503508 A CN110503508 A CN 110503508A
Authority
CN
China
Prior art keywords
layer
user
article
score
predicting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201910637456.1A
Other languages
English (en)
Inventor
杨波
邹海瑞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN201910637456.1A priority Critical patent/CN110503508A/zh
Publication of CN110503508A publication Critical patent/CN110503508A/zh
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0623Item investigation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种层级多粒度矩阵分解的物品推荐方法,由于在推荐系统中,矩阵分解算法是一种将评分矩阵分解为两个低维矩阵的推荐算法,并能够学习到用户偏好和物品特征。但目前的矩阵分解算法及其改进算法都只利用到单个特征向量来表示用户和物品,因此存在预测精度低的问题。针对该技术问题,本发明提出了一种可用于具有用户评分的购买物品推荐的基于深度学习的层级多粒度矩阵分解推荐方法。本发明结合深度学习提取特征的优势,利用多个不同的特征向量来表示同一用户或物品,使得用户的偏好表示更加准确。此外,本发明也克服了现有的基于深度学习的推荐算法仅利用最后一层来做预测,却忽略了神经网络每层特征变换带来的信息损失的技术问题。

Description

一种层级多粒度矩阵分解的物品推荐方法
技术领域
本发明属于推荐技术领域,具体涉及一种层级多粒度矩阵分解的物品推荐方法。
背景技术
随着大数据的大力发展,推荐技术越发成熟,被推荐的物品可以是用户在某个平台网站或者移动终端的应用程序上购买的商品,如生活用品、书籍、歌曲、电影等。当前,用于电影的推荐方案主要存在下述不足:
第一,目前的基于矩阵分解的推荐算法要求对用户或物品用同一维度的特征向量来描述,而这显然是不符合实际情况的。例如,在推荐过程中,有些用户与系统交互次数多,推荐系统能够收集到这些用户大量的历史行为数据;而另一些用户与系统交互次数少,推荐系统只能收集到其少量的历史行为数据。因此,当推荐算法采用低维的特征向量来表示所有用户或物品时,对于拥有大量历史行为数据的用户来说,低维的特征向量是不足以表示该类用户的。而采用高维的特征向量时,对于拥有少量历史行为数据的用户来说又太过于泛化,也不能准确表示该类用户。因此,如何发展一种能够适用于所有用户偏好场景的推荐算法是目前研究中面临的一个关键问题。
第二,深度学习被成功的应用于自然语言处理和图像处理等领域,所以目前大量的基于深度学习的推荐算法也都采用类似的网络结构学习深层特征。但是,这种提取特征的网络结构由于仅使用了最后一层来做预测,却忽略了神经网络每层特征变换带来的信息损失问题,因此,需要综合考虑推荐系统领域和其它领域的相同点与差异,设置一种适用于推荐系统领域的改进方法。
发明内容
本发明的发明目的在于:针对上述存在的问题,提供一种层级多粒度矩阵分解的物品推荐方法。
本发明的一种层级多粒度矩阵分解的物品推荐方法,包括下列步骤:
步骤1:设置整体评分预测模型:
所述整体评分预测模型包括用户数据输入层、物品数据输入层、L层的用户特征层、物品特征层和预测评分处理层,以及预测评分输出层;
其中,用户特征层1通过公式得到第1层的隐特征向量u1,f()表示预设的激活函数,W1 (u)分别表示用户特征层1的映射权重和偏置项;Ιu表示用户u的输入数据,通过拼接用户u的属性特征向量Xu和用户u的所有评分记录Ru得到;
用户特征层j通过公式得到第j层的隐特征向量u1,f()表示预设的激活函数,Wj (u)分别表示用户特征层j的映射权重和偏置项,其中j=2,…,L;
物品特征层1通过公式得到第1层的隐特征向量v1,f()表示预设的激活函数,W1 (i)分别表示物品特征层1的映射权重和偏置项;Ιi表示物品i的输入数据,通过拼接物品的评分Ri和物品属性特征向量Yi得到;
物品特征层j通过公式得到第j层的隐特征向量u1,f()表示预设的激活函数,Wj (i)分别表示物品特征层j的映射权重和偏置项,其中j=2,…,L;
预测评分处理层基于同一层的用户特征层和物品特征层获取不同层的评分预测值 其中符号上标“T”表示转置;
预测评分输出层综合L层的评分预测值输出每个用户对每个待推荐物品的最终评分预测值
步骤2:采集训练数据集,对步骤1所设置的整体评分预测模型进行网络参数训练,得到训练好的整体评分预测模型;
步骤3:基于当前物品集中未被用户评分的物品得到每个用户的待推荐物品集;
拼接当前用户u的属性特征向量Xu和用户u的所有评分记录Ru,得到用户u的输入数据Ιu;并输入训练好的整体评分预测模型的用户特征层1;
提取并拼接用户u的待推荐物品集中的各物品的评分Ri和物品属性特征向量Yi,得到物品的输入数据Ιi;并输入训练好的整体评分预测模型的物品特征层1;
基于训练好的整体评分预测模型的预测评分输出层得到用户u对待推荐物品集中的各物品的终评分预测值
取前T个最高的终评分预测值对应的物品作为当前用户u的物品推荐列表并向用户u进行物品推送处理。
综上所述,由于采用了上述技术方案,本发明的有益效果是:
本发明结合深度学习提取特征的优势,利用多个不同的特征向量来表示同一用户或物品,使得用户的偏好表示更加准确。此外,本发明避免了现有的基于深度学习的推荐算法仅利用最后一层来做预测,却忽略了神经网络每层特征变换带来的信息损失的技术问题。
附图说明
图1为特征提取网络的结构示意图;
图2为本发明的整体评分预测模型结构示意图;
图3为本发明具体实施方式中,利用多层感知机模型预测最终评分模型示意图;
图4为针对数据集MovieLens-100k,正则项对评估指标的影响示意图;
图5为针对数据集MovieLens-1m,正则项对评估指标的影响示意图;
图6为针对数据集MovieLens-HetRec,正则项对评估指标的影响示意图;
图7为针对数据集MovieLens-100k,学习率对本发明的影响示意图;
图8为针对数据集MovieLens-1m,学习率对本发明的影响示意图;
图9为针对数据集MovieLens-HetRec,学习率对本发明的影响示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面结合实施方式和附图,对本发明作进一步地详细描述。
在推荐系统中,矩阵分解算法是一种将评分矩阵分解为两个低维矩阵的推荐算法,并能够学习到用户偏好和物品特征。但目前的矩阵分解算法及其改进算法都只利用到单个特征向量来表示用户和物品,因此存在预测精度低的问题。针对该技术问题,本发明提出了一种可用于具有用户评分的购买物品(如生活用品、书籍、歌曲、电影,尤其是电影)推荐的基于深度学习的层级多粒度矩阵分解推荐方法。本发明结合深度学习提取特征的优势,利用多个不同的特征向量来表示同一用户或物品,使得用户的偏好表示更加准确。此外,本发明也克服了现有的基于深度学习的推荐算法仅利用最后一层来做预测,却忽略了神经网络每层特征变换带来的信息损失的技术问题。
首先,构建一种特征提取网络,参见图1,其包括输入层(辅助数据S(对用户而言,则指用户属性,例如性别、年龄、职业等;对于物品,则指物品属性,如电影,则可以包括电影类型,电影年代等)和评分数据R)和多层隐藏层。
即在本发明所采用的特征提取网络中,将物品的评分数据R和其它辅助数据S共同作为特征提取网络的输入层数据。为了得到第一个隐藏层的特征表示,将输入层数据进行前向传播,其变换形式可见公式为:
h1=φ(WsS+WRR+b1)
其中,φ表示预置的激活函数,Ws、WR分别表示辅助数据S、评分数据R与第一个隐藏层之间的层间权重,b1表示第一个隐藏层的偏置项。
类似的方式也可以得到后面隐藏层的特征表示,用公式表示为:
hj=φ(Wjhj-1+bj),j=2,3,…
基于本发明图1所示的特征提取网络,本具体实施方式中,用于任一物品的整体评分预测模型如图2所示,从图2可以看出,对于评分矩阵R(物品的评分数据R通常采用矩阵的方式给出,故也称为评分矩阵R),其每一行表示一个用户的评分记录,每一列表示一个物品的评分记录。对于用户u,取出其评分记录Ru,而对于物品i,取出其评分记录Ri。随后将Ru和用户属性特征向量Xu拼接作为用户特征提取网络的输入数据,以Ιu表示,Ri和物品属性特征向量Yi拼接作为物品特征提取网络的输入数据,以Ιi表示。
其中,输入数据Ιu、Ιi可以具体表示为:
Ιu=concat(Xu,Ru)
Ιi=concat(Yi,Ri)
其中,concat()表示合并处理,即串接处理。得到了网络层的输入数据后,再利用基于神经网络的特征提取网络分布提取用户和物品特征。其中提取用户特征的特征提取网络定义为用户特征提取网络,提取物品特征的特征提取网络定义为物品特征提取网络。
对于用户特征提取网络来说,假设神经网络共有L层,而对于每一隐藏层lj,j=1,…,L,第j层映射权重为Wj,偏差项为bj,并且可以得到每一层的隐特征向量表示。
对于用户特征提取网络,其每一层的隐特征向量(uj)描述可以表示为:
对于物品特征提取网络,其每一层的隐特征向量(vj)描述可以表示为:
从而可以得到基于同层的用户特征层和物品特征层得到的每层的评分预测值为:
其中,g()表示表示向量uj和vj的一种预置的交互方式,比如g()函数可以是内积函数。
本具体实施方式中,采用矩阵分解模型来预测每层的评分预测值,即:
通过该可以在网络的每层计算出一个评分预测值而为了得到最终评分预测值,可以采用下述方式中的任一种:
(1)最简单的一种方式就是取平均值,即最终评分预测值为:
采用平均值的思想就是认为所有的网络层提取的特征都同等重要,但现实情况并非如此。假设某些层预测准确,而某些层预测误差大,最终的预测结果将介于它们之间。此外,每层预测评分的权重都是1/L,而最终评分预测值在1到5分之间,这样的优势就是会强制每层的评分预测值都在1到5分之间。
(2)另一种结合方式就是求和,即最终评分预测值为:
求和方式类似于取平均,不过每层预测评分的权重为1,而最终评分预测值在1到5分之间,这样导致每层的预测评分值平均在1/L到5/L之间是,若L比较大的时候,整个网络可能会很难训练。
(3)神经网络在逐层提取特征的过程中,信息会往后传播,尽管在传播过程中会有信息损失,但越往后的网络层通常包含的信息更加准确,因此也会认为后面的网络层更重要。因而,本发明中,给网络层赋予不同的权重能够区分出隐藏层特征的重要性,加权预测的方式得到最终评分预测值的公式为:
1=α12+…+αL
其中,假设评分预测值的范围在1到5分之间,通过对权重进行归一化操作,使得最终的评分预测值也在1到5分之间。
(4)将所有的评分预测值看作输入,然后构建神经网络的分类模型(即评分预测模型),预测最终的评分结果,其网络结构如3所示,将L个评分预测值作为输入Ι,基于多层感知机模型(基于多个非线性层来学习交互关系)得到最终评分预测值
即本发明中,认为评分权重不是固定不变的,而是可训练的。此外,通过引入的非线性的变换函数,能够捕捉每层的评分预测值的非线性关系,其中,3的输入数据和对应的最终评分预测值的表达式具体为:
其中,concat(·)函数先将每层评分预测值进行合并,作为网络预测模型的输入特征向量,然后在最后一层预测结果。通过引入神经网络模型能够自动学习到每层的评分预测值的重要性。
本具体实施方式中,图4所示的评分预测模型,其对应的损失函数如下:
其中,K表示用户-物品对集合,λ表示正则项系数,freg表示正则项。
本具体实施方式中,仅需要对最终评分预测值建立损失函数,然后优化神经网络模型就能求出所有的参数,其中正则项仅是对网络权重的约束,具体为:
本具体实施方式中,对评分预测模型的训练过程设置如下;
假设评分预测模型采用加权的评分预测方式,其具体的损失函数可表示为:
对于用户u和物品i,采用随机梯度下降算法学习隐特征,更新规则见下式:
其中,η表示学习率,详细的梯度计算见公式具体为:
得到u和v后,就可以使用反向传播算法学习到网络的权重和偏差。
实施例
数据集:
本实施例的实验采用3个数据集,分别是MovieLens-100k、MovieLens-1m以及MovieLens-HetRec。其中MovieLens-100k和MovieLens-1m是被广泛使用的关于电影评分的两个数据集;MovieLens-100k是一个较小的电影评分数据集,其中包括943个用户对1682部电影的100000条评分数据,而MovieLens-1m数据集包括6040个用户对3706部电影的1000209条评分数据。除此之外,MovieLens-HetRec是来自于MovieLens和IMDB(InternetMovie Database)网站的评分数据集,其中包括来自于2113个用户对10109部电影的855598条评分数据。各个数据集具体统计信息如表1所示
表1数据集的统计信息
对比的指标:
评分预测任务广泛使用的两种评价指标是平均绝对误差(Mean Absolute Error,MAE)和均方根误差(Root Mean Squared Error,RMSE)。对于测试集的任一用户u和物品i来说,假设用户u对物品i的实际评分为rui,而预测评分为K表示测试集合,则评价指标的具体定义如下:
均方根误差RMSE的公式定义如下:
平均绝对误差MAE的公式定义如下:
可以看到,本发明中,评价指标和推荐方法的目标函数所采用平方损失函数是一致的,并且预测的评分可以被看作一个连续的值,利用真实值和预测值的差值更能评估算法的准确性。
为了验证本发明的推荐性能,将本发明的推荐方法与现有的推荐方法(BiasedSVD(带偏置项的奇异值分解/Biased singular value decomposition)、ReDa(Representation learning via Dual-Autoencoder)、SA-HCF(Hybrid CollaborativeRecommendation via Semi-AutoEncoder)、AutoSVD++(An Efficient HybridCollaborative Filtering Model via Contractive Auto-encoders))进行验证比对,具体如表2所示:
表2实验结果
从表2可知,本发明提出的推荐方法LMGMF(Layered Multi-granularity MatrixFactorization)进一步提升了推荐处理的预测准确率。与本发明对比的所有现有推荐方式都是采用单隐特征向量来表示所有用户和物品,但这种做法并不能对所有用户和物品进行完整的表示,而本发明考虑到了这一点。
接下来将完成多组实验以验证超参数对本发明的推荐方案性能的影响,超参数包括正则项、网络层数、学习率以及评分预测的结合方式。
(1)正则项对算法的影响分析。
从图4~6可以看出,当不使用正则项时,MAE和RMSE上的效果比较差,随着使用比较小的正则项系数,MAE和RMSE的值开始减小,这就说明正则项的使用使得模型的泛化能力更好,减小了过拟合的风险。当正则项在小于0.01时对MAE和RMSE的影响不是很大,但当正则项超过0.01时,推荐方案的预测误差将急剧上升。很可能的一种原因是当正则项设置的非常大时,推荐方案的处理过程会出现欠拟合行为,因此导致预测误差上升。从图4~6还可以得出,正则项设置为0.01能实现最好的结果。
(2)学习率对算法的影响分析。
学习率对本发明的推荐方案的影响如图7~9所示。从图7~9可以看出,当学习率小于0.001时,MAE和RMSE缓慢下降,也就是说,当学习率设置的非常小时,预测误差反而越大。这是因为较小的学习率使得模型收敛缓慢,很可能陷入局部最优点,这就导致了虽然能得到不错的结果,但往往不能取得全局最优值。而当学习率超过0.001时,MAE和RMSE开始急速上升,模型的预测效果也变得越来越差。导致这一现象的原因很可能是因为较大的学习率使得模型容易跳过最优点或者在最优点附近震荡,从而无法达到收敛。由此可知,学习率的选择对模型的预测结果是非常关键的,综合3个数据集上的结果来看,本发明中将学习率设置为0.001能得到较好的结果。
(3)评分预测结合方式的影响分析。
为了评估神经网络中预测结果的结合方式,表3、表4、表5给出了各种结合方式的预测效果。
表3在MovieLens-100k数据集上的实验结果
RMSE MAE
平均 0.8754 0.6926
求和 0.9189 0.7258
加权-权值逐层递增 0.8664 0.6821
网络模型预测 0.8875 0.7035
加权-权值逐层递减 0.8956 0.7055
仅利用最后一层预测 0.9036 0.7174
表4在MovieLens-1m数据集上的实验结果
表5在MovieLens-HetRec数据集上的实验结果
RMSE MAE
平均 0.8011 0.6125
求和 0.8336 0.6326
加权-权值逐层递增 0.7831 0.5943
网络模型预测 0.8064 0.6167
加权-权值逐层递减 0.8237 0.6204
仅利用最后一层预测 0.8273 0.6226
如表3和表4、表5所示,这里采用了6种方式对网络层的评分预测结果进行结合,第三种结合方式表示越靠前的隐藏层,其预测结果被设置较小的权重,而越往后的隐藏层,其预测结果被设置较大的权重,但所有的权重之和为1。第五种结合方式与第三种结合方式相反,越往前的隐藏层,其预测结果被设置较大的权重,而越往后的隐藏层,其预测结果被设置较小的权重。最后一种方式仅利用神经网络的最后一层来预测评分。从预测结果来看,采用权重平均的预测方式仅次于本发明的LMGMF方案采用的加权求和预测方式,采用权重平均的优势在于将评分预测值限制在1到5分之间。采用求和方式预测评分实现了最差的结果,该方式将网络中每层的预测结果限制在一个很小的范围,导致网络很难训练。基于网络模型预测最终评分的方式也能实现不错的效果,该方式相当于对网络所有层的预测结果进行加权,不过这里的权值是可变的,在训练的过程中自己学习得到。这种结合方式比第三种结合方式效果差的原因有两点,第一是引入了大量的参数,使得模型训练的难度增加,甚至可能会遭遇过拟合问题。第二是对所有的用户或物品都优化相同的权重,很难使得对每个用户或物品都达到最优。仅利用网络最后一层进行评分预测也得到比较差的结果,该方式没有利用网络中每一层的信息,往往会面临特征提取过程的信息损失问题。评分预测加权的方式有两种,一种是权重逐层递增,一种是权重逐层递减,从表中可以看出权重逐层递增的效果比权重逐层递减的效果好得多,这也验证了越往后的网络层通常包含的信息更加准确。
(4)网络层数的影响分析。
由于推荐系统中输入数据的稀疏性,推荐算法都不会有很深的网络层数,一般为2或者4层网络结构,比如,DMF(深度矩阵分解)用两层网络结构,NeuMF(神经矩阵分解)使用四层网络结构,而本发明的推荐方案能够使用六层的网络结构。为了评估网络层数对实验结果的影响,表6、表7、表8给出了实验结果。
表6在MovieLens-100k数据集上的实验结果
RMSE MAE
8层网络 0.8759 0.6889
6层网络 0.8664 0.6821
4层网络 0.8791 0.7001
2层网络 0.8828 0.7021
表7在MovieLens-1m数据集上的实验结果
RMSE MAE
8层网络 0.8367 0.6599
6层网络 0.8301 0.6500
4层网络 0.8467 0.6679
2层网络 0.8519 0.6730
表8在MovieLens-HetRec数据集上的实验结果
RMSE MAE
8层网络 0.7890 0.6034
6层网络 0.7831 0.5943
4层网络 0.8012 0.6101
2层网络 0.8122 0.6182
从表6、表7和表8可以看出,当网络层数较少时,在MAE和RMSE上的效果都不好,可能是由于网络层数较少并不能学习到更深层的特征表示。随着网络层数的增加,评分预测误差并不是一直降低,当网络层数达到8层的时候,MAE和RMSE反而增加,也就是说6层的网络已经足够表示用户和物品。
以上所述,仅为本发明的具体实施方式,本说明书中所公开的任一特征,除非特别叙述,均可被其他等效或具有类似目的的替代特征加以替换;所公开的所有特征、或所有方法或过程中的步骤,除了互相排斥的特征和/或步骤以外,均可以任何方式组合。

Claims (7)

1.一种层级多粒度矩阵分解的物品推荐方法,包括下列步骤:
步骤1:设置整体评分预测模型:
所述整体评分预测模型包括用户数据输入层、物品数据输入层、L层的用户特征层、物品特征层和预测评分处理层,以及预测评分输出层;其中L大于或等于2;
其中,用户特征层1通过公式得到第1层的隐特征向量u1,f( )表示预设的激活函数,W1 (u)分别表示用户特征层1的映射权重和偏置项;Iu表示用户u的输入数据,通过拼接用户u的属性特征向量Xu和用户u的所有评分记录Ru得到;
用户特征层j通过公式得到第j层的隐特征向量u1,Wj (u)分别表示用户特征层j的映射权重和偏置项,其中j=2,…,L;
物品特征层1通过公式得到第1层的隐特征向量v1,W1 (i)分别表示物品特征层1的映射权重和偏置项;Ii表示物品i的输入数据,通过拼接物品的评分Ri和物品属性特征向量Yi得到;
物品特征层j通过公式得到第j层的隐特征向量u1,Wj (i)分别表示物品特征层j的映射权重和偏置项,其中j=2,…,L;
预测评分处理层基于同一层的用户特征层和物品特征层获取不同层的评分预测值
预测评分输出层综合L层的评分预测值输出每个用户对每个待推荐物品的最终评分预测值
步骤2:采集训练数据集,对步骤1所设置的整体评分预测模型进行网络参数训练,得到训练好的整体评分预测模型;
步骤3:基于当前物品集中未被用户评分的物品得到每个用户的待推荐物品集;
拼接当前用户u的属性特征向量Xu和用户u的所有评分记录Ru,得到用户u的输入数据Iu;并输入训练好的整体评分预测模型的用户特征层1;
提取并拼接用户u的待推荐物品集中的各物品的评分Ri和物品属性特征向量Yi,得到物品的输入数据Ii;并输入训练好的整体评分预测模型的物品特征层1;
基于训练好的整体评分预测模型的预测评分输出层得到用户u对待推荐物品集中的各物品的终评分预测值
取前T个最高的终评分预测值对应的物品作为当前用户u的物品推荐列表并向用户u进行物品推送处理。
2.如权利要求1所述的方式,其特征在于,预测评分输出层拼接L个评分预测值作为评分预测模型的输入数据I,基于多层感知机模型得到最终评分预测值
3.如权利要求1所述的方式,其特征在于,预测评分输出层将L个评分预测值的均值作为最终评分预测值
4.如权利要求1所述的方式,其特征在于,预测评分输出层将L个评分预测值的累加值作为最终评分预测值
5.如权利要求1所述的方式,其特征在于,预测评分输出层基于预设的权重,将L个评分预测值的加权求和值作为最终评分预测值
6.如权利要求5所述的方法,其特征在于,从第1层到第L层,按照权值逐层递增的方式设置各个预测值的权重,且L个预测值的权重的和为1。
7.如权利要求1所述的方法,其特征在于,将层数L的取值设置为6。
CN201910637456.1A 2019-07-15 2019-07-15 一种层级多粒度矩阵分解的物品推荐方法 Withdrawn CN110503508A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910637456.1A CN110503508A (zh) 2019-07-15 2019-07-15 一种层级多粒度矩阵分解的物品推荐方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910637456.1A CN110503508A (zh) 2019-07-15 2019-07-15 一种层级多粒度矩阵分解的物品推荐方法

Publications (1)

Publication Number Publication Date
CN110503508A true CN110503508A (zh) 2019-11-26

Family

ID=68585280

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910637456.1A Withdrawn CN110503508A (zh) 2019-07-15 2019-07-15 一种层级多粒度矩阵分解的物品推荐方法

Country Status (1)

Country Link
CN (1) CN110503508A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111047406A (zh) * 2019-12-12 2020-04-21 北京思特奇信息技术股份有限公司 一种电信套餐推荐方法、装置、存储介质和设备
CN111259235A (zh) * 2020-01-09 2020-06-09 齐鲁工业大学 基于上下文感知及特征交互建模的个性化推荐方法及系统
CN111652695A (zh) * 2020-06-11 2020-09-11 扬州大学 一种基于并行自编码机的协同过滤推荐方法
CN112785376A (zh) * 2021-01-20 2021-05-11 电子科技大学 一种基于多任务学习的多领域推荐方法
CN113268657A (zh) * 2021-04-16 2021-08-17 中国人民解放军战略支援部队信息工程大学 基于评论和物品描述的深度学习推荐方法及系统
CN114529363A (zh) * 2022-02-17 2022-05-24 浪潮卓数大数据产业发展有限公司 基于深度学习的推荐模型及推荐方法
CN114581161A (zh) * 2022-05-06 2022-06-03 深圳市明珞锋科技有限责任公司 一种基于深度学习的信息推送方法和系统

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111047406A (zh) * 2019-12-12 2020-04-21 北京思特奇信息技术股份有限公司 一种电信套餐推荐方法、装置、存储介质和设备
CN111047406B (zh) * 2019-12-12 2023-08-22 北京思特奇信息技术股份有限公司 一种电信套餐推荐方法、装置、存储介质和设备
CN111259235A (zh) * 2020-01-09 2020-06-09 齐鲁工业大学 基于上下文感知及特征交互建模的个性化推荐方法及系统
CN111652695A (zh) * 2020-06-11 2020-09-11 扬州大学 一种基于并行自编码机的协同过滤推荐方法
CN111652695B (zh) * 2020-06-11 2023-05-30 扬州大学 一种基于并行自编码机的协同过滤推荐方法
CN112785376A (zh) * 2021-01-20 2021-05-11 电子科技大学 一种基于多任务学习的多领域推荐方法
CN113268657A (zh) * 2021-04-16 2021-08-17 中国人民解放军战略支援部队信息工程大学 基于评论和物品描述的深度学习推荐方法及系统
CN113268657B (zh) * 2021-04-16 2022-10-28 中国人民解放军战略支援部队信息工程大学 基于评论和物品描述的深度学习推荐方法及系统
CN114529363A (zh) * 2022-02-17 2022-05-24 浪潮卓数大数据产业发展有限公司 基于深度学习的推荐模型及推荐方法
CN114581161A (zh) * 2022-05-06 2022-06-03 深圳市明珞锋科技有限责任公司 一种基于深度学习的信息推送方法和系统

Similar Documents

Publication Publication Date Title
CN110503508A (zh) 一种层级多粒度矩阵分解的物品推荐方法
CN109299396B (zh) 融合注意力模型的卷积神经网络协同过滤推荐方法及系统
CN110196946A (zh) 一种基于深度学习的个性化推荐方法
CN110674407B (zh) 基于图卷积神经网络的混合推荐方法
CN107608956A (zh) 一种基于cnn‑grnn的读者情绪分布预测算法
CN100470554C (zh) 在大规模社会网络中基于路径评分的个人关系发现方法
CN111428147A (zh) 结合社交和兴趣信息的异源图卷积网络的社交推荐方法
CN103309967B (zh) 基于相似性传递的协同过滤方法及系统
CN107563841A (zh) 一种基于用户评分分解的推荐系统
CN106204246A (zh) 一种基于主成分分析法的bp神经网络信用评估方法
CN106598950A (zh) 一种基于混合层叠模型的命名实体识别方法
CN102982107A (zh) 一种融合用户、项目和上下文属性信息的推荐系统优化方法
CN108509573A (zh) 基于矩阵分解协同过滤算法的图书推荐方法及系统
CN108920521B (zh) 基于伪本体的用户画像-项目推荐系统及方法
CN109033294B (zh) 一种融入内容信息的混合推荐方法
CN106157156A (zh) 一种基于用户社区的协作推荐系统
CN110084670A (zh) 一种基于lda-mlp的货架商品组合推荐方法
CN111949887A (zh) 物品推荐方法、装置及计算机可读存储介质
CN112650933B (zh) 一种基于高阶聚合的图卷积融合多头注意力机制的会话推荐方法
CN111241425A (zh) 一种基于层次注意力机制的poi推荐方法
CN110874392B (zh) 基于深度双向注意力机制的文本网络信息融合嵌入方法
CN104572915B (zh) 一种基于内容环境增强的用户事件相关度计算方法
Anil et al. Performance analysis of deep learning architectures for recommendation systems
CN105868422B (zh) 一种基于弹性维特征向量优化抽取的协同过滤推荐方法
CN112529415B (zh) 基于组合多感受野图神经网络的物品评分方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20191126