CN111079011A - 一种基于深度学习的信息推荐方法 - Google Patents

一种基于深度学习的信息推荐方法 Download PDF

Info

Publication number
CN111079011A
CN111079011A CN201911275392.1A CN201911275392A CN111079011A CN 111079011 A CN111079011 A CN 111079011A CN 201911275392 A CN201911275392 A CN 201911275392A CN 111079011 A CN111079011 A CN 111079011A
Authority
CN
China
Prior art keywords
candidate
user
interest
layer
deep learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911275392.1A
Other languages
English (en)
Inventor
李建平
顾小丰
胡健
周望
贺喜
李天凯
蒋涛
陈强强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN201911275392.1A priority Critical patent/CN111079011A/zh
Publication of CN111079011A publication Critical patent/CN111079011A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Abstract

本发明公开了一种基于深度学习的信息推荐方法,该方法包括候选生成和候选排名两个阶段;其中候选生成阶段包括构建数据集,提取用户的学习兴趣分布,生成候选列表;候选排名阶段包括对候选列表进行重新排序,得到前N推荐的候选排名。本发明采用候选生成和候选排名两个阶段,在候选生成阶段中采用稀疏LDA模型提取用户的学习兴趣分布,并采用卷积神经网络和概率矩阵因式分解模型生产候选列表,在候选排名阶段中采用三层去噪自动编码器对候选列表进行重新排序,得到前N推荐的候选排名,显著提高了信息推荐性能。

Description

一种基于深度学习的信息推荐方法
技术领域
本发明属于信息推荐技术领域,具体涉及一种基于深度学习的信息推荐方 法。
背景技术
近年来,随着网络的不断发展,在线信息量呈指数级增长,因此,如何有 效,高效地找到最有用信息的严重问题总是让网络用户感到困惑。作为信息检 索和推荐的重要工具,推荐系统(RS)可以缓解信息过载,并在许多行业取得 了巨大成功。例如,RS可以影响Netflix中大约80%的电影观看选择,并且在 YouTube中,主页推荐可能影响大约60%的视频点击。
许多以前的研究试图通过考虑可用信息来探索潜在的兴趣和对用户的偏好, 并且在实践中,无论是在学术界和工业界,这些方法被证明能够在一定程度上 提高RS的性能。一般来说,有两种方法可以探索用户潜在兴趣的分布:一种是 行为记录统计,另一种是通过概率主题模型-来自文本评论的latent DirichletAllocation(LDA),这能反映用户的兴趣和偏好:分别假设用户的兴趣 和文本评论为潜在主题和文档,因此,用户的兴趣可以通过转移学习获得,RS 确实可以提供更准确的推荐。
近十年来,由于其在海量数据处理方面的强大能力和优势,深度学习方法 得到了显着的发展,可以应用于语音识别,图像分析等各个领域。与传统的推 荐系统相比,最近,越来越多的研究试图引入深度学习方法来改善RS的性能, 如多层感知器(MLP),自动编码器(AE),卷积神经网络(CNN)和混合方法 等。基于深度学习的推荐系统倾向于处理具有不同属性的各种可用数据,而且, 已经证明基于深度学习的推荐系统可以捕获数字和文本数据中的复杂信息,在 不平衡数据集上工作良好,并且产生明显更好的推荐性能。
传统矩阵分解(MF)技术是一种有效且强大的评级预测工具,实质上,许 多推荐方法都是MF的广泛版本,试图从不同方面提高RS的性能,比如兴趣探 索,社交网络等,此外,附加信息总是标准化为正则化术语,以约束MF学习用 户和项目的低等级特征向量,但是,这些RS的性能在不平衡数据集上始终不稳 定,最终推荐结果总是不令人满意。另一方面,许多以前的研究总是忽略可用 的辅助信息,这些信息对提高推荐精度有很大帮助。
由于RS没有基本事实,在现实生活中,推荐精度总是相对较低。目前,RS 解决数据稀疏性和冷启动问题以及不稳定的推荐准确性仍然是一项具有挑战性 的工作,尽管它有望在RS中引入深度学习方法。此外,RS的基本目标是为查询 提供排名的前N个推荐列表,而不仅仅是执行评级预测。
发明内容
针对现有技术中的上述不足,本发明提供了一种基于深度学习的信息推荐 方法,实现在稀疏设置中提供高性能的前N推荐。
为了达到上述发明目的,本发明采用的技术方案为:
一种基于深度学习的信息推荐方法,包括候选生成和候选排名两个阶段;
所述候选生成阶段包括以下步骤:
A1、获取用户-项目对、用户分配的文本评论以及每个项目的上下文信息, 构建数据集;
A2、采用稀疏LDA模型模拟兴趣推理过程,提取用户的学习兴趣分布;
A3、采用卷积神经网络从项目的文本评论和上下文信息中提取特征信息, 并采用概率矩阵因式分解模型学习用户和项目的低等级特征向量,生成候选列 表;
所示候选排名阶段包括以下步骤:
采用三层去噪自动编码器结合异构辅助信息对候选列表进行重新排序,得 到前N推荐的候选排名。
进一步地,所述步骤A2中,采用稀疏LDA模型模拟兴趣推理过程具体为:
设定对用户有K个潜在兴趣变量,以及由用户分配的文本评论语料库;
为用户绘制兴趣分布;
绘制用于用户指定的评论语料库的文字分布;
对于文本语料库中的每个单词,依次选择一个兴趣和一个单词。
进一步地,所述步骤A2中,提取用户的学习兴趣分布具体为:采用Gibbs 采样器抽样提取用户的利益分配,得到每个用户的学习兴趣分布。
进一步地,所述步骤A3中,卷积神经网络具体包括对称嵌入层、卷积层、 最大池层和输出层。
进一步地,所述对称嵌入层分别从复习语料库和文本文档中选取一组高频 度词作为词汇表,然后将复习语料库和文本文档中的每一个词映射到一个相关 向量中,生成两个矩阵。
进一步地,所述卷积层利用多个过滤器,通过滑动窗口捕获输入序列的局 部特征,根据对称嵌入层生成的两个矩阵分别生成特征向量。
进一步地,所述最大池层通过最大操作将卷积层获取的两个局部特征向量 合并形成全局变量。
进一步地,所述输出层根据最大池层形成的全局变量,通过具有非线性激 活函数的全连通网络得到输出特征向量。
进一步地,所述步骤A3中,采用概率矩阵因式分解模型学习用户和项目的 低等级特征向量,生成候选列表,具体为:
将卷积神经网络的输出特征向量作为每个项目的潜在特征向量并入概率矩 阵因式分解模型;
假定用户和项目是独立且相同的分布,并且分别在用户和项目的潜在低秩 特征向量上放置零均值高斯先验,获得观察到的评级矩阵上的条件分布;
再假定用户的潜在兴趣变量独立且相同地分布为零均值高斯先验,遵循兴 趣推理过程得到代表性输出;
利用所学习的潜在兴趣和卷积神经网络的代表性输出,通过贝叶斯推断, 获得低秩特征向量相对于潜在特征向量的后验概率,并将负对数后验概率作为 目标函数;
采用随机梯度下降法优化目标函数交替更新潜在特征向量;
根据优化后的潜在特征向量的乘积计算候选项目的预测分数,依照预测分 数生成候选列表。
进一步地,所述采用三层去噪自动编码器结合异构辅助信息对候选列表进 行重新排序,得到前N推荐的候选排名,具体为:
假定侧信息矩阵和边信息矩阵,将边信息作为实数归一化纳入去噪自动编 码器;
利用去噪自动编码器根据用户生成的候选项、边信息和观察等级变量对用 户的观察等级变量进行重建;
采用反向传播方法构建候选项目排序目标函数,得到每个用户的N个具有 高分数的最终推荐项目。
本发明具有以下有益效果:本发明采用候选生成和候选排名两个阶段,在 候选生成阶段中采用稀疏LDA模型提取用户的学习兴趣分布,并采用卷积神经 网络和概率矩阵因式分解模型生产候选列表,在候选排名阶段中采用三层去噪 自动编码器对候选列表进行重新排序,得到前N推荐的候选排名,显著提高了 信息推荐性能。
附图说明
图1是本发明的基于深度学习的信息推荐方法流程示意图;
图2是本发明实施例中通过稀疏潜在Dirichlet分配探索兴趣的三层建模示 意图;
图3是本发明实施例中卷积神经网络架构示意图;
图4是本发明实施例中概率矩阵因式分解模型示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实 施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅 用以解释本发明,并不用于限定本发明。
如图1所示,本发明实施例提供了一种基于深度学习的信息推荐方法,包 括候选生成和候选排名两个阶段:
上述候选生成阶段包括以下步骤:
A1、获取用户-项目对、用户分配的文本评论以及每个项目的上下文信息, 构建数据集;
A2、采用稀疏LDA模型模拟兴趣推理过程,提取用户的学习兴趣分布;
在本实施例中,本发明引入T={T 1,T 2,...T n}表示每个用户的潜在兴 趣,O+表示选择项目,采用稀疏潜在Dirichlet分配模型(sparseLDA)来模拟 兴趣推理过程。
假设对用户ui∈U有K∈N+潜在兴趣变量Ti={t1;t2;...tK},以及由ui分配的 文本评论语料库
Figure BDA0002315422300000061
为了对ui进行学习兴趣分配,为兴趣 推断定义了以下步骤:
为用户ui绘制兴趣分布
Figure BDA00023154223000000610
绘制用于用户指定的评论语料库的文字分布φui~Dirichlet(β);
对于文本语料库
Figure BDA0002315422300000062
中的每个单词wk,依次选择一个兴趣
Figure BDA00023154223000000611
Figure BDA00023154223000000612
和一个单词wk~Multinomial(wk|tk;β)。
在上述学习过程中,对于Dirichlet分布,给予α和β超参数。
由于每个用户的审查语料库规模大,潜在兴趣相对较少,这里为了减少冗 余计算而不降低质量,采用Gibbs采样器来近似隐含变量θ;φ和t,根据以下 条件分布
Figure BDA0002315422300000063
其中
Figure BDA00023154223000000613
表示不包括第i个项目,让
Figure BDA0002315422300000064
样本
Figure BDA0002315422300000065
如下:
如果
Figure BDA0002315422300000066
样本兴趣分布来自
Figure BDA0002315422300000067
如果
Figure BDA0002315422300000068
样本来自
Figure BDA0002315422300000069
如果
Figure BDA0002315422300000071
样本来自
Figure BDA0002315422300000072
在达到收敛之后,φ,θ的值可以通过以下公式计算:
Figure BDA0002315422300000073
Figure BDA0002315422300000074
其中nk,w是分配给兴趣tk的字w的标记数,nu,k是分配给用户ui的兴趣tk的令牌数。从上述的抽样过程中,可以获得ui的利益分配
Figure BDA0002315422300000078
通过sparseLDA 在理论上可以根据每个用户的学习兴趣分布θT来执行推荐。
然而用户的行为可能在某种程度上与学习兴趣不一致。或者,历史行为记 录的朴素统计提供另一种方案来近似用户的兴趣分布,此外,引入Φ,以这种 方式表示用户ui的兴趣分布:
Figure BDA0002315422300000075
其中Ctk是兴趣tk所属的vtag的分类标签。
对称的jensen-shannon散度可以用来度量所学习的T和Φ的相似性,并且 用户ui界面的兴趣系数可以如下所示:
Figure BDA0002315422300000076
其中
Figure BDA0002315422300000077
是Kullback–Leibler散度;这里得到的兴趣系数Γ(ui)表示sparseLDA学习的兴趣分布与实际兴趣分布之间的近似度, 其值属于(0,1),而且约束特征向量学习将被不一致地归为卷积矩阵因式分解作
A3、采用卷积神经网络从项目的文本评论和上下文信息中提取特征信息, 并采用概率矩阵因式分解模型学习用户和项目的低等级特征向量,生成候选列 表;
在本实施例中,卷积神经网络(CNN)用于同时捕获文本评论和上下文文 档中的信息,用于代表向量学习项目,因为文本评论可以指示用户对项目的兴 趣和偏好,并且上下文信息是项目的描述性信息。CNN架构如图2所示, 其中通常包含对称嵌入层,卷积层,最大池层和输出层。
1)对称嵌入层
本发明以分配给条目v的文本评论集Ψ(V)作为对称嵌入层为例,从复习语 料库Ψ(V)中选取一组高频度词作为词汇表,然后嵌入层将Ψ(V)中的每一个词映 射到一个相关的f维向量中。文本文档γ的嵌入操作与评论语料库相同。之后, 生成两个矩阵
Figure BDA0002315422300000081
可以得到下一个卷积层,其中f表示 嵌入维数,l是Ψ(V)和γ的大小。
2)卷积层
卷积层能够通过多个过滤器,通过滑动窗口捕获输入序列的局部特征,
Figure BDA0002315422300000082
Figure BDA0002315422300000083
通过卷积层生成的特征向量分别如下:
Figure BDA0002315422300000084
Figure BDA0002315422300000085
其中,
Figure BDA0002315422300000086
j={1,2,…,d}是过滤器的数量,ξ={1,2,...,(l-win+1)},win 表示滑动双赢指数的大小。π是非线性激活函数的线性单元(Relu),
Figure BDA0002315422300000091
Figure BDA0002315422300000092
是跨输入空间的过滤器的共享权重,
Figure BDA0002315422300000093
是卷积 运算,bx和by是偏置。
3)最大池层
为了压缩由卷积层提取的多维特征,这里采用max-pooling来提取全局文本 特征。通过卷积层,分别从复习语料库和语境文档的文本序列中获取两个局部 特征向量,通过以下最大操作将其合并形成全局变量:
Figure BDA0002315422300000094
其中
Figure BDA0002315422300000095
生成的表示向量
Figure BDA0002315422300000098
可以从原始评论语料库和上下文文档中捕获特征,作为下一层的输入。
4)输出层
根据最大池层的输出,通过具有非线性激活函数的全连通网络,可以得到 以下特征向量:
Figure BDA0002315422300000096
其中Wh,Wo是重量矩阵,
Figure BDA0002315422300000097
是偏差向量。后续将学习到的表示变量 Oj∈Rd将作为项的潜在特征向量被合并到矩阵因式分解中。
带兴趣的概率矩阵分解与CNN:
本发明利用概率矩阵因式分解(PMF)模型学习用户和项目的低等级特征向 量,并给出了每个用户的学习兴趣和项目的表示特征向量,从而可以通过学习 到的低秩向量的产品获得预测等级。图3给出了该模型的图解。在CNN体系 结构下,该模块也称为卷积矩阵分解(CMF)。
CNN架构的输出Oj将作为每个项目的潜在特征向量并入PMF。对于CMF, 假设用户和项目是独立且相同的分布,并且分别在用户和项目的潜在低秩特征 向量U∈Rd*n和V∈Rd*m上放置零均值高斯先验,因此,可以得到:
Figure BDA0002315422300000101
Figure BDA0002315422300000102
其中N表示高斯正态分布,I表示指标函数,如果用户ui将评级分配给项 目vj则等于1,否则为0。因此,可以如下获得观察到的评级矩阵R∈Rn*m上 的条件分布:
Figure BDA0002315422300000103
再假设用户的潜在兴趣变量T独立且相同地分布为零均值高斯先验,因此, 遵循兴趣探索方案,可以得到:
Figure BDA0002315422300000104
其中σT是兴趣变量T的方差。
这里,为方便起见,引入Q来表示CNN架构中的权重和偏差:
Figure BDA0002315422300000105
Figure BDA0002315422300000106
此外,零均值高斯先验放在Q上:
Figure BDA0002315422300000107
利用所学习的潜在兴趣T和CNN架构的代表性输出,通过贝叶斯推断,可 以如下获得U和V相对于潜在特征向量的后验概率:
Figure BDA0002315422300000111
之后,变量U,V和Q的负对数后验概率可以通过上式作为目标函数获得如 下:
Figure BDA0002315422300000112
Figure BDA0002315422300000113
μ,γ为目标函数的交换参数,
Figure BDA0002315422300000114
表示Frobenius范数。
然后在目标函数L上采用随机梯度下降法(SGD)来协调地优化变量U,V 和Q.因此,潜在特征向量U和V可以通过以下方式交替更新:
Figure BDA0002315422300000115
Figure BDA0002315422300000121
其中η是学习速率。虽然ui和vj是固定的,但是可以采用反向传播算法来 优化CNN架构中的权重和偏差。
在实现该收敛之后,可以通过所学习的潜在特征向量的乘积来执行评级预 测:
Figure BDA0002315422300000122
因此,候选项目将形成具有高预测分数。
与现有的推荐方法相比,本发明方法能够探索用户的潜在兴趣,从文本评 论和上下文信息中捕获信息,并利用学习兴趣T进行卷积矩阵分解,因此,本 发明可以克服数据稀疏性,减少不确定性同时进行预测,并提供高质量和个性 化的推荐。
候选排名阶段包括以下步骤:
由于之前呈现的DLMR的高效率,具有高预测分数的项目将更可能被推荐 给用户,反之亦然。最终,用户可能只对几个推荐项目感兴趣,因此,在DLMR 的第一阶段,从原始项目语料库中导出的候选项目的规模从数百万到数百急剧 减少。DLMR突出了推荐质量,因此,评级预测总是不足以获得满意的结果,候 选人排名将对最终的前N推荐项目起到至关重要的作用,这甚至可能在一定程 度上影响推荐系统的性能。
在候选排名阶段期间,与传统的排名方法相比,具有S形激活的基于用户 的去噪自动编码器(DAE)网络被用于在DLMR中排名的候选者。通过三个隐 藏层,DAE拥有优于表示和计算的优势,而且,DAE可以灵活地利用可用的异构 辅助信息来提高推荐性能。这里的辅助信息(SI)包括用户的简档,项目的各种 属性,时间,地点等,例如人口统计特征和项目的属性。实际上,将丰富的辅 助信息纳入深度学习网络是一项颇具挑战性的工作,尽管它对推荐性能有益。
DAE候选人排名的图解说明如图4所示。假设侧信息矩阵S={s1,s2,…,sn} ∈Rp*n和si={si,1,si,2,…,si,p},此外,边信息S将作为实数归一化为[0,1]纳入DAE。
在候选名单上,DAE的目标是根据可用的边信息对候选项目进行重新排序, 并提供更好的顶级推荐结果。假设Oi表示为用户ui生成的候选项,并且DAE有 k个隐藏的神经元,ui的部分观察等级的变量是:Ri={ri,1,ri,2,…,ri,q}∈Rq,因此,用 户ui的Ri重建可以通过DAE获得如下:
Figure BDA0002315422300000131
其中
Figure BDA0002315422300000132
f(.)和g(.)是sigmoid函数,
Figure BDA0002315422300000133
是权向量,
Figure BDA0002315422300000134
是偏置。这些参数可以使用反向传播方法获得,其目标函 数如下:
Figure BDA0002315422300000135
用已知参数
Figure BDA0002315422300000136
可以得到。
显然,DAE可以通过考虑可用的辅助信息对候选项目进行重新排序,这在 以前的研究中总是被忽略。根据DAE的结果,DLMR能够为每个用户提供数十个 具有高分数的最终推荐项目,这也被称为前N推荐。
下面采用亚马逊-b和亚马逊、Amazon-b和Amazon-m&t、Douban-m对本 发明方法进行测试。
亚马逊-b和亚马逊的数据集从1996年5月到2014年7月,包括每个用户- 产品对的数字分数,有用性,时间,文本评论,描述和类别信息。对于Amazon-b 和Amazon-m&t,我们抓取相应的数据集来自IMDB 3的每个项目的上下文描 述信息,并选择有用性作为每个用户的附带信息。Douban-m是2012年12月 至2013年3月期间的集合,我们抓取每个用户-项目对的附加文本评论以及每 个项目的描述性信息。
一般来说,这三个数据集都包含数量级为1-5的用户-项目对,用户分配 的文本评论以及每个项目的上下文信息。请注意,本文中的数据集Amazon-b和 Amazon-m&t是分别从在线提供的版本派生的子集。随着异常值和少于三个评 级的项目被删除,表3中显示了三个数据集的统计量,这表明数据集相当稀疏。 在实验中使用5倍交叉验证,并且将每个数据集随机分成训练集(80%)和测 试集(20%)。
建议的DLMR的基本目标是向用户提供准确的前N个推荐,因此,Recall@ N和Precision@N被用作评估指标。
Figure BDA0002315422300000141
Figure BDA0002315422300000142
表3每个数据集的参数设置
Figure BDA0002315422300000151
表4.亚马逊-B上PMF,CTR,CDL,ConvMF,DLMR-PMF和DLMR-DAE的RMSE 和MAE性能比较(K=50)
Figure BDA0002315422300000152
表5.通过Amazon-m&t进行PMF,CTR,CDL,ConvMF,DLMR-PMF和 DLMR-DAE的RMSE和MAE性能比较(K=50)
Figure BDA0002315422300000153
表6.在Douban-m上的PMF,CTR,CDL,ConvMF,DLMR-PMF和DLMR-DAE 的RMSE和MAE性能比较(K=30)
Figure BDA0002315422300000161
下面,本发明将对这三个数据集进行一系列实验,以评估DLMR的有效性 和实用性,将进一步比较DLMR与基准方法的性能,包括RMSE,MAE,Recall@ N和Precision@N。
表4、5和6报告了PMF,CTR,CDL,ConvMF,DLMR-PMF和DLMR-DAE 的评级预测在RMSE和MAE方面的性能比较。对于Amazon-b和Amazon-m&t, 每个用户的潜在兴趣数量设置为K=50,而对于Douban-m,K=30。潜在特征 向量的维度分别设置为d=10和d=30。表4、5和6中的结果表明:
每个数据集上的PMF的RMSE和MAE值分别远大于其他方法,因为PMF 仅考虑数字用户项目评级矩阵执行推荐,并忽略其他可用信息。此外,PMF是 其他高级推荐系统的基本技术,如CTR,CDL,ConvMF,DLMR-PMF和DLMR-DAE。
CTR,CDL和ConvMF尝试通过将这种主题回归模块,堆叠去噪自动编码器 和卷积神经网络引入协同过滤来提高推荐性能。实验结果表明,CTR,CDL和 ConvMF的性能或多或少都与RMSE和MAE,但比PMF好一点。
基于以往的研究,本发明方法在Amazon-b,Amazon-m&t和Douban-m上 显着优于PMF,CTR,CDL和ConvMF。具有候选者排名的DLMR-DAE的性能略 微优于DLMR-PMF。总的来说,对于每个推荐者方法,d=30的性能略好于每个 数据集上d=10的性能。
DLMR-DAE试图探索每个用户的潜在兴趣,利用学习的内容和文本信息(例 如评论和上下文信息)对候选生成执行卷积矩阵训练,并将候选项重新排列在 可用侧有关前N推荐的信息,可以显着提高推荐性能。以Amazon-b为例。当K =50,d=30时,DLMR-DAE的RMSE和MAE值分别为0.841和0.621,与PMF 相比,其改善率分别为7.8%和11.9%。与CTR,CDL和ConvMF相比,DLMR-DAE 的改进在RMSE和MAE方面约为5.0%。此外,DLMR-PMF的RMSE和MAE值分 别为0.851和0.637,略大于DLMR-DAE。显然,与其他方法相比,这些结果可 以证明DLMR-DAE的优越性。在Amazon-m&t和Douban-m上报告了类似的实 验结果。另一方面,亚马逊频段Amazon-m&t的RMSE和MAE值略大于Douban-m, 因为Douban-m多一点稠密。
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理 解本发明的原理,应被理解为本发明的保护范围并不局限于这样的特别陈述和 实施例。本领域的普通技术人员可以根据本发明公开的这些技术启示做出各种 不脱离本发明实质的其它各种具体变形和组合,这些变形和组合仍然在本发明 的保护范围内。

Claims (10)

1.一种基于深度学习的信息推荐方法,其特征在于,包括候选生成和候选排名两个阶段;
所述候选生成阶段包括以下步骤:
A1、获取用户-项目对、用户分配的文本评论以及每个项目的上下文信息,构建数据集;
A2、采用稀疏LDA模型模拟兴趣推理过程,提取用户的学习兴趣分布;
A3、采用卷积神经网络从项目的文本评论和上下文信息中提取特征信息,并采用概率矩阵因式分解模型学习用户和项目的低等级特征向量,生成候选列表;
所示候选排名阶段包括以下步骤:
采用三层去噪自动编码器结合异构辅助信息对候选列表进行重新排序,得到前N推荐的候选排名。
2.如权利要求1所述的基于深度学习的信息推荐方法,其特征在于,所述步骤A2中,采用稀疏LDA模型模拟兴趣推理过程具体为:
设定对用户有K个潜在兴趣变量,以及由用户分配的文本评论语料库;
为用户绘制兴趣分布;
绘制用于用户指定的评论语料库的文字分布;
对于文本语料库中的每个单词,依次选择一个兴趣和一个单词。
3.如权利要求2所述的基于深度学习的信息推荐方法,其特征在于,所述步骤A2中,提取用户的学习兴趣分布具体为:采用Gibbs采样器抽样提取用户的利益分配,得到每个用户的学习兴趣分布。
4.如权利要求3所述的基于深度学习的信息推荐方法,其特征在于,所述步骤A3中,卷积神经网络具体包括对称嵌入层、卷积层、最大池层和输出层。
5.如权利要求4所述的基于深度学习的信息推荐方法,其特征在于,所述对称嵌入层分别从复习语料库和文本文档中选取一组高频度词作为词汇表,然后将复习语料库和文本文档中的每一个词映射到一个相关向量中,生成两个矩阵。
6.如权利要求5所述的基于深度学习的信息推荐方法,其特征在于,所述卷积层利用多个过滤器,通过滑动窗口捕获输入序列的局部特征,根据对称嵌入层生成的两个矩阵分别生成特征向量。
7.如权利要求6所述的基于深度学习的信息推荐方法,其特征在于,所述最大池层通过最大操作将卷积层获取的两个局部特征向量合并形成全局变量。
8.如权利要求7所述的基于深度学习的信息推荐方法,其特征在于,所述输出层根据最大池层形成的全局变量,通过具有非线性激活函数的全连通网络得到输出特征向量。
9.如权利要求8所述的基于深度学习的信息推荐方法,其特征在于,所述步骤A3中,采用概率矩阵因式分解模型学习用户和项目的低等级特征向量,生成候选列表,具体为:
将卷积神经网络的输出特征向量作为每个项目的潜在特征向量并入概率矩阵因式分解模型;
假定用户和项目是独立且相同的分布,并且分别在用户和项目的潜在低秩特征向量上放置零均值高斯先验,获得观察到的评级矩阵上的条件分布;
再假定用户的潜在兴趣变量独立且相同地分布为零均值高斯先验,遵循兴趣推理过程得到代表性输出;
利用所学习的潜在兴趣和卷积神经网络的代表性输出,通过贝叶斯推断,获得低秩特征向量相对于潜在特征向量的后验概率,并将负对数后验概率作为目标函数;
采用随机梯度下降法优化目标函数交替更新潜在特征向量;
根据优化后的潜在特征向量的乘积计算候选项目的预测分数,依照预测分数生成候选列表。
10.如权利要求9所述的基于深度学习的信息推荐方法,其特征在于,所述采用三层去噪自动编码器结合异构辅助信息对候选列表进行重新排序,得到前N推荐的候选排名,具体为:
假定侧信息矩阵和边信息矩阵,将边信息作为实数归一化纳入去噪自动编码器;
利用去噪自动编码器根据用户生成的候选项、边信息和观察等级变量对用户的观察等级变量进行重建;
采用反向传播方法构建候选项目排序目标函数,得到每个用户的N个具有高分数的最终推荐项目。
CN201911275392.1A 2019-12-12 2019-12-12 一种基于深度学习的信息推荐方法 Pending CN111079011A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911275392.1A CN111079011A (zh) 2019-12-12 2019-12-12 一种基于深度学习的信息推荐方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911275392.1A CN111079011A (zh) 2019-12-12 2019-12-12 一种基于深度学习的信息推荐方法

Publications (1)

Publication Number Publication Date
CN111079011A true CN111079011A (zh) 2020-04-28

Family

ID=70314138

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911275392.1A Pending CN111079011A (zh) 2019-12-12 2019-12-12 一种基于深度学习的信息推荐方法

Country Status (1)

Country Link
CN (1) CN111079011A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111127146A (zh) * 2019-12-19 2020-05-08 江西财经大学 基于卷积神经网络与降噪自编码器的信息推荐方法及系统
CN113392325A (zh) * 2021-06-21 2021-09-14 电子科技大学 一种基于深度学习的信息推荐方法
WO2023279300A1 (en) * 2021-07-07 2023-01-12 Baidu.Com Times Technology (Beijing) Co., Ltd. Systems and methods for gating-enhanced multi-task neural networks with feature interaction learning

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108287904A (zh) * 2018-05-09 2018-07-17 重庆邮电大学 一种基于社会化卷积矩阵分解的文档上下文感知推荐方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108287904A (zh) * 2018-05-09 2018-07-17 重庆邮电大学 一种基于社会化卷积矩阵分解的文档上下文感知推荐方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
WANG ZHOU 等: "Deep Learning Modeling for Top-N Recommendation With Interests Exploring", 《IEEE ACCESS ( VOLUME: 6)》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111127146A (zh) * 2019-12-19 2020-05-08 江西财经大学 基于卷积神经网络与降噪自编码器的信息推荐方法及系统
CN111127146B (zh) * 2019-12-19 2023-05-26 江西财经大学 基于卷积神经网络与降噪自编码器的信息推荐方法及系统
CN113392325A (zh) * 2021-06-21 2021-09-14 电子科技大学 一种基于深度学习的信息推荐方法
WO2023279300A1 (en) * 2021-07-07 2023-01-12 Baidu.Com Times Technology (Beijing) Co., Ltd. Systems and methods for gating-enhanced multi-task neural networks with feature interaction learning

Similar Documents

Publication Publication Date Title
CN109829104B (zh) 基于语义相似度的伪相关反馈模型信息检索方法及系统
CN108280114B (zh) 一种基于深度学习的用户文献阅读兴趣分析方法
CN108509573B (zh) 基于矩阵分解协同过滤算法的图书推荐方法及系统
CN109635083B (zh) 一种用于搜索ted演讲中话题式查询的文档检索方法
CN112328900A (zh) 一种融合评分矩阵和评论文本的深度学习推荐方法
CN111368088A (zh) 一种基于深度学习的文本情感分类方法
CN111079011A (zh) 一种基于深度学习的信息推荐方法
CN107545276A (zh) 联合低秩表示和稀疏回归的多视角学习方法
CN112115716A (zh) 一种基于多维词向量下文本匹配的服务发现方法、系统及设备
CN108595546B (zh) 基于半监督的跨媒体特征学习检索方法
CN112800344B (zh) 一种基于深度神经网络的电影推荐方法
CN113806554B (zh) 面向海量会议文本的知识图谱构建方法
Kong et al. Probabilistic low-rank multitask learning
CN107590505A (zh) 联合低秩表示和稀疏回归的学习方法
CN114048354B (zh) 基于多元表征和度量学习的试题检索方法、装置及介质
CN109918564A (zh) 一种面向完全冷启动的上下文自动编码推荐方法及系统
Zeng et al. User Personalized Recommendation Algorithm Based on GRU Network Model in Social Networks
CN113268657B (zh) 基于评论和物品描述的深度学习推荐方法及系统
CN114417863A (zh) 词权重生成模型训练方法及装置、词权重生成方法及装置
Zhang et al. Text summarization based on sentence selection with semantic representation
CN113987126A (zh) 基于知识图谱的检索方法及装置
CN108197335B (zh) 一种基于用户行为个性化查询推荐方法及装置
CN108984726B (zh) 一种基于扩展的sLDA模型对图像进行标题注释的方法
CN114003706A (zh) 关键词组合生成模型训练方法及装置
Tian et al. A Probability Matrix Factorization for User Behavior Perception Recommendation Model

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20200428