CN111753207A - 一种基于评论的神经图协同过滤模型 - Google Patents

一种基于评论的神经图协同过滤模型 Download PDF

Info

Publication number
CN111753207A
CN111753207A CN202010609618.3A CN202010609618A CN111753207A CN 111753207 A CN111753207 A CN 111753207A CN 202010609618 A CN202010609618 A CN 202010609618A CN 111753207 A CN111753207 A CN 111753207A
Authority
CN
China
Prior art keywords
user
comment
vector
matrix
representation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010609618.3A
Other languages
English (en)
Other versions
CN111753207B (zh
Inventor
吴雯
施力业
贺樑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
East China Normal University
Original Assignee
East China Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by East China Normal University filed Critical East China Normal University
Priority to CN202010609618.3A priority Critical patent/CN111753207B/zh
Publication of CN111753207A publication Critical patent/CN111753207A/zh
Application granted granted Critical
Publication of CN111753207B publication Critical patent/CN111753207B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/335Filtering based on additional data, e.g. user or group profiles
    • G06F16/337Profile generation, learning or modification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种基于评论的神经图协同过滤模型,属于推荐系统领域;该模型包括评论抽取模块、交互图模块和评分预测模块。评论抽取模块采用自注意力机制以及协同注意力机制从评论中学习用户对物品不同方面的喜好,得到用户和物品基于评论的向量表示。交互图模块连接用户和朋友以及用户喜欢的物品为交互图,然后用图卷积神经网络模拟用户和物品信息在图中的信息传播过程,得到用户和物品基于交互图的向量表示。评分预测模型将用户和物品基于评论的向量表示和基于交互图的向量表示拼接起来,从而预测用户对物品的评分。在Yelp207和Yelp2018两个真实数据集上进行实验,实验结果表明,本发明与现有技术相比,均方误差更小,可解释性更强。

Description

一种基于评论的神经图协同过滤模型
技术领域
本发明属于推荐系统领域,尤其涉及一种基于评论的神经图协同过滤模型。
背景技术
在推荐系统中,传统的协同过滤方法当遇到数据稀疏和冷启动问题时,协同过滤的效果大幅度下降,所以挺多论文尝试引入评论来缓解上述问题并建模用户-物品画像。
现有深度学习方法大多用相同的模型对用户评论和物品评论进行处理,没有考虑到用户评论与物品评论之间的关系,这样就不能很好地知道当前用户对这个物品的兴趣,同时现有的方法大多采用卷积神经网络的方法来挖掘评论中的短语,卷积神经网络固定大小的窗口缺少建模单词变长范围内上下文能力,很难很好地抽取出长距离的短语。同时不仅仅是评论,用户和物品图也传递了很多用户的喜好信息,比如可以从用户历史喜欢的物品中推测出用户的偏好,也可以从用户关注的人中推测用户可能和关注的人有相同的偏好,所以急需考虑用户物品交互图来捕捉用户的喜好以及物品的特征。
发明内容
本发明的目的是针对现有技术的不足而提出的一种基于评论的神经图协同过滤模型。本模型通过自注意力网络挖掘评论中变长距离的短语,并用协同注意力机制捕捉用户评论和物品评论之间的关系,从而更好地确定用户对该物品特定特征的喜好;同时模型也引入了用户物品交互图并通过图卷积神经网络来捕捉信息在用户物品交互图中的传播过程。
为达到上述目的,本发明提供如下技术方案:
一种基于评论的神经图协同过滤模型,特点是该模型包括:评论抽取模块、交互图模块和评分预测模块,所述评论抽取模块分别从用户和物品评论集中抽取出用户对每个物品特征的喜好,构建基于评论的用户和物品向量表示;交互图模块用图卷积神经网络捕捉用户和物品构成的交互图中的信息传播,构建基于交互图的用户和物品向量表示;评分预测模块基于用户向量表示和物品向量表示,使用分解机(FM)进行匹配,预测评分。
所述评论抽取模块,包括两个层:自注意力共享层及协同注意力层,其中各层具体为:
①自注意力共享层
首先将评论集合中的每个评论文本映射为词向量序列
Figure BDA0002560521900000021
其中T是每个评论中的单词个数,d表示单词向量的维度,
Figure BDA0002560521900000022
表示矩阵;接受一个评论集合,包括多个评论{R1,R2…,RM},其中M代表评论的最大数量,R表示每个评论;每个单词都通过词嵌入矩阵Wd×L编码映射到一个d维稠密向量,其中L是词汇表的大小;然后使用“自注意力网络”编码评论中每个单词的上下文构成短语表示,输入是长度为T个词的词向量序列
Figure BDA0002560521900000023
将X分别线性投影到三个不同的语义空间,形成三个序列矩阵Q,K,
Figure BDA0002560521900000024
输入到注意力函数中计算每个单词的上下文表示H:
Q=XWQ,K=XWK,V=XWV
H=softmax(QKT)V
其中WQ,WK,
Figure BDA0002560521900000025
为参数矩阵,
Figure BDA0002560521900000026
编码了评论中每个单词的上下文单词,KT表示序列矩阵K的转置矩阵,softmax表示激活函数;
将序列矩阵V和上下文表示H相加,并通过一个全连接层转换语义空间,最后得到短语的表示Z:
Z=tanh((H+V)Wp+bp)
其中
Figure BDA0002560521900000027
中每个词的语义不再是单个单词,而是以该单词为中心的短语;
Figure BDA0002560521900000028
为参数矩阵,
Figure BDA0002560521900000029
为偏置项,tanh表示激活函数;
②协同注意力层
使用“协同注意力”得到用户评论集中各个评论和物品评论集中各个评论两两对应评论的权;使用上下文向量urec并用注意力机制从Z=[z1,z2,…,zT]中选取重要的单词并且加权求和得到单个评论的表示:
Sj=tanh(urec×zj+brec)
Figure BDA00025605219000000210
Figure BDA00025605219000000211
其中r是单个评论的表示,zj表示短语表示Z中的第j个向量,Sj表示第j个短语表示zj和上下文向量相乘得到的向量表示,brec是偏置项,tanh是激活函数,αj表示zj的注意力权重;该层把用户评论集合与物品评论集合相关联,把用户的所有评论用矩阵
Figure BDA0002560521900000031
来表示,物品的所有评论用矩阵
Figure BDA0002560521900000032
来表示,其中
Figure BDA0002560521900000033
表示用户u的第j条评论表示,
Figure BDA0002560521900000034
表示物品i的第j条评论表示;然后计算用户评论矩阵和物品评论矩阵的相关性,得到相关矩阵C:
C=tanh(UTWaI)
其中Wa表示参数,UT表示矩阵U的转置矩阵;将得到的C矩阵当做特征矩阵,计算用户评论矩阵和物品评论矩阵的协同注意力:
au=softmax(whu(tanh(WuU+(WiI)CT)))
ai=softmax(whi(tanh(WiI+(WuU)C)))
其中au表示用户评论矩阵的协同注意力权重向量,ai表示物品评论矩阵的协同注意力权重向量,CT表示相关矩阵C的转置矩阵,Wu,Wi,whu,whi是参数矩阵,softmax是激活函数;最后用户u和物品i基于评论的向量表示根据下式得到:
Figure BDA0002560521900000035
其中ur表示用户u基于评论的向量,ir表示物品i基于评论的向量,
Figure BDA0002560521900000036
表示au的第m个值,
Figure BDA0002560521900000037
表示ai的第m个值,
Figure BDA0002560521900000038
表示用户u的第m条评论表示,
Figure BDA0002560521900000039
表示物品i的第m条评论表示。
所述交互图模块具体为:
该模块先对每一个用户在图中的初始向量设置为随机向量,表示为
Figure BDA00025605219000000310
其中
Figure BDA00025605219000000311
表示用户u在图中的初始向量表示,yu为随机向量,同理对物品初始向量表示成
Figure BDA00025605219000000312
其中
Figure BDA00025605219000000313
表示物品i在图中的初始向量表示,yi为随机向量,第k+1层图卷积神级网络的用户u节点表示通过第k层图神经网络中用户u相邻的节点向量以及自身的节点向量表示:
Figure BDA00025605219000000314
其中tanh是激活函数,其中
Figure BDA00025605219000000315
表示的是用户u在图中的第k+1层表示,Wk是参数矩阵,Gu表示用户u的邻居节点,
Figure BDA00025605219000000316
表示用户u的邻居节点在图中的第k+1层表示,
Figure BDA00025605219000000317
表示的是用户u在图中的第k层表示;最后基于交互图的用户向量表示成
Figure BDA0002560521900000041
其中
Figure BDA0002560521900000042
表示的是用户u在图中的第K层表示,同理基于交互图的物品向量也可以表示成
Figure BDA0002560521900000043
其中
Figure BDA0002560521900000044
表示的是物品i在图中的第K层表示,其中K表示最后图神经网络的层数。
所述评分预测模块具体为:
评分预测模块将从评论抽取模块得到的用户向量和交互图得到的用户向量拼接起来得到最后的用户向量表示ur,同样得到最后的物品向量表示ir
ur=σ(Fu×[ur,ug]),ir=σ(Fi×[ir,ig])
其中Fu,Fi是参数,σ是非线性函数;将ur和ir相乘,计算预测评分
Figure BDA0002560521900000045
Figure BDA0002560521900000046
其中(ir)T表示物品向量ir的转置矩阵,最后用均方误差作为损失函数:
Figure BDA0002560521900000047
Loss表示最后计算的损失,其中y为用户u对物品i的真实评分,D为包含所有用户和物品的训练集。
本发明的有益效果在于:
本发明通过将自注意力网络引入到推荐系统的评论建模中,在深度学习框架下考虑了用户对“物品特征”的情感极性,并缓解了CNN抽取短语引入噪声和上下文丢失的问题,细粒度地建模用户-物品画像,提升推荐性能。
附图说明
图1是本发明的结构示意图;
图2是本发明的评论抽取模块结构示意图;
图3是本发明的交互模块结构示意图。
具体实施方式
下面结合附图对本发明的具体实施方式做进一步阐释。
参阅图1,为整体模型图,共分为三部分:
(1)评论抽取模块图:从用户和物品评论集合中抽取用户对每个物品特征的情感极性,构建用户和物品向量表示;
(2)交互图模块:从用户和物品交互图中抽取用户和物品的向量表示;
(3)评分预测模块:基于评论得到的向量和基于交互图得到的向量拼接起来预测最后的评分。
实施例
参阅图2-3,是本发明的模型分层结构图,以下对本实施例中的预处理流程、三个模块的结构、实验验证的数据集和模型训练设定进行详细叙述:
1、预处理流程
将单词都转化为小写,去掉符号以及保留词汇表中出现超过5次的单词。将单个评论的最大单词长度设为30个单词,评论集合中最多包含20个评论,不足20个评论用“[PAD]”的评论补全。对于数据集,随机将数据集根据8:1:1划分为训练集、测试集、验证集。
2、评论抽取模块
包含两个层:自注意力共享层、协同注意力层,其中各层具体为:
①自注意力共享层
首先将评论集合中的每个评论文本映射为词向量序列
Figure BDA0002560521900000051
其中T是每个评论中的单词个数,d表示单词向量的维度,
Figure BDA0002560521900000052
表示矩阵;接受一个评论集合,包括多个评论{R1,R2…,RM},其中M代表评论的最大数量,R表示每个评论;每个单词都通过词嵌入矩阵Wd×L编码映射到一个d维稠密向量,其中L是词汇表的大小;然后使用“自注意力网络”编码评论中每个单词的上下文构成短语表示,输入是长度为T个词的词向量序列
Figure BDA0002560521900000053
将X分别线性投影到三个不同的语义空间,形成三个序列矩阵Q,K,
Figure BDA0002560521900000054
输入到注意力函数中计算每个单词的上下文表示H:
Q=XWQ,K=XWK,V=XWV
H=softmax(QKT)V
其中WQ,WK,
Figure BDA0002560521900000055
为参数矩阵,
Figure BDA0002560521900000056
编码了评论中每个单词的上下文单词,KT表示序列矩阵K的转置矩阵,softmax表示激活函数;
将序列矩阵V和上下文表示H相加,并通过一个全连接层转换语义空间,最后得到短语的表示Z:
Z=tanh((H+V)Wp+bp)
其中
Figure BDA0002560521900000057
中每个词的语义不再是单个单词,而是以该单词为中心的短语;
Figure BDA0002560521900000058
为参数矩阵,
Figure BDA0002560521900000059
为偏置项,tanh表示激活函数;
②协同注意力层
使用“协同注意力”得到用户评论集中各个评论和物品评论集中各个评论两两对应评论的权;使用上下文向量urec并用注意力机制从Z=[z1,z2,…,zT]中选取重要的单词并且加权求和得到单个评论的表示:
Sj=tanh(urec×zj+brec)
Figure BDA0002560521900000061
Figure BDA0002560521900000062
其中r是单个评论的表示,zj表示短语表示Z中的第j个向量,Sj表示第j个短语表示zj和上下文向量相乘得到的向量表示,brec是偏置项,tanh是激活函数,αj表示zj的注意力权重;该层把用户评论集合与物品评论集合相关联,把用户的所有评论用矩阵
Figure BDA0002560521900000063
来表示,物品的所有评论用矩阵
Figure BDA0002560521900000064
来表示,其中
Figure BDA0002560521900000065
表示用户u的第j条评论表示,
Figure BDA0002560521900000066
表示物品i的第j条评论表示;然后计算用户评论矩阵和物品评论矩阵的相关性,得到相关矩阵C:
C=tanh(UTWaI)
其中Wa表示参数,UT表示矩阵U的转置矩阵;将得到的C矩阵当做特征矩阵,计算用户评论矩阵和物品评论矩阵的协同注意力:
au=softmax(whu(tanh(WuU+(WiI)CT)))
ai=softmax(whi(tanh(WiI+(WuU)C)))
其中au表示用户评论矩阵的协同注意力权重向量,ai表示物品评论矩阵的协同注意力权重向量,CT表示相关矩阵C的转置矩阵,Wu,Wi,whu,whi是参数矩阵,softmax是激活函数;最后用户u和物品i基于评论的向量表示根据下式得到:
Figure BDA0002560521900000067
其中ur表示用户u基于评论的向量,ir表示物品i基于评论的向量,
Figure BDA0002560521900000068
表示au的第m个值,
Figure BDA0002560521900000069
表示ai的第m个值,
Figure BDA00025605219000000610
表示用户u的第m条评论表示,
Figure BDA00025605219000000611
表示物品i的第m条评论表示。
3、交互图模块
该模块先对每一个用户在图中的初始向量设置为随机向量,表示为
Figure BDA0002560521900000071
其中
Figure BDA0002560521900000072
表示用户u在图中的初始向量表示,yu为随机向量,同理对物品初始向量表示成
Figure BDA0002560521900000073
其中
Figure BDA0002560521900000074
表示物品i在图中的初始向量表示,yi为随机向量,第k+1层图卷积神级网络的用户u节点表示通过第k层图神经网络中用户u相邻的节点向量以及自身的节点向量表示:
Figure BDA0002560521900000075
其中tanh是激活函数,其中
Figure BDA0002560521900000076
表示的是用户u在图中的第k+1层表示,Wk是参数矩阵,Gu表示用户u的邻居节点,
Figure BDA0002560521900000077
表示用户u的邻居节点在图中的第k+1层表示,
Figure BDA0002560521900000078
表示的是用户u在图中的第k层表示;最后基于交互图的用户向量表示成
Figure BDA0002560521900000079
其中
Figure BDA00025605219000000710
表示的是用户u在图中的第K层表示,同理基于交互图的物品向量也可以表示成
Figure BDA00025605219000000711
其中
Figure BDA00025605219000000712
表示的是物品i在图中的第K层表示,其中K表示最后图神经网络的层数。
4、评分预测模块
评分预测模块将从评论抽取模块得到的用户向量和交互图得到的用户向量拼接起来得到最后的用户向量表示ur,同样得到最后的物品向量表示ir
ur=σ(Fu×[ur,ug]),ir=σ(Fi×[ir,ig])
其中Fu,Fi是参数,σ是非线性函数;将ur和ir相乘,计算预测评分
Figure BDA00025605219000000713
Figure BDA00025605219000000714
其中(ir)T表示物品向量ir的转置矩阵,最后用均方误差作为损失函数:
Figure BDA00025605219000000715
Loss表示最后计算的损失,其中y为用户u对物品i的真实评分,D为包含所有用户和物品的训练集。
5、实验验证的数据集
在实验中,本实施例使用来自两个公开数据集Yelp2017和Yelp2018来评估本模型。
6、模型训练设定
使用均方误差计算预测评分和真实评分之间的训练误差,使用Adam优化器进行优化,学习率设为0.001。将所有模型训练至连续4轮验证集性能都不再提升,选择验证集上表现最佳的模型参数。
最后说明的是,以上优选实施例仅用以说明本发明的技术方案而非限制,尽管通过上述优选实施例已经对本发明进行了详细的描述,但本领域技术人员应当理解,可以在形式上和细节上对其作出各种各样的改变,而不偏离本发明权利要求书所限定的范围。

Claims (4)

1.一种基于评论的神经图协同过滤模型,其特征在于,该模型包括:评论抽取模块、交互图模块和评分预测模块,所述评论抽取模块分别从用户和物品评论集中抽取出用户对每个物品特征的喜好,构建基于评论的用户和物品向量表示;交互图模块用图卷积神经网络捕捉用户和物品构成的交互图中的信息传播,构建基于交互图的用户和物品向量表示;评分预测模块基于用户向量表示和物品向量表示,使用分解机(FM)进行匹配,预测评分。
2.如权利要求1所述的基于评论的神经图协同过滤模型,其特征在于,所述评论抽取模块,包括两个层:自注意力共享层及协同注意力层,其中各层具体为:
①自注意力共享层
首先将评论集合中的每个评论文本映射为词向量序列
Figure FDA0002560521890000011
其中T是每个评论中的单词个数,d表示单词向量的维度,
Figure FDA0002560521890000012
表示矩阵;接受一个评论集合,包括多个评论{R1,R2...,RM},其中M代表评论的最大数量,R表示每个评论;每个单词都通过词嵌入矩阵Wd×L编码映射到一个d维稠密向量,其中L是词汇表的大小;然后使用“自注意力网络”编码评论中每个单词的上下文构成短语表示,输入是长度为T个词的词向量序列
Figure FDA0002560521890000013
将X分别线性投影到三个不同的语义空间,形成三个序列矩阵Q,K,
Figure FDA0002560521890000014
输入到注意力函数中计算每个单词的上下文表示片:
Q=XWQ,K=XWK,V=XWV
H=softmax(QKT)V
其中WQ,WK
Figure FDA0002560521890000015
为参数矩阵,
Figure FDA0002560521890000016
编码了评论中每个单词的上下文单词,KT表示序列矩阵K的转置矩阵,softmax表示激活函数;
将序列矩阵V和上下文表示片相加,并通过一个全连接层转换语义空间,最后得到短语的表示Z:
Z=tanh((H+V)Wp+bp)
其中
Figure FDA0002560521890000017
中每个词的语义不再是单个单词,而是以该单词为中心的短语;
Figure FDA0002560521890000018
为参数矩阵,
Figure FDA0002560521890000019
为偏置项,tanh表示激活函数;
②协同注意力层
使用“协同注意力”得到用户评论集中各个评论和物品评论集中各个评论两两对应评论的权;使用上下文向量urec并用注意力机制从Z=[z1,z2,...,zT]中选取重要的单词并且加权求和得到单个评论的表示:
Sj=tanh(urec×zj+brec)
Figure FDA0002560521890000021
Figure FDA0002560521890000022
其中r是单个评论的表示,zj表示短语表示Z中的第j个向量,Sj表示第j个短语表示zj和上下文向量相乘得到的向量表示,brec是偏置项,tanh是激活函数,αj表示zj的注意力权重;该层把用户评论集合与物品评论集合相关联,把用户的所有评论用矩阵
Figure FDA0002560521890000023
来表示,物品的所有评论用矩阵
Figure FDA0002560521890000024
来表示,其中
Figure FDA0002560521890000025
表示用户u的第j条评论表示,
Figure FDA0002560521890000026
表示物品i的第j条评论表示;然后计算用户评论矩阵和物品评论矩阵的相关性,得到相关矩阵C:
C=tanh(UTWaI)
其中Wa表示参数,UT表示矩阵U的转置矩阵;将得到的C矩阵当做特征矩阵,计算用户评论矩阵和物品评论矩阵的协同注意力:
au=softmax(whu(tanh(WuU+(WiI)CT)))
ai=softmax(whi(tanh(WiI+(WuU)C)))
其中au表示用户评论矩阵的协同注意力权重向量,ai表示物品评论矩阵的协同注意力权重向量,CT表示相关矩阵C的转置矩阵,Wu,Wi,whu,whi是参数矩阵,softmax是激活函数;最后用户u和物品i基于评论的向量表示根据下式得到:
Figure FDA0002560521890000027
其中ur表示用户u基于评论的向量,ir表示物品i基于评论的向量,
Figure FDA0002560521890000028
表示au的第m个值,
Figure FDA0002560521890000029
表示ai的第m个值,
Figure FDA00025605218900000210
表示用户u的第m条评论表示,
Figure FDA00025605218900000211
表示物品i的第m条评论表示。
3.如权利要求1所述的基于评论的神经图协同过滤模型,其特征在于,所述交互图模块具体为:
该模块先对每一个用户在图中的初始向量设置为随机向量,表示为
Figure FDA0002560521890000031
其中
Figure FDA0002560521890000032
表示用户u在图中的初始向量表示,yu为随机向量,同理对物品初始向量表示成
Figure FDA0002560521890000033
其中
Figure FDA0002560521890000034
表示物品i在图中的初始向量表示,yi为随机向量,第k+1层图卷积神级网络的用户u节点表示通过第k层图神经网络中用户u相邻的节点向量以及自身的节点向量表示:
Figure FDA0002560521890000035
其中tanh是激活函数,其中
Figure FDA0002560521890000036
表示的是用户u在图中的第k+1层表示,Wk是参数矩阵,Gu表示用户u的邻居节点,
Figure FDA0002560521890000037
表示用户u的邻居节点在图中的第k+1层表示,
Figure FDA0002560521890000038
表示的是用户u在图中的第k层表示;最后基于交互图的用户向量表示成
Figure FDA0002560521890000039
其中
Figure FDA00025605218900000310
表示的是用户u在图中的第K层表示,同理基于交互图的物品向量表示成
Figure FDA00025605218900000311
其中
Figure FDA00025605218900000312
表示的是物品i在图中的第K层表示,其中K表示最后图神经网络的层数。
4.如权利要求1所述的基于评论的神经图协同过滤模型,其特征在于,所述评分预测模块具体为:
评分预测模块将从评论抽取模块得到的用户向量和交互图得到的用户向量拼接起来得到最后的用户向量表示ur,同样得到最后的物品向量表示ir
ur=σ(Fu×[ur,ug]),iw=σ(Fi×[ir,ig])
其中Fu,Fi是参数,σ是非线性函数;将ur和ir相乘,计算预测评分
Figure FDA00025605218900000313
Figure FDA00025605218900000314
其中(ir)T表示物品向量ir的转置矩阵,最后用均方误差作为损失函数:
Figure FDA00025605218900000315
Loss表示最后计算的损失,其中y为用户u对物品i的真实评分,D为包含所有用户和物品的训练集。
CN202010609618.3A 2020-06-29 2020-06-29 一种基于评论的神经图协同过滤方法 Active CN111753207B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010609618.3A CN111753207B (zh) 2020-06-29 2020-06-29 一种基于评论的神经图协同过滤方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010609618.3A CN111753207B (zh) 2020-06-29 2020-06-29 一种基于评论的神经图协同过滤方法

Publications (2)

Publication Number Publication Date
CN111753207A true CN111753207A (zh) 2020-10-09
CN111753207B CN111753207B (zh) 2021-03-26

Family

ID=72678173

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010609618.3A Active CN111753207B (zh) 2020-06-29 2020-06-29 一种基于评论的神经图协同过滤方法

Country Status (1)

Country Link
CN (1) CN111753207B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112488355A (zh) * 2020-10-28 2021-03-12 华为技术有限公司 基于图神经网络预测用户评级的方法和装置
CN112700342A (zh) * 2020-12-29 2021-04-23 四川大学 社交媒体信息真实性的个性化评分预测模型及预测方法
CN112905900A (zh) * 2021-04-02 2021-06-04 辽宁工程技术大学 基于图卷积注意力机制的协同过滤推荐算法
CN113157899A (zh) * 2021-05-27 2021-07-23 东莞心启航联贸网络科技有限公司 一种大数据画像分析方法、服务器及可读存储介质
CN113378047A (zh) * 2021-06-10 2021-09-10 武汉大学 一种基于多方面增强的图神经网络推荐方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105389369A (zh) * 2015-11-12 2016-03-09 广州神马移动信息科技有限公司 一种网页评论的方法、装置、终端及服务器
AU2018101513A4 (en) * 2018-10-11 2018-11-15 Hui, Bo Mr Comprehensive Stock Prediction GRU Model: Emotional Index and Volatility Based
CN110009430A (zh) * 2019-04-11 2019-07-12 腾讯科技(深圳)有限公司 作弊用户检测方法、电子设备及计算机可读存储介质
CN110851719A (zh) * 2019-11-11 2020-02-28 中国石油大学(华东) 基于协同过滤和链路预测的Mashup Web API个性化推荐
CN110874767A (zh) * 2019-11-19 2020-03-10 山东爱城市网信息技术有限公司 一种基于协同过滤的营业厅精准营销方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105389369A (zh) * 2015-11-12 2016-03-09 广州神马移动信息科技有限公司 一种网页评论的方法、装置、终端及服务器
AU2018101513A4 (en) * 2018-10-11 2018-11-15 Hui, Bo Mr Comprehensive Stock Prediction GRU Model: Emotional Index and Volatility Based
CN110009430A (zh) * 2019-04-11 2019-07-12 腾讯科技(深圳)有限公司 作弊用户检测方法、电子设备及计算机可读存储介质
CN110851719A (zh) * 2019-11-11 2020-02-28 中国石油大学(华东) 基于协同过滤和链路预测的Mashup Web API个性化推荐
CN110874767A (zh) * 2019-11-19 2020-03-10 山东爱城市网信息技术有限公司 一种基于协同过滤的营业厅精准营销方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
郭望: "基于用户评论建模的推荐算法研究及应用", 《中国优秀硕士学位学位论文全文数据库 信息科技辑》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112488355A (zh) * 2020-10-28 2021-03-12 华为技术有限公司 基于图神经网络预测用户评级的方法和装置
CN112700342A (zh) * 2020-12-29 2021-04-23 四川大学 社交媒体信息真实性的个性化评分预测模型及预测方法
CN112905900A (zh) * 2021-04-02 2021-06-04 辽宁工程技术大学 基于图卷积注意力机制的协同过滤推荐算法
CN112905900B (zh) * 2021-04-02 2023-11-17 辽宁工程技术大学 基于图卷积注意力机制的协同过滤推荐方法
CN113157899A (zh) * 2021-05-27 2021-07-23 东莞心启航联贸网络科技有限公司 一种大数据画像分析方法、服务器及可读存储介质
CN113378047A (zh) * 2021-06-10 2021-09-10 武汉大学 一种基于多方面增强的图神经网络推荐方法
CN113378047B (zh) * 2021-06-10 2022-10-21 武汉大学 一种基于多方面增强的图神经网络推荐方法

Also Published As

Publication number Publication date
CN111753207B (zh) 2021-03-26

Similar Documents

Publication Publication Date Title
CN111753207B (zh) 一种基于评论的神经图协同过滤方法
CN108984745B (zh) 一种融合多知识图谱的神经网络文本分类方法
CN105512289B (zh) 基于深度学习和哈希的图像检索方法
CN111753024B (zh) 一种面向公共安全领域的多源异构数据实体对齐方法
CN110222163A (zh) 一种融合cnn与双向lstm的智能问答方法及系统
CN109947912A (zh) 一种基于段落内部推理和联合问题答案匹配的模型方法
CN107832400A (zh) 一种基于位置的lstm和cnn联合模型进行关系分类的方法
CN108875807A (zh) 一种基于多注意力多尺度的图像描述方法
CN108197294A (zh) 一种基于深度学习的文本自动生成方法
CN110321361B (zh) 基于改进的lstm神经网络模型的试题推荐判定方法
CN111291556B (zh) 基于实体义项的字和词特征融合的中文实体关系抽取方法
CN110427989B (zh) 汉字骨架自动合成方法及大规模中文字库自动生成方法
CN109543722A (zh) 一种基于情感分析模型的情感趋势预测方法
CN113486190B (zh) 一种融合实体图像信息和实体类别信息的多模态知识表示方法
CN111274398A (zh) 一种方面级用户产品评论情感分析方法及系统
CN110209789A (zh) 一种用户注意力引导的多模态对话系统及方法
CN108765512B (zh) 一种基于多层级特征的对抗图像生成方法
CN111222338A (zh) 基于预训练模型和自注意力机制的生物医学关系抽取方法
CN110287770B (zh) 一种基于卷积神经网络的水中个体目标匹配识别方法
CN112527993B (zh) 一种跨媒体层次化深度视频问答推理框架
CN112016002A (zh) 融合评论文本层级注意力和时间因素的混合推荐方法
CN110415071A (zh) 一种基于观点挖掘分析的汽车竞品对比方法
CN112784929A (zh) 一种基于双元组扩充的小样本图像分类方法及装置
CN115062139B (zh) 一种对话文本摘要模型自动搜索方法
CN115080715B (zh) 基于残差结构和双向融合注意力的跨度提取阅读理解方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant