CN111753207B - 一种基于评论的神经图协同过滤方法 - Google Patents

一种基于评论的神经图协同过滤方法 Download PDF

Info

Publication number
CN111753207B
CN111753207B CN202010609618.3A CN202010609618A CN111753207B CN 111753207 B CN111753207 B CN 111753207B CN 202010609618 A CN202010609618 A CN 202010609618A CN 111753207 B CN111753207 B CN 111753207B
Authority
CN
China
Prior art keywords
user
comment
vector
matrix
representation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010609618.3A
Other languages
English (en)
Other versions
CN111753207A (zh
Inventor
吴雯
施力业
贺樑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
East China Normal University
Original Assignee
East China Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by East China Normal University filed Critical East China Normal University
Priority to CN202010609618.3A priority Critical patent/CN111753207B/zh
Publication of CN111753207A publication Critical patent/CN111753207A/zh
Application granted granted Critical
Publication of CN111753207B publication Critical patent/CN111753207B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/335Filtering based on additional data, e.g. user or group profiles
    • G06F16/337Profile generation, learning or modification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Probability & Statistics with Applications (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种基于评论的神经图协同过滤方法,属于推荐系统领域;该方法包括评论抽取模块、交互图模块和评分预测模块。评论抽取模块采用自注意力机制以及协同注意力机制从评论中学习用户对物品不同方面的喜好,得到用户和物品基于评论的向量表示。交互图模块连接用户和朋友以及用户喜欢的物品为交互图,然后用图卷积神经网络模拟用户和物品信息在图中的信息传播过程,得到用户和物品基于交互图的向量表示。评分预测模型将用户和物品基于评论的向量表示和基于交互图的向量表示拼接起来,从而预测用户对物品的评分。在Yelp207和Yelp2018两个真实数据集上进行实验,实验结果表明,本发明与现有技术相比,均方误差更小,可解释性更强。

Description

一种基于评论的神经图协同过滤方法
技术领域
本发明属于推荐系统领域,尤其涉及一种基于评论的神经图协同过滤方法。
背景技术
在推荐系统中,传统的协同过滤方法当遇到数据稀疏和冷启动问题时,协同过滤的效果大幅度下降,所以挺多论文尝试引入评论来缓解上述问题并建模用户-物品画像。
现有深度学习方法大多用相同的模型对用户评论和物品评论进行处理,没有考虑到用户评论与物品评论之间的关系,这样就不能很好地知道当前用户对这个物品的兴趣,同时现有的方法大多采用卷积神经网络的方法来挖掘评论中的短语,卷积神经网络固定大小的窗口缺少建模单词变长范围内上下文能力,很难很好地抽取出长距离的短语。同时不仅仅是评论,用户和物品图也传递了很多用户的喜好信息,比如可以从用户历史喜欢的物品中推测出用户的偏好,也可以从用户关注的人中推测用户可能和关注的人有相同的偏好,所以急需考虑用户物品交互图来捕捉用户的喜好以及物品的特征。
发明内容
本发明的目的是针对现有技术的不足而提出的一种基于评论的神经图协同过滤方法。本方法通过自注意力网络挖掘评论中变长距离的短语,并用协同注意力机制捕捉用户评论和物品评论之间的关系,从而更好地确定用户对该物品特定特征的喜好;同时也引入了用户物品交互图并通过图卷积神经网络来捕捉信息在用户物品交互图中的传播过程。
为达到上述目的,本发明提供如下技术方案:
一种基于评论的神经图协同过滤方法,特点是该方法包括:评论抽取模块、交互图模块和评分预测模块,所述评论抽取模块分别从用户和物品评论集中抽取出用户对每个物品特征的喜好,构建基于评论的用户和物品向量表示;交互图模块用图卷积神经网络捕捉用户和物品构成的交互图中的信息传播,构建基于交互图的用户和物品向量表示;评分预测模块基于用户向量表示和物品向量表示,使用分解机(FM)进行匹配,预测评分。
所述评论抽取模块,包括两个层:自注意力共享层及协同注意力层,其中各层具体为:
①自注意力共享层
首先将评论集合中的每个评论文本映射为词向量序列
Figure GDA0002847688920000011
其中T是每个评论中的单词个数,d表示单词向量的维度,
Figure GDA0002847688920000012
表示矩阵;接受一个评论集合,包括多个评论{R1,R2…,RM},其中M代表评论的最大数量,R表示每个评论;每个单词都通过词嵌入矩阵Wd×L编码映射到一个d维稠密向量,其中L是词汇表的大小;然后使用“自注意力网络”编码评论中每个单词的上下文构成短语表示,输入是长度为T个词的词向量序列
Figure GDA0002847688920000013
将X分别线性投影到三个不同的语义空间,形成三个序列矩阵
Figure GDA0002847688920000021
输入到注意力函数中计算每个单词的上下文表示H:
Q=XWQ,K=XWK,V=XWV
H=softmax(QKT)V
其中
Figure GDA0002847688920000022
为参数矩阵,
Figure GDA0002847688920000023
编码了评论中每个单词的上下文单词,KT表示序列矩阵K的转置矩阵,softmax表示激活函数;
将序列矩阵V和上下文表示H相加,并通过一个全连接层转换语义空间,最后得到短语的表示Z:
Z=tanh((H+V)Wp+bp)
其中
Figure GDA0002847688920000024
中每个词的语义不再是单个单词,而是以该单词为中心的短语;
Figure GDA0002847688920000025
为参数矩阵,
Figure GDA0002847688920000026
为偏置项,tanh表示激活函数;
②协同注意力层
使用“协同注意力”得到用户评论集中各个评论和物品评论集中各个评论两两对应评论的权;使用上下文向量urec并用注意力机制从Z=[z1,z2,…,zT]中选取重要的单词并且加权求和得到单个评论的表示:
Sj=tanh(urec×zj+brec)
Figure GDA0002847688920000027
Figure GDA0002847688920000028
其中r是单个评论的表示,zj表示短语表示Z中的第j个向量,Sj表示第j个短语表示zj和上下文向量相乘得到的向量表示,brec是偏置项,tanh是激活函数,αj表示zj的注意力权重;该层把用户评论集合与物品评论集合相关联,把用户的所有评论用矩阵
Figure GDA0002847688920000029
来表示,物品的所有评论用矩阵
Figure GDA00028476889200000210
来表示,其中
Figure GDA00028476889200000211
表示用户u的第j条评论表示,
Figure GDA00028476889200000212
表示物品i的第j条评论表示;然后计算用户评论矩阵和物品评论矩阵的相关性,得到相关矩阵C:
C=tanh(UTWaI)
其中Wa表示参数,UT表示矩阵U的转置矩阵;将得到的C矩阵当做特征矩阵,计算用户评论矩阵和物品评论矩阵的协同注意力:
au=softmax(whu(tanh(WuU+(WiI)CT)))
ai=softmax(whi(tanh(WiI+(WuU)C)))
其中au表示用户评论矩阵的协同注意力权重向量,ai表示物品评论矩阵的协同注意力权重向量,CT表示相关矩阵C的转置矩阵,Wu,Wi,whu,whi是参数矩阵,softmax是激活函数;最后用户u和物品i基于评论的向量表示根据下式得到:
Figure GDA0002847688920000031
其中ur表示用户u基于评论的向量,ir表示物品i基于评论的向量,
Figure GDA0002847688920000032
表示au的第m个值,
Figure GDA0002847688920000033
表示ai的第m个值,
Figure GDA0002847688920000034
表示用户u的第m条评论表示,
Figure GDA0002847688920000035
表示物品i的第m条评论表示。
所述交互图模块具体为:
该模块先对每一个用户在图中的初始向量设置为随机向量,表示为
Figure GDA0002847688920000036
其中
Figure GDA0002847688920000037
表示用户u在图中的初始向量表示,yu为随机向量,同理对物品初始向量表示成
Figure GDA0002847688920000038
其中
Figure GDA0002847688920000039
表示物品i在图中的初始向量表示,yi为随机向量,第k+1层图卷积神级网络的用户u节点表示通过第k层图神经网络中用户u相邻的节点向量以及自身的节点向量表示:
Figure GDA00028476889200000310
其中tanh是激活函数,其中
Figure GDA00028476889200000311
表示的是用户u在图中的第k+1层表示,Wk是参数矩阵,Gu表示用户u的邻居节点,
Figure GDA00028476889200000312
表示用户u的邻居节点在图中的第k+1层表示,
Figure GDA00028476889200000313
表示的是用户u在图中的第k层表示;最后基于交互图的用户向量表示成
Figure GDA00028476889200000314
其中
Figure GDA00028476889200000315
表示的是用户u在图中的第K层表示,同理基于交互图的物品向量也可以表示成
Figure GDA00028476889200000316
其中
Figure GDA00028476889200000317
表示的是物品i在图中的第K层表示,其中K表示最后图神经网络的层数。
所述评分预测模块具体为:
评分预测模块将从评论抽取模块得到的用户向量和交互图得到的用户向量拼接起来得到最后的用户向量表示ur,同样得到最后的物品向量表示ir
ur=σ(Fu×[ur,ug]),ir=σ(Fi×[ir,ig])
其中Fu,Fi是参数,σ是非线性函数;将ur和ir相乘,计算预测评分
Figure GDA00028476889200000318
Figure GDA00028476889200000319
其中(ir)T表示物品向量ir的转置矩阵,最后用均方误差作为损失函数:
Figure GDA0002847688920000041
Loss表示最后计算的损失,其中y为用户u对物品i的真实评分,D为包含所有用户和物品的训练集。
本发明的有益效果在于:
本发明通过将自注意力网络引入到推荐系统的评论建模中,在深度学习框架下考虑了用户对“物品特征”的情感极性,并缓解了CNN抽取短语引入噪声和上下文丢失的问题,细粒度地建模用户-物品画像,提升推荐性能。
附图说明
图1是本发明的结构示意图;
图2是本发明的评论抽取模块结构示意图;
图3是本发明的交互模块结构示意图。
具体实施方式
下面结合附图对本发明的具体实施方式做进一步阐释。
参阅图1,为本发明整体图,共分为三部分:
(1)评论抽取模块图:从用户和物品评论集合中抽取用户对每个物品特征的情感极性,构建用户和物品向量表示;
(2)交互图模块:从用户和物品交互图中抽取用户和物品的向量表示;
(3)评分预测模块:基于评论得到的向量和基于交互图得到的向量拼接起来预测最后的评分。
实施例
参阅图2-3,是本发明的分层结构图,以下对本实施例中的预处理流程、三个模块的结构、实验验证的数据集和训练设定进行详细叙述:
1、预处理流程
将单词都转化为小写,去掉符号以及保留词汇表中出现超过5次的单词。将单个评论的最大单词长度设为30个单词,评论集合中最多包含20个评论,不足20个评论用“[PAD]”的评论补全。对于数据集,随机将数据集根据8:1:1划分为训练集、测试集、验证集。
2、评论抽取模块
包含两个层:自注意力共享层、协同注意力层,其中各层具体为:
①自注意力共享层
首先将评论集合中的每个评论文本映射为词向量序列
Figure GDA0002847688920000042
其中T是每个评论中的单词个数,d表示单词向量的维度,
Figure GDA0002847688920000043
表示矩阵;接受一个评论集合,包括多个评论{R1,R2…,RM},其中M代表评论的最大数量,R表示每个评论;每个单词都通过词嵌入矩阵Wd×L编码映射到一个d维稠密向量,其中L是词汇表的大小;然后使用“自注意力网络”编码评论中每个单词的上下文构成短语表示,输入是长度为T个词的词向量序列
Figure GDA0002847688920000051
将X分别线性投影到三个不同的语义空间,形成三个序列矩阵
Figure GDA0002847688920000052
输入到注意力函数中计算每个单词的上下文表示H:
Q=XWQ,K=XWK,V=XWV
H=softmax(QKT)V
其中
Figure GDA0002847688920000053
为参数矩阵,
Figure GDA0002847688920000054
编码了评论中每个单词的上下文单词,KT表示序列矩阵K的转置矩阵,softmax表示激活函数;
将序列矩阵V和上下文表示H相加,并通过一个全连接层转换语义空间,最后得到短语的表示Z:
Z=tanh((H+V)Wp+bp)
其中
Figure GDA0002847688920000055
中每个词的语义不再是单个单词,而是以该单词为中心的短语;
Figure GDA0002847688920000056
为参数矩阵,
Figure GDA0002847688920000057
为偏置项,tanh表示激活函数;
②协同注意力层
使用“协同注意力”得到用户评论集中各个评论和物品评论集中各个评论两两对应评论的权;使用上下文向量urec并用注意力机制从Z=[z1,z2,...,zT]中选取重要的单词并且加权求和得到单个评论的表示:
Sj=tanh(urec×zj+brec)
Figure GDA0002847688920000058
Figure GDA0002847688920000059
其中r是单个评论的表示,zj表示短语表示Z中的第j个向量,Sj表示第j个短语表示zj和上下文向量相乘得到的向量表示,brec是偏置项,tanh是激活函数,αj表示zj的注意力权重;该层把用户评论集合与物品评论集合相关联,把用户的所有评论用矩阵
Figure GDA00028476889200000510
来表示,物品的所有评论用矩阵
Figure GDA00028476889200000511
来表示,其中
Figure GDA00028476889200000512
表示用户u的第j条评论表示,
Figure GDA00028476889200000513
表示物品i的第j条评论表示;然后计算用户评论矩阵和物品评论矩阵的相关性,得到相关矩阵C:
C=tanh(UTWaI)
其中Wa表示参数,UT表示矩阵U的转置矩阵;将得到的C矩阵当做特征矩阵,计算用户评论矩阵和物品评论矩阵的协同注意力:
au=softmax(whu(tanh(WuU+(WiI)CT)))
ai=softmax(whi(tanh(WiI+(WuU)C)))
其中au表示用户评论矩阵的协同注意力权重向量,ai表示物品评论矩阵的协同注意力权重向量,CT表示相关矩阵C的转置矩阵,Wu,Wi,whu,whi是参数矩阵,softmax是激活函数;最后用户u和物品i基于评论的向量表示根据下式得到:
Figure GDA0002847688920000061
其中ur表示用户u基于评论的向量,ir表示物品i基于评论的向量,
Figure GDA0002847688920000062
表示au的第m个值,
Figure GDA0002847688920000063
表示ai的第m个值,
Figure GDA0002847688920000064
表示用户u的第m条评论表示,
Figure GDA0002847688920000065
表示物品i的第m条评论表示。
3、交互图模块
该模块先对每一个用户在图中的初始向量设置为随机向量,表示为
Figure GDA0002847688920000066
其中
Figure GDA0002847688920000067
表示用户u在图中的初始向量表示,yu为随机向量,同理对物品初始向量表示成
Figure GDA0002847688920000068
其中
Figure GDA0002847688920000069
表示物品i在图中的初始向量表示,yi为随机向量,第k+1层图卷积神级网络的用户u节点表示通过第k层图神经网络中用户u相邻的节点向量以及自身的节点向量表示:
Figure GDA00028476889200000610
其中tanh是激活函数,其中
Figure GDA00028476889200000611
表示的是用户u在图中的第k+1层表示,Wk是参数矩阵,Gu表示用户u的邻居节点,
Figure GDA00028476889200000612
表示用户u的邻居节点在图中的第k+1层表示,
Figure GDA00028476889200000613
表示的是用户u在图中的第k层表示;最后基于交互图的用户向量表示成
Figure GDA00028476889200000614
其中
Figure GDA00028476889200000615
表示的是用户u在图中的第K层表示,同理基于交互图的物品向量也可以表示成
Figure GDA00028476889200000616
其中
Figure GDA00028476889200000617
表示的是物品i在图中的第K层表示,其中K表示最后图神经网络的层数。
4、评分预测模块
评分预测模块将从评论抽取模块得到的用户向量和交互图得到的用户向量拼接起来得到最后的用户向量表示ur,同样得到最后的物品向量表示ir
ur=σ(Fu×[ur,ug]),ir=σ(Fi×[ir,ig])
其中Fu,Fi是参数,σ是非线性函数;将ur和ir相乘,计算预测评分
Figure GDA0002847688920000071
Figure GDA0002847688920000072
其中(ir)T表示物品向量ir的转置矩阵,最后用均方误差作为损失函数:
Figure GDA0002847688920000073
Loss表示最后计算的损失,其中y为用户u对物品i的真实评分,D为包含所有用户和物品的训练集。
5、实验验证的数据集
在实验中,本实施例使用来自两个公开数据集Yelp2017和Yelp2018来评估本发明。
6、模型训练设定
使用均方误差计算预测评分和真实评分之间的训练误差,使用Adam优化器进行优化,学习率设为0.001。将所有模型训练至连续4轮验证集性能都不再提升,选择验证集上表现最佳的模型参数。
最后说明的是,以上优选实施例仅用以说明本发明的技术方案而非限制,尽管通过上述优选实施例已经对本发明进行了详细的描述,但本领域技术人员应当理解,可以在形式上和细节上对其作出各种各样的改变,而不偏离本发明权利要求书所限定的范围。

Claims (1)

1.一种基于评论的神经图协同过滤方法,其特征在于,该方法包括:评论抽取模块、交互图模块和评分预测模块,所述评论抽取模块分别从用户和物品评论集中抽取出用户对每个物品特征的喜好,构建基于评论的用户和物品向量表示;交互图模块用图卷积神经网络捕捉用户和物品构成的交互图中的信息传播,构建基于交互图的用户和物品向量表示;评分预测模块基于用户向量表示和物品向量表示,使用分解机进行匹配,预测评分;其中:
所述评论抽取模块,包括两个层:自注意力共享层及协同注意力层,其中各层具体为:
①自注意力共享层
首先将评论集合中的每个评论文本映射为词向量序列
Figure FDA0002847688910000011
其中T是每个评论中的单词个数,d表示单词向量的维度,
Figure FDA0002847688910000012
表示矩阵;接受一个评论集合,包括多个评论{R1,R2…,RM},其中M代表评论的最大数量,R表示每个评论;每个单词都通过词嵌入矩阵Wd×L编码映射到一个d维稠密向量,其中L是词汇表的大小;然后使用“自注意力网络”编码评论中每个单词的上下文构成短语表示,输入是长度为T个词的词向量序列
Figure FDA0002847688910000013
将X分别线性投影到三个不同的语义空间,形成三个序列矩阵
Figure FDA0002847688910000014
输入到注意力函数中计算每个单词的上下文表示H:
Q=XWQ,K=XWK,V=XWV
H=softmax(QKT)V
其中
Figure FDA0002847688910000015
为参数矩阵,
Figure FDA0002847688910000016
编码了评论中每个单词的上下文单词,KT表示序列矩阵K的转置矩阵,softmax表示激活函数;
将序列矩阵V和上下文表示H相加,并通过一个全连接层转换语义空间,最后得到短语的表示Z:
Z=tanh((H+V)Wp+bp)
其中
Figure FDA0002847688910000017
中每个词的语义不再是单个单词,而是以该单词为中心的短语;
Figure FDA0002847688910000018
为参数矩阵,
Figure FDA0002847688910000019
为偏置项,tanh表示激活函数;
②协同注意力层
使用“协同注意力”得到用户评论集中各个评论和物品评论集中各个评论两两对应评论的权;使用上下文向量urec并用注意力机制从Z=[z1,z2,...,zT]中选取重要的单词并且加权求和得到单个评论的表示:
Sj=tanh(urec×zj+brec)
Figure FDA0002847688910000021
Figure FDA0002847688910000022
其中r是单个评论的表示,zj表示短语表示Z中的第j个向量,Sj表示第j个短语表示zj和上下文向量相乘得到的向量表示,brec是偏置项,tanh是激活函数,αj表示zj的注意力权重;该层把用户评论集合与物品评论集合相关联,把用户的所有评论用矩阵
Figure FDA0002847688910000023
来表示,物品的所有评论用矩阵
Figure FDA0002847688910000024
来表示,其中
Figure FDA0002847688910000025
表示用户u的第j条评论表示,
Figure FDA0002847688910000026
表示物品i的第j条评论表示;然后计算用户评论矩阵和物品评论矩阵的相关性,得到相关矩阵C:
C=tanh(UTWaI)
其中Wa表示参数,UT表示矩阵U的转置矩阵;将得到的C矩阵当做特征矩阵,计算用户评论矩阵和物品评论矩阵的协同注意力:
au=softmax(whu(tanh(WuU+(WiI)CT)))
ai=softmax(whi(tanh(WiI+(WuU)C)))
其中au表示用户评论矩阵的协同注意力权重向量,ai表示物品评论矩阵的协同注意力权重向量,CT表示相关矩阵C的转置矩阵,Wu,Wi,whu,whi是参数矩阵,softmax是激活函数;最后用户u和物品i基于评论的向量表示根据下式得到:
Figure FDA0002847688910000027
其中ur表示用户u基于评论的向量,ir表示物品i基于评论的向量,
Figure FDA0002847688910000028
表示au的第m个值,
Figure FDA0002847688910000029
表示ai的第m个值,
Figure FDA00028476889100000210
表示用户u的第m条评论表示,
Figure FDA00028476889100000211
表示物品i的第m条评论表示;
所述交互图模块具体为:
该模块先对每一个用户在图中的初始向量设置为随机向量,表示为
Figure FDA0002847688910000031
其中
Figure FDA0002847688910000032
表示用户u在图中的初始向量表示,yu为随机向量,同理对物品初始向量表示成
Figure FDA0002847688910000033
其中
Figure FDA0002847688910000034
表示物品i在图中的初始向量表示,yi为随机向量,第k+1层图卷积神级网络的用户u节点表示通过第k层图神经网络中用户u相邻的节点向量以及自身的节点向量表示:
Figure FDA0002847688910000035
其中tanh是激活函数,其中
Figure FDA0002847688910000036
定示的是用户u在图中的第k+1层表示,Wk是参数矩阵,Gu表示用户u的邻居节点,
Figure FDA0002847688910000037
表示用户u的邻居节点在图中的第k+1层表示,
Figure FDA0002847688910000038
表示的是用户u在图中的第k层表示;最后基于交互图的用户向量表示成
Figure FDA0002847688910000039
其中
Figure FDA00028476889100000310
表示的是用户u在图中的第K层表示,同理基于交互图的物品向量表示成
Figure FDA00028476889100000311
其中
Figure FDA00028476889100000312
表示的是物品i在图中的第K层表示,其中K表示最后图神经网络的层数;
所述评分预测模块具体为:
评分预测模块将从评论抽取模块得到的用户向量和交互图得到的用户向量拼接起来得到最后的用户向量表示ur,同样得到最后的物品向量表示ir
ur=σ(Fu×[ur,ug]),ir=σ(Fi×[ir,ig])
其中Fu,Fi是参数,σ是非线性函数;将ur和ir相乘,计算预测评分
Figure FDA00028476889100000313
Figure FDA00028476889100000314
其中(ir)T表示物品向量ir的转置矩阵,最后用均方误差作为损失函数:
Figure FDA00028476889100000315
Loss表示最后计算的损失,其中y为用户u对物品i的真实评分,D为包含所有用户和物品的训练集。
CN202010609618.3A 2020-06-29 2020-06-29 一种基于评论的神经图协同过滤方法 Active CN111753207B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010609618.3A CN111753207B (zh) 2020-06-29 2020-06-29 一种基于评论的神经图协同过滤方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010609618.3A CN111753207B (zh) 2020-06-29 2020-06-29 一种基于评论的神经图协同过滤方法

Publications (2)

Publication Number Publication Date
CN111753207A CN111753207A (zh) 2020-10-09
CN111753207B true CN111753207B (zh) 2021-03-26

Family

ID=72678173

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010609618.3A Active CN111753207B (zh) 2020-06-29 2020-06-29 一种基于评论的神经图协同过滤方法

Country Status (1)

Country Link
CN (1) CN111753207B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112488355A (zh) * 2020-10-28 2021-03-12 华为技术有限公司 基于图神经网络预测用户评级的方法和装置
CN112700342B (zh) * 2020-12-29 2022-09-13 四川大学 社交媒体信息真实性的个性化评分预测模型及预测方法
CN112905900B (zh) * 2021-04-02 2023-11-17 辽宁工程技术大学 基于图卷积注意力机制的协同过滤推荐方法
CN113157899B (zh) * 2021-05-27 2022-01-14 叉烧(上海)新材料科技有限公司 一种大数据画像分析方法、服务器及可读存储介质
CN113378047B (zh) * 2021-06-10 2022-10-21 武汉大学 一种基于多方面增强的图神经网络推荐方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110851719A (zh) * 2019-11-11 2020-02-28 中国石油大学(华东) 基于协同过滤和链路预测的Mashup Web API个性化推荐
CN110874767A (zh) * 2019-11-19 2020-03-10 山东爱城市网信息技术有限公司 一种基于协同过滤的营业厅精准营销方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105389369A (zh) * 2015-11-12 2016-03-09 广州神马移动信息科技有限公司 一种网页评论的方法、装置、终端及服务器
AU2018101513A4 (en) * 2018-10-11 2018-11-15 Hui, Bo Mr Comprehensive Stock Prediction GRU Model: Emotional Index and Volatility Based
CN110009430B (zh) * 2019-04-11 2023-08-11 腾讯科技(深圳)有限公司 作弊用户检测方法、电子设备及计算机可读存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110851719A (zh) * 2019-11-11 2020-02-28 中国石油大学(华东) 基于协同过滤和链路预测的Mashup Web API个性化推荐
CN110874767A (zh) * 2019-11-19 2020-03-10 山东爱城市网信息技术有限公司 一种基于协同过滤的营业厅精准营销方法

Also Published As

Publication number Publication date
CN111753207A (zh) 2020-10-09

Similar Documents

Publication Publication Date Title
CN111753207B (zh) 一种基于评论的神经图协同过滤方法
CN108875807B (zh) 一种基于多注意力多尺度的图像描述方法
CN108984745B (zh) 一种融合多知识图谱的神经网络文本分类方法
CN111368074B (zh) 一种基于网络结构和文本信息的链路预测方法
CN107832400A (zh) 一种基于位置的lstm和cnn联合模型进行关系分类的方法
CN111274398B (zh) 一种方面级用户产品评论情感分析方法及系统
CN111753024B (zh) 一种面向公共安全领域的多源异构数据实体对齐方法
CN112818861B (zh) 一种基于多模态上下文语义特征的情感分类方法及系统
CN110222163A (zh) 一种融合cnn与双向lstm的智能问答方法及系统
CN112883738A (zh) 基于神经网络和自注意力机制的医学实体关系抽取方法
CN109543722A (zh) 一种基于情感分析模型的情感趋势预测方法
CN104598611B (zh) 对搜索条目进行排序的方法及系统
CN107092596A (zh) 基于attention CNNs和CCR的文本情感分析方法
CN108287904A (zh) 一种基于社会化卷积矩阵分解的文档上下文感知推荐方法
CN110765775A (zh) 一种融合语义和标签差异的命名实体识别领域自适应的方法
CN109214001A (zh) 一种中文语义匹配系统及方法
CN108549658A (zh) 一种基于语法分析树上注意力机制的深度学习视频问答方法及系统
CN108765512B (zh) 一种基于多层级特征的对抗图像生成方法
CN110209789A (zh) 一种用户注意力引导的多模态对话系统及方法
CN113486190B (zh) 一种融合实体图像信息和实体类别信息的多模态知识表示方法
CN111127146A (zh) 基于卷积神经网络与降噪自编码器的信息推荐方法及系统
CN111400494B (zh) 一种基于GCN-Attention的情感分析方法
CN112527993B (zh) 一种跨媒体层次化深度视频问答推理框架
CN112016002A (zh) 融合评论文本层级注意力和时间因素的混合推荐方法
CN110415071A (zh) 一种基于观点挖掘分析的汽车竞品对比方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant