CN111753207A - 一种基于评论的神经图协同过滤模型 - Google Patents
一种基于评论的神经图协同过滤模型 Download PDFInfo
- Publication number
- CN111753207A CN111753207A CN202010609618.3A CN202010609618A CN111753207A CN 111753207 A CN111753207 A CN 111753207A CN 202010609618 A CN202010609618 A CN 202010609618A CN 111753207 A CN111753207 A CN 111753207A
- Authority
- CN
- China
- Prior art keywords
- user
- comment
- vector
- matrix
- representation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/335—Filtering based on additional data, e.g. user or group profiles
- G06F16/337—Profile generation, learning or modification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Computational Biology (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种基于评论的神经图协同过滤模型,属于推荐系统领域;该模型包括评论抽取模块、交互图模块和评分预测模块。评论抽取模块采用自注意力机制以及协同注意力机制从评论中学习用户对物品不同方面的喜好,得到用户和物品基于评论的向量表示。交互图模块连接用户和朋友以及用户喜欢的物品为交互图,然后用图卷积神经网络模拟用户和物品信息在图中的信息传播过程,得到用户和物品基于交互图的向量表示。评分预测模型将用户和物品基于评论的向量表示和基于交互图的向量表示拼接起来,从而预测用户对物品的评分。在Yelp207和Yelp2018两个真实数据集上进行实验,实验结果表明,本发明与现有技术相比,均方误差更小,可解释性更强。
Description
技术领域
本发明属于推荐系统领域,尤其涉及一种基于评论的神经图协同过滤模型。
背景技术
在推荐系统中,传统的协同过滤方法当遇到数据稀疏和冷启动问题时,协同过滤的效果大幅度下降,所以挺多论文尝试引入评论来缓解上述问题并建模用户-物品画像。
现有深度学习方法大多用相同的模型对用户评论和物品评论进行处理,没有考虑到用户评论与物品评论之间的关系,这样就不能很好地知道当前用户对这个物品的兴趣,同时现有的方法大多采用卷积神经网络的方法来挖掘评论中的短语,卷积神经网络固定大小的窗口缺少建模单词变长范围内上下文能力,很难很好地抽取出长距离的短语。同时不仅仅是评论,用户和物品图也传递了很多用户的喜好信息,比如可以从用户历史喜欢的物品中推测出用户的偏好,也可以从用户关注的人中推测用户可能和关注的人有相同的偏好,所以急需考虑用户物品交互图来捕捉用户的喜好以及物品的特征。
发明内容
本发明的目的是针对现有技术的不足而提出的一种基于评论的神经图协同过滤模型。本模型通过自注意力网络挖掘评论中变长距离的短语,并用协同注意力机制捕捉用户评论和物品评论之间的关系,从而更好地确定用户对该物品特定特征的喜好;同时模型也引入了用户物品交互图并通过图卷积神经网络来捕捉信息在用户物品交互图中的传播过程。
为达到上述目的,本发明提供如下技术方案:
一种基于评论的神经图协同过滤模型,特点是该模型包括:评论抽取模块、交互图模块和评分预测模块,所述评论抽取模块分别从用户和物品评论集中抽取出用户对每个物品特征的喜好,构建基于评论的用户和物品向量表示;交互图模块用图卷积神经网络捕捉用户和物品构成的交互图中的信息传播,构建基于交互图的用户和物品向量表示;评分预测模块基于用户向量表示和物品向量表示,使用分解机(FM)进行匹配,预测评分。
所述评论抽取模块,包括两个层:自注意力共享层及协同注意力层,其中各层具体为:
①自注意力共享层
首先将评论集合中的每个评论文本映射为词向量序列其中T是每个评论中的单词个数,d表示单词向量的维度,表示矩阵;接受一个评论集合,包括多个评论{R1,R2…,RM},其中M代表评论的最大数量,R表示每个评论;每个单词都通过词嵌入矩阵Wd×L编码映射到一个d维稠密向量,其中L是词汇表的大小;然后使用“自注意力网络”编码评论中每个单词的上下文构成短语表示,输入是长度为T个词的词向量序列将X分别线性投影到三个不同的语义空间,形成三个序列矩阵Q,K,输入到注意力函数中计算每个单词的上下文表示H:
Q=XWQ,K=XWK,V=XWV
H=softmax(QKT)V
将序列矩阵V和上下文表示H相加,并通过一个全连接层转换语义空间,最后得到短语的表示Z:
Z=tanh((H+V)Wp+bp)
②协同注意力层
使用“协同注意力”得到用户评论集中各个评论和物品评论集中各个评论两两对应评论的权;使用上下文向量urec并用注意力机制从Z=[z1,z2,…,zT]中选取重要的单词并且加权求和得到单个评论的表示:
Sj=tanh(urec×zj+brec)
其中r是单个评论的表示,zj表示短语表示Z中的第j个向量,Sj表示第j个短语表示zj和上下文向量相乘得到的向量表示,brec是偏置项,tanh是激活函数,αj表示zj的注意力权重;该层把用户评论集合与物品评论集合相关联,把用户的所有评论用矩阵来表示,物品的所有评论用矩阵来表示,其中表示用户u的第j条评论表示,表示物品i的第j条评论表示;然后计算用户评论矩阵和物品评论矩阵的相关性,得到相关矩阵C:
C=tanh(UTWaI)
其中Wa表示参数,UT表示矩阵U的转置矩阵;将得到的C矩阵当做特征矩阵,计算用户评论矩阵和物品评论矩阵的协同注意力:
au=softmax(whu(tanh(WuU+(WiI)CT)))
ai=softmax(whi(tanh(WiI+(WuU)C)))
其中au表示用户评论矩阵的协同注意力权重向量,ai表示物品评论矩阵的协同注意力权重向量,CT表示相关矩阵C的转置矩阵,Wu,Wi,whu,whi是参数矩阵,softmax是激活函数;最后用户u和物品i基于评论的向量表示根据下式得到:
所述交互图模块具体为:
该模块先对每一个用户在图中的初始向量设置为随机向量,表示为其中表示用户u在图中的初始向量表示,yu为随机向量,同理对物品初始向量表示成其中表示物品i在图中的初始向量表示,yi为随机向量,第k+1层图卷积神级网络的用户u节点表示通过第k层图神经网络中用户u相邻的节点向量以及自身的节点向量表示:
其中tanh是激活函数,其中表示的是用户u在图中的第k+1层表示,Wk是参数矩阵,Gu表示用户u的邻居节点,表示用户u的邻居节点在图中的第k+1层表示,表示的是用户u在图中的第k层表示;最后基于交互图的用户向量表示成其中表示的是用户u在图中的第K层表示,同理基于交互图的物品向量也可以表示成其中表示的是物品i在图中的第K层表示,其中K表示最后图神经网络的层数。
所述评分预测模块具体为:
评分预测模块将从评论抽取模块得到的用户向量和交互图得到的用户向量拼接起来得到最后的用户向量表示ur,同样得到最后的物品向量表示ir:
ur=σ(Fu×[ur,ug]),ir=σ(Fi×[ir,ig])
其中(ir)T表示物品向量ir的转置矩阵,最后用均方误差作为损失函数:
Loss表示最后计算的损失,其中y为用户u对物品i的真实评分,D为包含所有用户和物品的训练集。
本发明的有益效果在于:
本发明通过将自注意力网络引入到推荐系统的评论建模中,在深度学习框架下考虑了用户对“物品特征”的情感极性,并缓解了CNN抽取短语引入噪声和上下文丢失的问题,细粒度地建模用户-物品画像,提升推荐性能。
附图说明
图1是本发明的结构示意图;
图2是本发明的评论抽取模块结构示意图;
图3是本发明的交互模块结构示意图。
具体实施方式
下面结合附图对本发明的具体实施方式做进一步阐释。
参阅图1,为整体模型图,共分为三部分:
(1)评论抽取模块图:从用户和物品评论集合中抽取用户对每个物品特征的情感极性,构建用户和物品向量表示;
(2)交互图模块:从用户和物品交互图中抽取用户和物品的向量表示;
(3)评分预测模块:基于评论得到的向量和基于交互图得到的向量拼接起来预测最后的评分。
实施例
参阅图2-3,是本发明的模型分层结构图,以下对本实施例中的预处理流程、三个模块的结构、实验验证的数据集和模型训练设定进行详细叙述:
1、预处理流程
将单词都转化为小写,去掉符号以及保留词汇表中出现超过5次的单词。将单个评论的最大单词长度设为30个单词,评论集合中最多包含20个评论,不足20个评论用“[PAD]”的评论补全。对于数据集,随机将数据集根据8:1:1划分为训练集、测试集、验证集。
2、评论抽取模块
包含两个层:自注意力共享层、协同注意力层,其中各层具体为:
①自注意力共享层
首先将评论集合中的每个评论文本映射为词向量序列其中T是每个评论中的单词个数,d表示单词向量的维度,表示矩阵;接受一个评论集合,包括多个评论{R1,R2…,RM},其中M代表评论的最大数量,R表示每个评论;每个单词都通过词嵌入矩阵Wd×L编码映射到一个d维稠密向量,其中L是词汇表的大小;然后使用“自注意力网络”编码评论中每个单词的上下文构成短语表示,输入是长度为T个词的词向量序列将X分别线性投影到三个不同的语义空间,形成三个序列矩阵Q,K,输入到注意力函数中计算每个单词的上下文表示H:
Q=XWQ,K=XWK,V=XWV
H=softmax(QKT)V
将序列矩阵V和上下文表示H相加,并通过一个全连接层转换语义空间,最后得到短语的表示Z:
Z=tanh((H+V)Wp+bp)
②协同注意力层
使用“协同注意力”得到用户评论集中各个评论和物品评论集中各个评论两两对应评论的权;使用上下文向量urec并用注意力机制从Z=[z1,z2,…,zT]中选取重要的单词并且加权求和得到单个评论的表示:
Sj=tanh(urec×zj+brec)
其中r是单个评论的表示,zj表示短语表示Z中的第j个向量,Sj表示第j个短语表示zj和上下文向量相乘得到的向量表示,brec是偏置项,tanh是激活函数,αj表示zj的注意力权重;该层把用户评论集合与物品评论集合相关联,把用户的所有评论用矩阵来表示,物品的所有评论用矩阵来表示,其中表示用户u的第j条评论表示,表示物品i的第j条评论表示;然后计算用户评论矩阵和物品评论矩阵的相关性,得到相关矩阵C:
C=tanh(UTWaI)
其中Wa表示参数,UT表示矩阵U的转置矩阵;将得到的C矩阵当做特征矩阵,计算用户评论矩阵和物品评论矩阵的协同注意力:
au=softmax(whu(tanh(WuU+(WiI)CT)))
ai=softmax(whi(tanh(WiI+(WuU)C)))
其中au表示用户评论矩阵的协同注意力权重向量,ai表示物品评论矩阵的协同注意力权重向量,CT表示相关矩阵C的转置矩阵,Wu,Wi,whu,whi是参数矩阵,softmax是激活函数;最后用户u和物品i基于评论的向量表示根据下式得到:
3、交互图模块
该模块先对每一个用户在图中的初始向量设置为随机向量,表示为其中表示用户u在图中的初始向量表示,yu为随机向量,同理对物品初始向量表示成其中表示物品i在图中的初始向量表示,yi为随机向量,第k+1层图卷积神级网络的用户u节点表示通过第k层图神经网络中用户u相邻的节点向量以及自身的节点向量表示:
其中tanh是激活函数,其中表示的是用户u在图中的第k+1层表示,Wk是参数矩阵,Gu表示用户u的邻居节点,表示用户u的邻居节点在图中的第k+1层表示,表示的是用户u在图中的第k层表示;最后基于交互图的用户向量表示成其中表示的是用户u在图中的第K层表示,同理基于交互图的物品向量也可以表示成其中表示的是物品i在图中的第K层表示,其中K表示最后图神经网络的层数。
4、评分预测模块
评分预测模块将从评论抽取模块得到的用户向量和交互图得到的用户向量拼接起来得到最后的用户向量表示ur,同样得到最后的物品向量表示ir:
ur=σ(Fu×[ur,ug]),ir=σ(Fi×[ir,ig])
其中(ir)T表示物品向量ir的转置矩阵,最后用均方误差作为损失函数:
Loss表示最后计算的损失,其中y为用户u对物品i的真实评分,D为包含所有用户和物品的训练集。
5、实验验证的数据集
在实验中,本实施例使用来自两个公开数据集Yelp2017和Yelp2018来评估本模型。
6、模型训练设定
使用均方误差计算预测评分和真实评分之间的训练误差,使用Adam优化器进行优化,学习率设为0.001。将所有模型训练至连续4轮验证集性能都不再提升,选择验证集上表现最佳的模型参数。
最后说明的是,以上优选实施例仅用以说明本发明的技术方案而非限制,尽管通过上述优选实施例已经对本发明进行了详细的描述,但本领域技术人员应当理解,可以在形式上和细节上对其作出各种各样的改变,而不偏离本发明权利要求书所限定的范围。
Claims (4)
1.一种基于评论的神经图协同过滤模型,其特征在于,该模型包括:评论抽取模块、交互图模块和评分预测模块,所述评论抽取模块分别从用户和物品评论集中抽取出用户对每个物品特征的喜好,构建基于评论的用户和物品向量表示;交互图模块用图卷积神经网络捕捉用户和物品构成的交互图中的信息传播,构建基于交互图的用户和物品向量表示;评分预测模块基于用户向量表示和物品向量表示,使用分解机(FM)进行匹配,预测评分。
2.如权利要求1所述的基于评论的神经图协同过滤模型,其特征在于,所述评论抽取模块,包括两个层:自注意力共享层及协同注意力层,其中各层具体为:
①自注意力共享层
首先将评论集合中的每个评论文本映射为词向量序列其中T是每个评论中的单词个数,d表示单词向量的维度,表示矩阵;接受一个评论集合,包括多个评论{R1,R2...,RM},其中M代表评论的最大数量,R表示每个评论;每个单词都通过词嵌入矩阵Wd×L编码映射到一个d维稠密向量,其中L是词汇表的大小;然后使用“自注意力网络”编码评论中每个单词的上下文构成短语表示,输入是长度为T个词的词向量序列将X分别线性投影到三个不同的语义空间,形成三个序列矩阵Q,K,输入到注意力函数中计算每个单词的上下文表示片:
Q=XWQ,K=XWK,V=XWV
H=softmax(QKT)V
将序列矩阵V和上下文表示片相加,并通过一个全连接层转换语义空间,最后得到短语的表示Z:
Z=tanh((H+V)Wp+bp)
②协同注意力层
使用“协同注意力”得到用户评论集中各个评论和物品评论集中各个评论两两对应评论的权;使用上下文向量urec并用注意力机制从Z=[z1,z2,...,zT]中选取重要的单词并且加权求和得到单个评论的表示:
Sj=tanh(urec×zj+brec)
其中r是单个评论的表示,zj表示短语表示Z中的第j个向量,Sj表示第j个短语表示zj和上下文向量相乘得到的向量表示,brec是偏置项,tanh是激活函数,αj表示zj的注意力权重;该层把用户评论集合与物品评论集合相关联,把用户的所有评论用矩阵来表示,物品的所有评论用矩阵来表示,其中表示用户u的第j条评论表示,表示物品i的第j条评论表示;然后计算用户评论矩阵和物品评论矩阵的相关性,得到相关矩阵C:
C=tanh(UTWaI)
其中Wa表示参数,UT表示矩阵U的转置矩阵;将得到的C矩阵当做特征矩阵,计算用户评论矩阵和物品评论矩阵的协同注意力:
au=softmax(whu(tanh(WuU+(WiI)CT)))
ai=softmax(whi(tanh(WiI+(WuU)C)))
其中au表示用户评论矩阵的协同注意力权重向量,ai表示物品评论矩阵的协同注意力权重向量,CT表示相关矩阵C的转置矩阵,Wu,Wi,whu,whi是参数矩阵,softmax是激活函数;最后用户u和物品i基于评论的向量表示根据下式得到:
3.如权利要求1所述的基于评论的神经图协同过滤模型,其特征在于,所述交互图模块具体为:
该模块先对每一个用户在图中的初始向量设置为随机向量,表示为其中表示用户u在图中的初始向量表示,yu为随机向量,同理对物品初始向量表示成其中表示物品i在图中的初始向量表示,yi为随机向量,第k+1层图卷积神级网络的用户u节点表示通过第k层图神经网络中用户u相邻的节点向量以及自身的节点向量表示:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010609618.3A CN111753207B (zh) | 2020-06-29 | 2020-06-29 | 一种基于评论的神经图协同过滤方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010609618.3A CN111753207B (zh) | 2020-06-29 | 2020-06-29 | 一种基于评论的神经图协同过滤方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111753207A true CN111753207A (zh) | 2020-10-09 |
CN111753207B CN111753207B (zh) | 2021-03-26 |
Family
ID=72678173
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010609618.3A Active CN111753207B (zh) | 2020-06-29 | 2020-06-29 | 一种基于评论的神经图协同过滤方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111753207B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112488355A (zh) * | 2020-10-28 | 2021-03-12 | 华为技术有限公司 | 基于图神经网络预测用户评级的方法和装置 |
CN112700342A (zh) * | 2020-12-29 | 2021-04-23 | 四川大学 | 社交媒体信息真实性的个性化评分预测模型及预测方法 |
CN112905900A (zh) * | 2021-04-02 | 2021-06-04 | 辽宁工程技术大学 | 基于图卷积注意力机制的协同过滤推荐算法 |
CN113157899A (zh) * | 2021-05-27 | 2021-07-23 | 东莞心启航联贸网络科技有限公司 | 一种大数据画像分析方法、服务器及可读存储介质 |
CN113378047A (zh) * | 2021-06-10 | 2021-09-10 | 武汉大学 | 一种基于多方面增强的图神经网络推荐方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105389369A (zh) * | 2015-11-12 | 2016-03-09 | 广州神马移动信息科技有限公司 | 一种网页评论的方法、装置、终端及服务器 |
AU2018101513A4 (en) * | 2018-10-11 | 2018-11-15 | Hui, Bo Mr | Comprehensive Stock Prediction GRU Model: Emotional Index and Volatility Based |
CN110009430A (zh) * | 2019-04-11 | 2019-07-12 | 腾讯科技(深圳)有限公司 | 作弊用户检测方法、电子设备及计算机可读存储介质 |
CN110851719A (zh) * | 2019-11-11 | 2020-02-28 | 中国石油大学(华东) | 基于协同过滤和链路预测的Mashup Web API个性化推荐 |
CN110874767A (zh) * | 2019-11-19 | 2020-03-10 | 山东爱城市网信息技术有限公司 | 一种基于协同过滤的营业厅精准营销方法 |
-
2020
- 2020-06-29 CN CN202010609618.3A patent/CN111753207B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105389369A (zh) * | 2015-11-12 | 2016-03-09 | 广州神马移动信息科技有限公司 | 一种网页评论的方法、装置、终端及服务器 |
AU2018101513A4 (en) * | 2018-10-11 | 2018-11-15 | Hui, Bo Mr | Comprehensive Stock Prediction GRU Model: Emotional Index and Volatility Based |
CN110009430A (zh) * | 2019-04-11 | 2019-07-12 | 腾讯科技(深圳)有限公司 | 作弊用户检测方法、电子设备及计算机可读存储介质 |
CN110851719A (zh) * | 2019-11-11 | 2020-02-28 | 中国石油大学(华东) | 基于协同过滤和链路预测的Mashup Web API个性化推荐 |
CN110874767A (zh) * | 2019-11-19 | 2020-03-10 | 山东爱城市网信息技术有限公司 | 一种基于协同过滤的营业厅精准营销方法 |
Non-Patent Citations (1)
Title |
---|
郭望: "基于用户评论建模的推荐算法研究及应用", 《中国优秀硕士学位学位论文全文数据库 信息科技辑》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112488355A (zh) * | 2020-10-28 | 2021-03-12 | 华为技术有限公司 | 基于图神经网络预测用户评级的方法和装置 |
CN112700342A (zh) * | 2020-12-29 | 2021-04-23 | 四川大学 | 社交媒体信息真实性的个性化评分预测模型及预测方法 |
CN112905900A (zh) * | 2021-04-02 | 2021-06-04 | 辽宁工程技术大学 | 基于图卷积注意力机制的协同过滤推荐算法 |
CN112905900B (zh) * | 2021-04-02 | 2023-11-17 | 辽宁工程技术大学 | 基于图卷积注意力机制的协同过滤推荐方法 |
CN113157899A (zh) * | 2021-05-27 | 2021-07-23 | 东莞心启航联贸网络科技有限公司 | 一种大数据画像分析方法、服务器及可读存储介质 |
CN113378047A (zh) * | 2021-06-10 | 2021-09-10 | 武汉大学 | 一种基于多方面增强的图神经网络推荐方法 |
CN113378047B (zh) * | 2021-06-10 | 2022-10-21 | 武汉大学 | 一种基于多方面增强的图神经网络推荐方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111753207B (zh) | 2021-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111753207B (zh) | 一种基于评论的神经图协同过滤方法 | |
CN108984745B (zh) | 一种融合多知识图谱的神经网络文本分类方法 | |
CN105512289B (zh) | 基于深度学习和哈希的图像检索方法 | |
CN111753024B (zh) | 一种面向公共安全领域的多源异构数据实体对齐方法 | |
CN110222163A (zh) | 一种融合cnn与双向lstm的智能问答方法及系统 | |
CN109947912A (zh) | 一种基于段落内部推理和联合问题答案匹配的模型方法 | |
CN107832400A (zh) | 一种基于位置的lstm和cnn联合模型进行关系分类的方法 | |
CN108875807A (zh) | 一种基于多注意力多尺度的图像描述方法 | |
CN108197294A (zh) | 一种基于深度学习的文本自动生成方法 | |
CN110321361B (zh) | 基于改进的lstm神经网络模型的试题推荐判定方法 | |
CN111291556B (zh) | 基于实体义项的字和词特征融合的中文实体关系抽取方法 | |
CN110427989B (zh) | 汉字骨架自动合成方法及大规模中文字库自动生成方法 | |
CN109543722A (zh) | 一种基于情感分析模型的情感趋势预测方法 | |
CN113486190B (zh) | 一种融合实体图像信息和实体类别信息的多模态知识表示方法 | |
CN111274398A (zh) | 一种方面级用户产品评论情感分析方法及系统 | |
CN110209789A (zh) | 一种用户注意力引导的多模态对话系统及方法 | |
CN108765512B (zh) | 一种基于多层级特征的对抗图像生成方法 | |
CN111222338A (zh) | 基于预训练模型和自注意力机制的生物医学关系抽取方法 | |
CN110287770B (zh) | 一种基于卷积神经网络的水中个体目标匹配识别方法 | |
CN112527993B (zh) | 一种跨媒体层次化深度视频问答推理框架 | |
CN112016002A (zh) | 融合评论文本层级注意力和时间因素的混合推荐方法 | |
CN110415071A (zh) | 一种基于观点挖掘分析的汽车竞品对比方法 | |
CN112784929A (zh) | 一种基于双元组扩充的小样本图像分类方法及装置 | |
CN115062139B (zh) | 一种对话文本摘要模型自动搜索方法 | |
CN115080715B (zh) | 基于残差结构和双向融合注意力的跨度提取阅读理解方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |