CN112650929B - 一种融入评论信息的图神经网络推荐方法 - Google Patents
一种融入评论信息的图神经网络推荐方法 Download PDFInfo
- Publication number
- CN112650929B CN112650929B CN202011614918.7A CN202011614918A CN112650929B CN 112650929 B CN112650929 B CN 112650929B CN 202011614918 A CN202011614918 A CN 202011614918A CN 112650929 B CN112650929 B CN 112650929B
- Authority
- CN
- China
- Prior art keywords
- user
- expression
- article
- node
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Probability & Statistics with Applications (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种融入评论信息的图神经网络推荐方法,将用户评论文本作为节点信息的来源,使用BERT模型进行文本数据的特征提取工作,以得到每个节点的内容表述向量。再根据用户与物品的交互行为建立用户—物品二部图,通过在该二部图上搭建图神经网络聚合节点的一阶和三阶邻居信息,来学习用户和物品的结构表述,再将结构表述与内容表述相融合作为用户和物品的最终嵌入表示。最后,通过多层感知机MLP预测用户对各物品的交互概率。针对得到的预测结果,采用Top‑N排序,生成推荐物品列表。本发明能更精确捕捉用户偏好,找到用户的兴趣点,并对其进行更为准确有效的推荐。
Description
技术领域
本发明涉及计算机信息推荐方法领域,具体是一种融入评论信息的图神经网络推荐方法。
背景技术
推荐系统可以解决信息过载问题,发展迅速。如手机上的软件,购物、音乐、视频等都是和推荐有关,其核心大都是通过分析用户的行为来研究用户的兴趣爱好,从大量的数据中给用户推荐所感兴趣的。
传统推荐算法有基于内容的推荐、基于协同过滤的推荐和混合推荐。基于内容的推荐所用是信息比对过滤技术,其物品的内容无需评分,但需要易提取的内容特征且结构性强,推荐精度不高且可扩展性差。协同过滤采用临近技术利用评分和用户和项目之间的交互信息进行推荐,但协同过滤有典型的数据稀疏和冷启动问题。混合推荐目的是通过组合后能避免或弥补各自推荐技术的弱点从而扬长避短,但是用的算法多,计算难度增加。而图数据的强大表达能力而受到越来越多的关注,图能刻画实物以及实物之间的关系,也可以用作跨越各种领域的大量系统表示,图分析侧重于节点分类、链接预测和聚类。将处理图数据的相关图神经网络算法应用到推荐系统上,可以弥补传统协同过滤算法在用户和物品结构描述上的缺陷,通过加入注意力机制对图数据进行聚合更新,可以将节点蕴含的信息更加突出的表现出来,在聚合高阶邻居时效果更好。
在现有的推荐技术中,一般基于评分信息或者用户浏览、购买记录捕捉用户喜好进行推荐,但是很少考虑融合用户的评论信息来获取用户的偏好和物品的特征,导致推荐效果不够理想。目前基于协同过滤的推荐系统中主要面临以下几个问题:
(1)对数据稀疏型问题和冷启动敏感。
(2)单一的利用用户与物品的交互信息,不能很好的利用其它有用信息。
(3)对于高阶邻居,不能很好识别用户的关注点。
发明内容
本发明目的就是为了弥补已有技术的缺陷,提供一种融入评论信息的图神经网络推荐方法,通过聚合各节点一阶邻居和三阶邻居,更全面的获取节点的结构表述,并通过使用BERT模型分析评论数据,作为各节点的内容表述。将结构表述和内容表述共同作为节点的最终嵌入表示,并使用多层感知机进行预测用户与物品的交互概率,从而进行个性化推荐,提高了推荐结果的准确率。
为了达到上述目的,本发明所采用的技术方案为:
一种融入评论信息的图神经网络推荐方法,包括以下步骤:
(1)、利用BERT模型从评论文本中提取语义特征,作为用户和物品的内容表述;
(2)、构建第一图卷积层和第一图注意力层学习用户的结构信息表述,并与步骤(1)得到的用户的内容表述进行融合,作为用户的最终嵌入表示;
(3)、构建第二图卷积层和第二图注意力层学习物品的结构信息表述,并与步骤(1)得到的物品的内容表述进行融合,作为物品的最终嵌入表示;
(4)、利用步骤(2)和步骤(3)得到的用户、物品的最终嵌入表示,通过多层感知机MLP预测用户对物品产生交互的概率;
(5)、利用步骤(4)得到交互的概率作为预测结果进行推荐。
一种融入评论信息的图神经网络推荐方法步骤(1)的具体步骤如下:
步骤(1.1)、从评论数据集中提取用户对各个物品的评论文本,使用BERT模型将评论文本转换为词向量,并将词向量聚合成特征向量,得到如公式(1)的内容表述:
公式(1)中,Ui表示第i个用户节点的内容表述特征向量,U(wordi)为该用户对物品的评论所用的词语wordi使用BERT模型向量化得到的词向量,N为评论文本中的词语数量;
步骤(1.2)、从评论数据集中提取各个物品被各个用户所评论的文本,使用BERT模型将评论文本转换为词向量,并将词向量聚合成特征向量,得到公式(2)的内容表述:
公式(2)中:Ij表示第j个物品节点的内容表述特征向量,I(wordj)为物品被各个用户评论所用到的词语wordj使用BERT模型向量化得到的词向量,N为评论文本中的词语数量。
一种融入评论信息的图神经网络推荐方法步骤(1.1)中采用平均向量化方法将词向量聚合成特征向量以得到公式(1),步骤(1.2)中同样采用平均向量化方法将词向量聚合成特征向量得到公式(2)。
一种融入评论信息的图神经网络推荐方法步骤(2)的具体步骤如下:
步骤(2.1)、随机初始化用户的结构特征:
其中:Emb_user表示用户的结构特征矩阵,由各个用户的结构特征向量emb_user组成;
步骤(2.2)、随机初始化物品的结构特征:
其中:Emb_item表示物品的结构特征矩阵,由各个物品的结构特征向量emb_item组成;
步骤(2.3)、从数据集中提取用户-物品的交互记录,构建用户-物品稀疏邻接矩阵,并添加自环,防止后续的聚合更新过程中丢失自身信息,然后对稀疏邻接矩阵进行归一化处理,得到公式(3):
公式(3)中:Anorm_user2item表示归一化后的用户—物品稀疏邻接矩阵,表示由各个用户节点的度构成的对角阵,Auser2item表示未归一化的用户-物品稀疏邻接矩阵,表示由各个物品节点的度构成的对角阵;
步骤(2.4)、构建第一图卷积层,通过聚合用户节点的一阶邻居信息来更新用户节点的结构特征表述,得到公式(4):
步骤(2.5)、构建第一图注意力层,对用户节点的三阶邻居信息进行聚合,用于更新自身节点信息,得到各个用户节点结构表述的更新结果,如公式(5)所示:
公式(6)中:softmax(·)为归一化函数,LeakyReLU(·)为本层中用于计算物品节点与用户节点相关度的激活函数,aT为权重参数,WGAT为节点信息变换的权重参数;
步骤(2.6)、构建第一全连接层融合用户的内容表述与结构信息表述,得到公式(7):
公式(7)中:Huser即为用户节点的最终嵌入表示,U为步骤(1)中得到的用户内容表述特征矩阵,Wd_user为该全连接层的权重参数,bd_user表示该全连接层的偏置项。
一种融入评论信息的图神经网络推荐方法步骤(3)的具体过程如下:
步骤(3.1)、从数据集中提取用户-物品的交互记录,构建物品—用户稀疏邻接矩阵,并添加自环,防止后续的聚合更新过程中丢失自身信息,然后对稀疏邻接矩阵进行归一化处理得到公式(8):
公式(8)中:Anorm_item2user表示归一化后的物品—用户稀疏邻接矩阵,表示由各个物品节点的度构成的对角阵,Aitem2user表示未归一化的物品—用户稀疏邻接矩阵,表示由各个用户节点的度构成的对角阵;
步骤(3.2)、构建第二图卷积层,通过聚合物品节点的一阶邻居信息来更新物品节点的结构特征表述,得到公式(9):
步骤(3.3)、构建第二图注意力层,对物品节点的三阶邻居信息进行聚合,用于更新自身节点信息,得到各个物品节点结构表述的更新结果,如以下公式(10)所示:
步骤(3.4)、构建第二全连接层融合物品的内容表述与结构信息表述,如公式(11)所示:
公式(11)中:Hitem即为物品节点的最终嵌入表示,I为步骤(1)中得到的物品内容表述特征矩阵,Wd_item为该全连接层的权重参数,bd_item表示该全连接层的偏置项。
一种融入评论信息的图神经网络推荐方法步骤(4)的具体过程如下:
步骤(4.1)、构建第三全连接层,对用户最终嵌入表示和物品最终嵌入表示进行整合,得到公式(12):
Hd=σ([Huser|Hitem]·Wd+bd) (12),
公式(12)中:Hd表示对用户最终嵌入表示和物品最终嵌入表示的整合结果,σ(·)为该全连接层的ReLU激活函数,Wd表示该全连接层的权重参数,bd表示该全连接层的偏置项;
步骤(4.2)、构建第四全连接层,利用步骤(4.1)中得到的Hd预测用户对物品产生交互的概率,如以下公式(13)所示:
与现有技术相比,本发明的优点为:
1、本发明不仅利用用户与物品的交互信息,同时还利用了用户对物品的评论文本内容。融合了多种信息进行用户兴趣的发掘,相较于使用交互行为数据的传统推荐方法,本发明能进行更合理更精确的推荐;
2、本发明所构建的BERT文本处理、图卷积层、图注意力层,可以有效的获取用户对物品的偏好程度;
3、本发明所使用的图卷积层和图注意力层,在应对数据稀疏和冷启动时,较传统的推荐方法有更好的表现。
4、本发明所使用的图注意力层,在聚合高阶邻居时,可自适应学习节点之间的相关性,更有助于学习节点的结构表述。
附图说明
图1为本发明方法流程框图。
图2为BERT模型提取用户和物品的内容表述流程框图。
图3为利用图神经网络学习用户节点的结构信息表述并与内容表述相融合得到的用户嵌入表示的流程框图。
图4为利用图神经网络学习物品节点的结构信息表述并与内容表述相融合得到的物品嵌入表示的流程框图。
图5为利用多层感知器MLP预测用户对物品的交互概率的流程框图。
具体实施方式
下面结合附图和实施例对本发明进一步说明。
如图1所示,本发明一种融入评论信息的图神经网络推荐方法,利用BERT模型从用户评论文本中分别提取用户和物品的内容表述,再构建用户和物品的二部图,利用图神经网络从用户—物品二部图中学习用户和物品的结构表述,并与内容表述项融合作为用户和物品的最终嵌入表示。最后使用多层感知机预测用户对物品的交互概率,并根据用户对每个物品的预测交互概率进行排序,选择概率较高的物品生成Top-N推荐列表。
本发明包括以下步骤:
(1)、如图2所示,利用BERT模型从评论文本中提取语义特征,作为用户和物品的内容表述;步骤(1)的具体步骤如下:
步骤(1.1)、从评论数据集中提取用户对各个物品的评论文本,使用BERT模型将评论文本转换为词向量,并采用平均向量化方法将词向量聚合成特征向量,得到如公式(1)的内容表述:
公式(1)中,Ui表示第i个用户节点的内容表述特征向量,U(wordi)为该用户对物品的评论所用的词语wordi使用BERT模型向量化得到的词向量,N为评论文本中的词语数量;
步骤(1.2)、从评论数据集中提取各个物品被各个用户所评论的文本,使用BERT模型将评论文本转换为词向量,并采用平均向量化方法将词向量聚合成特征向量,得到公式(2)的内容表述:
公式(2)中:Ij表示第j个物品节点的内容表述特征向量,I(wordj)为物品被各个用户评论所用到的词语wordj使用BERT模型向量化得到的词向量,N为评论文本中的词语数量。
(2)、如图3所示,构建第一图卷积层和第一图注意力层学习用户的结构信息表述,并与步骤(1)得到的用户的内容表述进行融合,作为用户的最终嵌入表示;步骤(2)的具体步骤如下:
步骤(2.1)、随机初始化用户的结构特征:
其中:Emb_user表示用户的结构特征矩阵,由各个用户的结构特征向量emb_user组成;
步骤(2.2)、随机初始化物品的结构特征:
其中:Emb_item表示物品的结构特征矩阵,由各个物品的结构特征向量emb_item组成;
步骤(2.3)、从数据集中提取用户-物品的交互记录,构建用户-物品稀疏邻接矩阵,并添加自环,防止后续的聚合更新过程中丢失自身信息,然后对稀疏邻接矩阵进行归一化处理,得到公式(3):
公式(3)中:Anorm_user2item表示归一化后的用户—物品稀疏邻接矩阵,表示由各个用户节点的度构成的对角阵,Auser2item表示未归一化的用户-物品稀疏邻接矩阵,表示由各个物品节点的度构成的对角阵;
步骤(2.4)、构建第一图卷积层,通过聚合用户节点的一阶邻居信息来更新用户节点的结构特征表述,得到公式(4):
步骤(2.5)、构建第一图注意力层,对用户节点的三阶邻居信息进行聚合,用于更新自身节点信息,得到各个用户节点结构表述的更新结果,如公式(5)所示:
公式(6)中:softmax(·)为归一化函数,LeakyReLU(·)为本层中用于计算物品节点与用户节点相关度的激活函数,aT为权重参数,WGAT为节点信息变换的权重参数;
步骤(2.6)、构建第一全连接层融合用户的内容表述与结构信息表述,得到公式(7):
公式(7)中:Huser即为用户节点的最终嵌入表示,U为步骤(1)中得到的用户内容表述特征矩阵,Wd_user为该全连接层的权重参数,bd_user表示该全连接层的偏置项。
(3)、如图4所示,构建第二图卷积层和第二图注意力层学习物品的结构信息表述,并与步骤(1)得到的物品的内容表述进行融合,作为物品的最终嵌入表示;步骤(3)的具体过程如下:
步骤(3.1)、从数据集中提取用户-物品的交互记录,构建物品—用户稀疏邻接矩阵,并添加自环,防止后续的聚合更新过程中丢失自身信息,然后对稀疏邻接矩阵进行归一化处理得到公式(8):
公式(8)中:Anorm_item2user表示归一化后的物品—用户稀疏邻接矩阵,表示由各个物品节点的度构成的对角阵,Aitem2user表示未归一化的物品—用户稀疏邻接矩阵,表示由各个用户节点的度构成的对角阵;
步骤(3.2)、构建第二图卷积层,通过聚合物品节点的一阶邻居信息来更新物品节点的结构特征表述,得到公式(9):
步骤(3.3)、构建第二图注意力层,对物品节点的三阶邻居信息进行聚合,用于更新自身节点信息,得到各个物品节点结构表述的更新结果,如以下公式(10)所示:
步骤(3.4)、构建第二全连接层融合物品的内容表述与结构信息表述,如公式(11)所示:
公式(11)中:Hitem即为物品节点的最终嵌入表示,I为步骤(1)中得到的物品内容表述特征矩阵,Wd_item为该全连接层的权重参数,bd_item表示该全连接层的偏置项。
(4)、如图5所示,利用步骤(2)和步骤(3)得到的用户、物品的最终嵌入表示,通过多层感知机MLP预测用户对物品产生交互的概率;步骤(4)的具体过程如下:
步骤(4.1)、构建第三全连接层,对用户最终嵌入表示和物品最终嵌入表示进行整合,得到公式(12):
Hd=σ([Huser|Hitem]·Wd+bd) (12),
公式(12)中:Hd表示对用户最终嵌入表示和物品最终嵌入表示的整合结果,σ(·)为该全连接层的ReLU激活函数,Wd表示该全连接层的权重参数,bd表示该全连接层的偏置项;
步骤(4.2)、构建第四全连接层,利用步骤(4.1)中得到的Hd预测用户对物品产生交互的概率,如以下公式(13)所示:
(5)、使用反向传播优化算法优化上述模型后,利用步骤(4)得到交互的概率作为预测结果进行推荐,对物品进行Top-N排序,选取前N个物品推荐给用户。
本发明所述的实施例仅仅是对本发明的优选实施方式进行的描述,并非对本发明构思和范围进行限定,在不脱离本发明设计思想的前提下,本领域中工程技术人员对本发明的技术方案作出的各种变型和改进,均应落入本发明的保护范围,本发明请求保护的技术内容,已经全部记载在权利要求书中。
Claims (1)
1.一种融入评论信息的图神经网络推荐方法,其特征在于,包括以下步骤:
(1)、利用BERT模型从评论文本中提取语义特征,作为用户和物品的内容表述;
(2)、构建第一图卷积层和第一图注意力层学习用户的结构信息表述,并与步骤(1)得到的用户的内容表述进行融合,作为用户的最终嵌入表示;
(3)、构建第二图卷积层和第二图注意力层学习物品的结构信息表述,并与步骤(1)得到的物品的内容表述进行融合,作为物品的最终嵌入表示;
(4)、利用步骤(2)和步骤(3)得到的用户、物品的最终嵌入表示,通过多层感知机MLP预测用户对物品产生交互的概率;
(5)、利用步骤(4)得到交互的概率作为预测结果进行推荐;
步骤(1)的具体步骤如下:
步骤(1.1)、从评论数据集中提取用户对各个物品的评论文本,使用BERT模型将评论文本转换为词向量,并将词向量聚合成特征向量,得到如公式(1)的内容表述:
公式(1)中,Ui表示第i个用户节点的内容表述特征向量,U(wordi)为该用户对物品的评论所用的词语wordi使用BERT模型向量化得到的词向量,N为评论文本中的词语数量;
步骤(1.2)、从评论数据集中提取各个物品被各个用户所评论的文本,使用BERT模型将评论文本转换为词向量,并将词向量聚合成特征向量,得到公式(2)的内容表述:
公式(2)中:Ij表示第j个物品节点的内容表述特征向量,I(wordj)为物品被各个用户评论所用到的词语wordj使用BERT模型向量化得到的词向量,N为评论文本中的词语数量;
步骤(1.1)中采用平均向量化方法将词向量聚合成特征向量以得到公式(1),步骤(1.2)中同样采用平均向量化方法将词向量聚合成特征向量得到公式(2);
步骤(2)的具体步骤如下:
步骤(2.1)、随机初始化用户的结构特征:
其中:Emb_user表示用户的结构特征矩阵,由各个用户的结构特征向量emb_user组成;
步骤(2.2)、随机初始化物品的结构特征:
其中:Emb_item表示物品的结构特征矩阵,由各个物品的结构特征向量emb_item组成;
步骤(2.3)、从数据集中提取用户-物品的交互记录,构建用户-物品稀疏邻接矩阵,并添加自环,防止后续的聚合更新过程中丢失自身信息,然后对稀疏邻接矩阵进行归一化处理,得到公式(3):
公式(3)中:Anorm_user2item表示归一化后的用户—物品稀疏邻接矩阵,表示由各个用户节点的度构成的对角阵,Auser2item表示未归一化的用户-物品稀疏邻接矩阵,表示由各个物品节点的度构成的对角阵;
步骤(2.4)、构建第一图卷积层,通过聚合用户节点的一阶邻居信息来更新用户节点的结构特征表述,得到公式(4):
步骤(2.5)、构建第一图注意力层,对用户节点的三阶邻居信息进行聚合,用于更新自身节点信息,得到各个用户节点结构表述的更新结果,如公式(5)所示:
公式(6)中:softmax(·)为归一化函数,LeakyReLU(·)为本层中用于计算物品节点与用户节点相关度的激活函数,aT为权重参数,WGAT为节点信息变换的权重参数;
步骤(2.6)、构建第一全连接层融合用户的内容表述与结构信息表述,得到公式(7):
公式(7)中:Huser即为用户节点的最终嵌入表示,U为步骤(1)中得到的用户内容表述特征矩阵,Wd_user为该全连接层的权重参数,bd_user表示该全连接层的偏置项;
步骤(3)的具体过程如下:
步骤(3.1)、从数据集中提取用户-物品的交互记录,构建物品—用户稀疏邻接矩阵,并添加自环,防止后续的聚合更新过程中丢失自身信息,然后对稀疏邻接矩阵进行归一化处理得到公式(8):
公式(8)中:Anorm_item2user表示归一化后的物品—用户稀疏邻接矩阵,表示由各个物品节点的度构成的对角阵,Aitem2user表示未归一化的物品—用户稀疏邻接矩阵,表示由各个用户节点的度构成的对角阵;
步骤(3.2)、构建第二图卷积层,通过聚合物品节点的一阶邻居信息来更新物品节点的结构特征表述,得到公式(9):
步骤(3.3)、构建第二图注意力层,对物品节点的三阶邻居信息进行聚合,用于更新自身节点信息,得到各个物品节点结构表述的更新结果,如以下公式(10)所示:
步骤(3.4)、构建第二全连接层融合物品的内容表述与结构信息表述,如公式(11)所示:
公式(11)中:Hitem即为物品节点的最终嵌入表示,I为步骤(1)中得到的物品内容表述特征矩阵,Wd_item为该全连接层的权重参数,bd_item表示该全连接层的偏置项;
步骤(4)的具体过程如下:
步骤(4.1)、构建第三全连接层,对用户最终嵌入表示和物品最终嵌入表示进行整合,得到公式(12):
Hd=σ([Huser|Hitem]·Wd+bd) (12),
公式(12)中:Hd表示对用户最终嵌入表示和物品最终嵌入表示的整合结果,σ(·)为该全连接层的ReLU激活函数,Wd表示该全连接层的权重参数,bd表示该全连接层的偏置项;
步骤(4.2)、构建第四全连接层,利用步骤(4.1)中得到的Hd预测用户对物品产生交互的概率,如以下公式(13)所示:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011614918.7A CN112650929B (zh) | 2020-12-31 | 2020-12-31 | 一种融入评论信息的图神经网络推荐方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011614918.7A CN112650929B (zh) | 2020-12-31 | 2020-12-31 | 一种融入评论信息的图神经网络推荐方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112650929A CN112650929A (zh) | 2021-04-13 |
CN112650929B true CN112650929B (zh) | 2022-05-03 |
Family
ID=75364362
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011614918.7A Active CN112650929B (zh) | 2020-12-31 | 2020-12-31 | 一种融入评论信息的图神经网络推荐方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112650929B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113158045B (zh) * | 2021-04-20 | 2022-11-01 | 中国科学院深圳先进技术研究院 | 一种基于图神经网络推理的可解释推荐方法 |
CN113159891B (zh) * | 2021-04-24 | 2022-05-17 | 桂林电子科技大学 | 一种基于多种用户表示融合的商品推荐方法 |
CN113268675B (zh) * | 2021-05-19 | 2022-07-08 | 湖南大学 | 一种基于图注意力网络的社交媒体谣言检测方法和系统 |
CN113434756B (zh) * | 2021-06-18 | 2022-05-27 | 山东省人工智能研究院 | 基于图双向聚合网络链接预测模型的个性化评论推荐方法 |
CN113343094A (zh) * | 2021-06-21 | 2021-09-03 | 安徽农业大学 | 一种信息增强的缓解推荐用户冷启动问题的元学习方法 |
CN114780866B (zh) * | 2022-04-11 | 2022-11-01 | 山东省人工智能研究院 | 一种基于时空上下文兴趣学习模型的个性化智能推荐方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111782765A (zh) * | 2020-06-24 | 2020-10-16 | 安徽农业大学 | 一种基于图注意力机制的推荐方法 |
CN112084407A (zh) * | 2020-09-08 | 2020-12-15 | 辽宁工程技术大学 | 一种融合图神经网络和注意力机制的协同过滤推荐方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11544535B2 (en) * | 2019-03-08 | 2023-01-03 | Adobe Inc. | Graph convolutional networks with motif-based attention |
US20200334326A1 (en) * | 2019-04-18 | 2020-10-22 | Microsoft Technology Licensing, Llc | Architectures for modeling comment and edit relations |
CN110737778B (zh) * | 2019-09-04 | 2022-05-31 | 北京邮电大学 | 基于知识图谱和Transformer的专利推荐方法 |
CN111582443B (zh) * | 2020-04-22 | 2021-02-02 | 成都信息工程大学 | 一种基于Mask机制和层次注意力机制的推荐方法 |
CN112131469A (zh) * | 2020-09-22 | 2020-12-25 | 安徽农业大学 | 一种基于评论文本的深度学习推荐方法 |
-
2020
- 2020-12-31 CN CN202011614918.7A patent/CN112650929B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111782765A (zh) * | 2020-06-24 | 2020-10-16 | 安徽农业大学 | 一种基于图注意力机制的推荐方法 |
CN112084407A (zh) * | 2020-09-08 | 2020-12-15 | 辽宁工程技术大学 | 一种融合图神经网络和注意力机制的协同过滤推荐方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112650929A (zh) | 2021-04-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112650929B (zh) | 一种融入评论信息的图神经网络推荐方法 | |
CN112214685B (zh) | 一种基于知识图谱的个性化推荐方法 | |
CN111061856A (zh) | 一种基于知识感知的新闻推荐方法 | |
CN111222332A (zh) | 一种结合注意力网络和用户情感的商品推荐方法 | |
Pham et al. | A hierarchical fused fuzzy deep neural network with heterogeneous network embedding for recommendation | |
Chen et al. | IR-Rec: An interpretive rules-guided recommendation over knowledge graph | |
CN112507246B (zh) | 一种融合全局和局部社会兴趣影响的社会推荐方法 | |
CN112966091A (zh) | 一种融合实体信息与热度的知识图谱推荐系统 | |
Zhang et al. | Billion-scale pre-trained e-commerce product knowledge graph model | |
Jin et al. | Multi-label sentiment analysis base on BERT with modified TF-IDF | |
Wang et al. | An enhanced multi-modal recommendation based on alternate training with knowledge graph representation | |
Meng et al. | Concept-concept association information integration and multi-model collaboration for multimedia semantic concept detection | |
CN111597428A (zh) | 一种具有q分离k稀疏的用户与物品拼接的推荐方法 | |
Pughazendi et al. | Graph Sample and Aggregate Attention Network optimized with Barnacles Mating Algorithm based Sentiment Analysis for Online Product Recommendation | |
CN110321565B (zh) | 基于深度学习的实时文本情感分析方法、装置及设备 | |
Gan et al. | CDMF: a deep learning model based on convolutional and dense-layer matrix factorization for context-aware recommendation | |
CN114842247B (zh) | 基于特征累加的图卷积网络半监督节点分类方法 | |
Hu et al. | Wshe: user feedback-based weighted signed heterogeneous information network embedding | |
Cai et al. | Deep learning approaches on multimodal sentiment analysis | |
Chen et al. | Gaussian mixture embedding of multiple node roles in networks | |
Agarwal et al. | Binarized spiking neural networks optimized with Nomadic People Optimization-based sentiment analysis for social product recommendation | |
Selvi et al. | Sentimental analysis of movie reviews in Tamil text | |
Xin et al. | Improving latent factor model based collaborative filtering via integrated folksonomy factors | |
Van Le et al. | An efficient pretopological approach for document clustering | |
Bao et al. | HTRM: A hybrid neural network algorithm based on tag-aware |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |