CN112650929B - 一种融入评论信息的图神经网络推荐方法 - Google Patents

一种融入评论信息的图神经网络推荐方法 Download PDF

Info

Publication number
CN112650929B
CN112650929B CN202011614918.7A CN202011614918A CN112650929B CN 112650929 B CN112650929 B CN 112650929B CN 202011614918 A CN202011614918 A CN 202011614918A CN 112650929 B CN112650929 B CN 112650929B
Authority
CN
China
Prior art keywords
user
expression
article
node
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011614918.7A
Other languages
English (en)
Other versions
CN112650929A (zh
Inventor
吴国栋
王伟娜
李景霞
涂立静
刘玉良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui Agricultural University AHAU
Original Assignee
Anhui Agricultural University AHAU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui Agricultural University AHAU filed Critical Anhui Agricultural University AHAU
Priority to CN202011614918.7A priority Critical patent/CN112650929B/zh
Publication of CN112650929A publication Critical patent/CN112650929A/zh
Application granted granted Critical
Publication of CN112650929B publication Critical patent/CN112650929B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种融入评论信息的图神经网络推荐方法,将用户评论文本作为节点信息的来源,使用BERT模型进行文本数据的特征提取工作,以得到每个节点的内容表述向量。再根据用户与物品的交互行为建立用户—物品二部图,通过在该二部图上搭建图神经网络聚合节点的一阶和三阶邻居信息,来学习用户和物品的结构表述,再将结构表述与内容表述相融合作为用户和物品的最终嵌入表示。最后,通过多层感知机MLP预测用户对各物品的交互概率。针对得到的预测结果,采用Top‑N排序,生成推荐物品列表。本发明能更精确捕捉用户偏好,找到用户的兴趣点,并对其进行更为准确有效的推荐。

Description

一种融入评论信息的图神经网络推荐方法
技术领域
本发明涉及计算机信息推荐方法领域,具体是一种融入评论信息的图神经网络推荐方法。
背景技术
推荐系统可以解决信息过载问题,发展迅速。如手机上的软件,购物、音乐、视频等都是和推荐有关,其核心大都是通过分析用户的行为来研究用户的兴趣爱好,从大量的数据中给用户推荐所感兴趣的。
传统推荐算法有基于内容的推荐、基于协同过滤的推荐和混合推荐。基于内容的推荐所用是信息比对过滤技术,其物品的内容无需评分,但需要易提取的内容特征且结构性强,推荐精度不高且可扩展性差。协同过滤采用临近技术利用评分和用户和项目之间的交互信息进行推荐,但协同过滤有典型的数据稀疏和冷启动问题。混合推荐目的是通过组合后能避免或弥补各自推荐技术的弱点从而扬长避短,但是用的算法多,计算难度增加。而图数据的强大表达能力而受到越来越多的关注,图能刻画实物以及实物之间的关系,也可以用作跨越各种领域的大量系统表示,图分析侧重于节点分类、链接预测和聚类。将处理图数据的相关图神经网络算法应用到推荐系统上,可以弥补传统协同过滤算法在用户和物品结构描述上的缺陷,通过加入注意力机制对图数据进行聚合更新,可以将节点蕴含的信息更加突出的表现出来,在聚合高阶邻居时效果更好。
在现有的推荐技术中,一般基于评分信息或者用户浏览、购买记录捕捉用户喜好进行推荐,但是很少考虑融合用户的评论信息来获取用户的偏好和物品的特征,导致推荐效果不够理想。目前基于协同过滤的推荐系统中主要面临以下几个问题:
(1)对数据稀疏型问题和冷启动敏感。
(2)单一的利用用户与物品的交互信息,不能很好的利用其它有用信息。
(3)对于高阶邻居,不能很好识别用户的关注点。
发明内容
本发明目的就是为了弥补已有技术的缺陷,提供一种融入评论信息的图神经网络推荐方法,通过聚合各节点一阶邻居和三阶邻居,更全面的获取节点的结构表述,并通过使用BERT模型分析评论数据,作为各节点的内容表述。将结构表述和内容表述共同作为节点的最终嵌入表示,并使用多层感知机进行预测用户与物品的交互概率,从而进行个性化推荐,提高了推荐结果的准确率。
为了达到上述目的,本发明所采用的技术方案为:
一种融入评论信息的图神经网络推荐方法,包括以下步骤:
(1)、利用BERT模型从评论文本中提取语义特征,作为用户和物品的内容表述;
(2)、构建第一图卷积层和第一图注意力层学习用户的结构信息表述,并与步骤(1)得到的用户的内容表述进行融合,作为用户的最终嵌入表示;
(3)、构建第二图卷积层和第二图注意力层学习物品的结构信息表述,并与步骤(1)得到的物品的内容表述进行融合,作为物品的最终嵌入表示;
(4)、利用步骤(2)和步骤(3)得到的用户、物品的最终嵌入表示,通过多层感知机MLP预测用户对物品产生交互的概率;
(5)、利用步骤(4)得到交互的概率作为预测结果进行推荐。
一种融入评论信息的图神经网络推荐方法步骤(1)的具体步骤如下:
步骤(1.1)、从评论数据集中提取用户对各个物品的评论文本,使用BERT模型将评论文本转换为词向量,并将词向量聚合成特征向量,得到如公式(1)的内容表述:
Figure BDA0002874620860000021
公式(1)中,Ui表示第i个用户节点的内容表述特征向量,U(wordi)为该用户对物品的评论所用的词语wordi使用BERT模型向量化得到的词向量,N为评论文本中的词语数量;
步骤(1.2)、从评论数据集中提取各个物品被各个用户所评论的文本,使用BERT模型将评论文本转换为词向量,并将词向量聚合成特征向量,得到公式(2)的内容表述:
Figure BDA0002874620860000031
公式(2)中:Ij表示第j个物品节点的内容表述特征向量,I(wordj)为物品被各个用户评论所用到的词语wordj使用BERT模型向量化得到的词向量,N为评论文本中的词语数量。
一种融入评论信息的图神经网络推荐方法步骤(1.1)中采用平均向量化方法将词向量聚合成特征向量以得到公式(1),步骤(1.2)中同样采用平均向量化方法将词向量聚合成特征向量得到公式(2)。
一种融入评论信息的图神经网络推荐方法步骤(2)的具体步骤如下:
步骤(2.1)、随机初始化用户的结构特征:
Figure BDA0002874620860000032
其中:Emb_user表示用户的结构特征矩阵,由各个用户的结构特征向量emb_user组成;
步骤(2.2)、随机初始化物品的结构特征:
Figure BDA0002874620860000033
其中:Emb_item表示物品的结构特征矩阵,由各个物品的结构特征向量emb_item组成;
步骤(2.3)、从数据集中提取用户-物品的交互记录,构建用户-物品稀疏邻接矩阵,并添加自环,防止后续的聚合更新过程中丢失自身信息,然后对稀疏邻接矩阵进行归一化处理,得到公式(3):
Figure BDA0002874620860000041
公式(3)中:Anorm_user2item表示归一化后的用户—物品稀疏邻接矩阵,
Figure BDA0002874620860000042
表示由各个用户节点的度构成的对角阵,Auser2item表示未归一化的用户-物品稀疏邻接矩阵,
Figure BDA0002874620860000043
表示由各个物品节点的度构成的对角阵;
步骤(2.4)、构建第一图卷积层,通过聚合用户节点的一阶邻居信息来更新用户节点的结构特征表述,得到公式(4):
Figure BDA0002874620860000044
公式(4)中:
Figure BDA0002874620860000045
表示用户的结构表述经过第一图卷积层后,所得到的更新结果,σ(·)为本层的ReLU激活函数;
步骤(2.5)、构建第一图注意力层,对用户节点的三阶邻居信息进行聚合,用于更新自身节点信息,得到各个用户节点结构表述的更新结果,如公式(5)所示:
Figure BDA0002874620860000046
公式(5)中:
Figure BDA0002874620860000047
表示用户的结构表述经过第一图注意力层后,所得到的更新结果,θ(·)为本层用于计算更新结果的ELU激活函数,
Figure BDA0002874620860000048
为物品节点与用户节点的相关度,
Figure BDA0002874620860000049
的计算公式如公式(6)所示:
Figure BDA00028746208600000410
公式(6)中:softmax(·)为归一化函数,LeakyReLU(·)为本层中用于计算物品节点与用户节点相关度的激活函数,aT为权重参数,WGAT为节点信息变换的权重参数;
步骤(2.6)、构建第一全连接层融合用户的内容表述与结构信息表述,得到公式(7):
Figure BDA00028746208600000411
公式(7)中:Huser即为用户节点的最终嵌入表示,U为步骤(1)中得到的用户内容表述特征矩阵,Wd_user为该全连接层的权重参数,bd_user表示该全连接层的偏置项。
一种融入评论信息的图神经网络推荐方法步骤(3)的具体过程如下:
步骤(3.1)、从数据集中提取用户-物品的交互记录,构建物品—用户稀疏邻接矩阵,并添加自环,防止后续的聚合更新过程中丢失自身信息,然后对稀疏邻接矩阵进行归一化处理得到公式(8):
Figure BDA0002874620860000051
公式(8)中:Anorm_item2user表示归一化后的物品—用户稀疏邻接矩阵,
Figure BDA0002874620860000052
表示由各个物品节点的度构成的对角阵,Aitem2user表示未归一化的物品—用户稀疏邻接矩阵,
Figure BDA0002874620860000053
表示由各个用户节点的度构成的对角阵;
步骤(3.2)、构建第二图卷积层,通过聚合物品节点的一阶邻居信息来更新物品节点的结构特征表述,得到公式(9):
Figure BDA0002874620860000054
公式(9)中:
Figure BDA0002874620860000055
表示物品的结构表述经过第二图卷积层后,所得到的更新结果,σ(·)为本层的ReLU激活函数;
步骤(3.3)、构建第二图注意力层,对物品节点的三阶邻居信息进行聚合,用于更新自身节点信息,得到各个物品节点结构表述的更新结果,如以下公式(10)所示:
Figure BDA0002874620860000056
公式(10)中:
Figure BDA0002874620860000057
表示物品的结构表述经过第二图注意力层后,所得到的更新结果,θ(·)为本层用于计算更新结果的ELU激活函数,
Figure BDA0002874620860000058
为步骤(2.5)中计算得到的物品节点与用户节点的相关度
Figure BDA0002874620860000059
的转置;
步骤(3.4)、构建第二全连接层融合物品的内容表述与结构信息表述,如公式(11)所示:
Figure BDA00028746208600000510
公式(11)中:Hitem即为物品节点的最终嵌入表示,I为步骤(1)中得到的物品内容表述特征矩阵,Wd_item为该全连接层的权重参数,bd_item表示该全连接层的偏置项。
一种融入评论信息的图神经网络推荐方法步骤(4)的具体过程如下:
步骤(4.1)、构建第三全连接层,对用户最终嵌入表示和物品最终嵌入表示进行整合,得到公式(12):
Hd=σ([Huser|Hitem]·Wd+bd) (12),
公式(12)中:Hd表示对用户最终嵌入表示和物品最终嵌入表示的整合结果,σ(·)为该全连接层的ReLU激活函数,Wd表示该全连接层的权重参数,bd表示该全连接层的偏置项;
步骤(4.2)、构建第四全连接层,利用步骤(4.1)中得到的Hd预测用户对物品产生交互的概率,如以下公式(13)所示:
Figure BDA0002874620860000061
公式(13)中:
Figure BDA0002874620860000062
表示用户u对物品i产生交互的预测概率,sigmoid(·)为激活函数,Wp为该全连接层的权重参数,bp表示该全连接层的偏置项。
与现有技术相比,本发明的优点为:
1、本发明不仅利用用户与物品的交互信息,同时还利用了用户对物品的评论文本内容。融合了多种信息进行用户兴趣的发掘,相较于使用交互行为数据的传统推荐方法,本发明能进行更合理更精确的推荐;
2、本发明所构建的BERT文本处理、图卷积层、图注意力层,可以有效的获取用户对物品的偏好程度;
3、本发明所使用的图卷积层和图注意力层,在应对数据稀疏和冷启动时,较传统的推荐方法有更好的表现。
4、本发明所使用的图注意力层,在聚合高阶邻居时,可自适应学习节点之间的相关性,更有助于学习节点的结构表述。
附图说明
图1为本发明方法流程框图。
图2为BERT模型提取用户和物品的内容表述流程框图。
图3为利用图神经网络学习用户节点的结构信息表述并与内容表述相融合得到的用户嵌入表示的流程框图。
图4为利用图神经网络学习物品节点的结构信息表述并与内容表述相融合得到的物品嵌入表示的流程框图。
图5为利用多层感知器MLP预测用户对物品的交互概率的流程框图。
具体实施方式
下面结合附图和实施例对本发明进一步说明。
如图1所示,本发明一种融入评论信息的图神经网络推荐方法,利用BERT模型从用户评论文本中分别提取用户和物品的内容表述,再构建用户和物品的二部图,利用图神经网络从用户—物品二部图中学习用户和物品的结构表述,并与内容表述项融合作为用户和物品的最终嵌入表示。最后使用多层感知机预测用户对物品的交互概率,并根据用户对每个物品的预测交互概率进行排序,选择概率较高的物品生成Top-N推荐列表。
本发明包括以下步骤:
(1)、如图2所示,利用BERT模型从评论文本中提取语义特征,作为用户和物品的内容表述;步骤(1)的具体步骤如下:
步骤(1.1)、从评论数据集中提取用户对各个物品的评论文本,使用BERT模型将评论文本转换为词向量,并采用平均向量化方法将词向量聚合成特征向量,得到如公式(1)的内容表述:
Figure BDA0002874620860000071
公式(1)中,Ui表示第i个用户节点的内容表述特征向量,U(wordi)为该用户对物品的评论所用的词语wordi使用BERT模型向量化得到的词向量,N为评论文本中的词语数量;
步骤(1.2)、从评论数据集中提取各个物品被各个用户所评论的文本,使用BERT模型将评论文本转换为词向量,并采用平均向量化方法将词向量聚合成特征向量,得到公式(2)的内容表述:
Figure BDA0002874620860000081
公式(2)中:Ij表示第j个物品节点的内容表述特征向量,I(wordj)为物品被各个用户评论所用到的词语wordj使用BERT模型向量化得到的词向量,N为评论文本中的词语数量。
(2)、如图3所示,构建第一图卷积层和第一图注意力层学习用户的结构信息表述,并与步骤(1)得到的用户的内容表述进行融合,作为用户的最终嵌入表示;步骤(2)的具体步骤如下:
步骤(2.1)、随机初始化用户的结构特征:
Figure BDA0002874620860000082
其中:Emb_user表示用户的结构特征矩阵,由各个用户的结构特征向量emb_user组成;
步骤(2.2)、随机初始化物品的结构特征:
Figure BDA0002874620860000083
其中:Emb_item表示物品的结构特征矩阵,由各个物品的结构特征向量emb_item组成;
步骤(2.3)、从数据集中提取用户-物品的交互记录,构建用户-物品稀疏邻接矩阵,并添加自环,防止后续的聚合更新过程中丢失自身信息,然后对稀疏邻接矩阵进行归一化处理,得到公式(3):
Figure BDA0002874620860000084
公式(3)中:Anorm_user2item表示归一化后的用户—物品稀疏邻接矩阵,
Figure BDA0002874620860000091
表示由各个用户节点的度构成的对角阵,Auser2item表示未归一化的用户-物品稀疏邻接矩阵,
Figure BDA0002874620860000092
表示由各个物品节点的度构成的对角阵;
步骤(2.4)、构建第一图卷积层,通过聚合用户节点的一阶邻居信息来更新用户节点的结构特征表述,得到公式(4):
Figure BDA0002874620860000093
公式(4)中:
Figure BDA0002874620860000094
表示用户的结构表述经过第一图卷积层后,所得到的更新结果,σ(·)为本层的ReLU激活函数;
步骤(2.5)、构建第一图注意力层,对用户节点的三阶邻居信息进行聚合,用于更新自身节点信息,得到各个用户节点结构表述的更新结果,如公式(5)所示:
Figure BDA0002874620860000095
公式(5)中:
Figure BDA0002874620860000096
表示用户的结构表述经过第一图注意力层后,所得到的更新结果,θ(·)为本层用于计算更新结果的ELU激活函数,
Figure BDA0002874620860000097
为物品节点与用户节点的相关度,
Figure BDA0002874620860000098
的计算公式如公式(6)所示:
Figure BDA0002874620860000099
公式(6)中:softmax(·)为归一化函数,LeakyReLU(·)为本层中用于计算物品节点与用户节点相关度的激活函数,aT为权重参数,WGAT为节点信息变换的权重参数;
步骤(2.6)、构建第一全连接层融合用户的内容表述与结构信息表述,得到公式(7):
Figure BDA00028746208600000910
公式(7)中:Huser即为用户节点的最终嵌入表示,U为步骤(1)中得到的用户内容表述特征矩阵,Wd_user为该全连接层的权重参数,bd_user表示该全连接层的偏置项。
(3)、如图4所示,构建第二图卷积层和第二图注意力层学习物品的结构信息表述,并与步骤(1)得到的物品的内容表述进行融合,作为物品的最终嵌入表示;步骤(3)的具体过程如下:
步骤(3.1)、从数据集中提取用户-物品的交互记录,构建物品—用户稀疏邻接矩阵,并添加自环,防止后续的聚合更新过程中丢失自身信息,然后对稀疏邻接矩阵进行归一化处理得到公式(8):
Figure BDA0002874620860000101
公式(8)中:Anorm_item2user表示归一化后的物品—用户稀疏邻接矩阵,
Figure BDA0002874620860000102
表示由各个物品节点的度构成的对角阵,Aitem2user表示未归一化的物品—用户稀疏邻接矩阵,
Figure BDA0002874620860000103
表示由各个用户节点的度构成的对角阵;
步骤(3.2)、构建第二图卷积层,通过聚合物品节点的一阶邻居信息来更新物品节点的结构特征表述,得到公式(9):
Figure BDA0002874620860000104
公式(9)中:
Figure BDA0002874620860000105
表示物品的结构表述经过第二图卷积层后,所得到的更新结果,σ(·)为本层的ReLU激活函数;
步骤(3.3)、构建第二图注意力层,对物品节点的三阶邻居信息进行聚合,用于更新自身节点信息,得到各个物品节点结构表述的更新结果,如以下公式(10)所示:
Figure BDA0002874620860000106
公式(10)中:
Figure BDA0002874620860000107
表示物品的结构表述经过第二图注意力层后,所得到的更新结果,θ(·)为本层用于计算更新结果的ELU激活函数,
Figure BDA0002874620860000108
为步骤(2.5)中计算得到的物品节点与用户节点的相关度
Figure BDA0002874620860000109
的转置;
步骤(3.4)、构建第二全连接层融合物品的内容表述与结构信息表述,如公式(11)所示:
Figure BDA00028746208600001010
公式(11)中:Hitem即为物品节点的最终嵌入表示,I为步骤(1)中得到的物品内容表述特征矩阵,Wd_item为该全连接层的权重参数,bd_item表示该全连接层的偏置项。
(4)、如图5所示,利用步骤(2)和步骤(3)得到的用户、物品的最终嵌入表示,通过多层感知机MLP预测用户对物品产生交互的概率;步骤(4)的具体过程如下:
步骤(4.1)、构建第三全连接层,对用户最终嵌入表示和物品最终嵌入表示进行整合,得到公式(12):
Hd=σ([Huser|Hitem]·Wd+bd) (12),
公式(12)中:Hd表示对用户最终嵌入表示和物品最终嵌入表示的整合结果,σ(·)为该全连接层的ReLU激活函数,Wd表示该全连接层的权重参数,bd表示该全连接层的偏置项;
步骤(4.2)、构建第四全连接层,利用步骤(4.1)中得到的Hd预测用户对物品产生交互的概率,如以下公式(13)所示:
Figure BDA0002874620860000111
公式(13)中:
Figure BDA0002874620860000112
表示用户u对物品i产生交互的预测概率,sigmoid(·)为激活函数,Wp为该全连接层的权重参数,bp表示该全连接层的偏置项。
(5)、使用反向传播优化算法优化上述模型后,利用步骤(4)得到交互的概率作为预测结果进行推荐,对物品进行Top-N排序,选取前N个物品推荐给用户。
本发明所述的实施例仅仅是对本发明的优选实施方式进行的描述,并非对本发明构思和范围进行限定,在不脱离本发明设计思想的前提下,本领域中工程技术人员对本发明的技术方案作出的各种变型和改进,均应落入本发明的保护范围,本发明请求保护的技术内容,已经全部记载在权利要求书中。

Claims (1)

1.一种融入评论信息的图神经网络推荐方法,其特征在于,包括以下步骤:
(1)、利用BERT模型从评论文本中提取语义特征,作为用户和物品的内容表述;
(2)、构建第一图卷积层和第一图注意力层学习用户的结构信息表述,并与步骤(1)得到的用户的内容表述进行融合,作为用户的最终嵌入表示;
(3)、构建第二图卷积层和第二图注意力层学习物品的结构信息表述,并与步骤(1)得到的物品的内容表述进行融合,作为物品的最终嵌入表示;
(4)、利用步骤(2)和步骤(3)得到的用户、物品的最终嵌入表示,通过多层感知机MLP预测用户对物品产生交互的概率;
(5)、利用步骤(4)得到交互的概率作为预测结果进行推荐;
步骤(1)的具体步骤如下:
步骤(1.1)、从评论数据集中提取用户对各个物品的评论文本,使用BERT模型将评论文本转换为词向量,并将词向量聚合成特征向量,得到如公式(1)的内容表述:
Figure FDA0003538513730000011
公式(1)中,Ui表示第i个用户节点的内容表述特征向量,U(wordi)为该用户对物品的评论所用的词语wordi使用BERT模型向量化得到的词向量,N为评论文本中的词语数量;
步骤(1.2)、从评论数据集中提取各个物品被各个用户所评论的文本,使用BERT模型将评论文本转换为词向量,并将词向量聚合成特征向量,得到公式(2)的内容表述:
Figure FDA0003538513730000012
公式(2)中:Ij表示第j个物品节点的内容表述特征向量,I(wordj)为物品被各个用户评论所用到的词语wordj使用BERT模型向量化得到的词向量,N为评论文本中的词语数量;
步骤(1.1)中采用平均向量化方法将词向量聚合成特征向量以得到公式(1),步骤(1.2)中同样采用平均向量化方法将词向量聚合成特征向量得到公式(2);
步骤(2)的具体步骤如下:
步骤(2.1)、随机初始化用户的结构特征:
Figure FDA0003538513730000021
其中:Emb_user表示用户的结构特征矩阵,由各个用户的结构特征向量emb_user组成;
步骤(2.2)、随机初始化物品的结构特征:
Figure FDA0003538513730000022
其中:Emb_item表示物品的结构特征矩阵,由各个物品的结构特征向量emb_item组成;
步骤(2.3)、从数据集中提取用户-物品的交互记录,构建用户-物品稀疏邻接矩阵,并添加自环,防止后续的聚合更新过程中丢失自身信息,然后对稀疏邻接矩阵进行归一化处理,得到公式(3):
Figure FDA0003538513730000023
公式(3)中:Anorm_user2item表示归一化后的用户—物品稀疏邻接矩阵,
Figure FDA0003538513730000024
表示由各个用户节点的度构成的对角阵,Auser2item表示未归一化的用户-物品稀疏邻接矩阵,
Figure FDA0003538513730000025
表示由各个物品节点的度构成的对角阵;
步骤(2.4)、构建第一图卷积层,通过聚合用户节点的一阶邻居信息来更新用户节点的结构特征表述,得到公式(4):
Figure FDA0003538513730000026
公式(4)中:
Figure FDA0003538513730000031
表示用户的结构表述经过第一图卷积层后,所得到的更新结果,σ(·)为本层的ReLU激活函数;
步骤(2.5)、构建第一图注意力层,对用户节点的三阶邻居信息进行聚合,用于更新自身节点信息,得到各个用户节点结构表述的更新结果,如公式(5)所示:
Figure FDA0003538513730000032
公式(5)中:
Figure FDA0003538513730000033
表示用户的结构表述经过第一图注意力层后,所得到的更新结果,θ(·)为本层用于计算更新结果的ELU激活函数,
Figure FDA0003538513730000034
为物品节点与用户节点的相关度,
Figure FDA0003538513730000035
的计算公式如公式(6)所示:
Figure FDA0003538513730000036
公式(6)中:softmax(·)为归一化函数,LeakyReLU(·)为本层中用于计算物品节点与用户节点相关度的激活函数,aT为权重参数,WGAT为节点信息变换的权重参数;
步骤(2.6)、构建第一全连接层融合用户的内容表述与结构信息表述,得到公式(7):
Figure FDA0003538513730000037
公式(7)中:Huser即为用户节点的最终嵌入表示,U为步骤(1)中得到的用户内容表述特征矩阵,Wd_user为该全连接层的权重参数,bd_user表示该全连接层的偏置项;
步骤(3)的具体过程如下:
步骤(3.1)、从数据集中提取用户-物品的交互记录,构建物品—用户稀疏邻接矩阵,并添加自环,防止后续的聚合更新过程中丢失自身信息,然后对稀疏邻接矩阵进行归一化处理得到公式(8):
Figure FDA0003538513730000038
公式(8)中:Anorm_item2user表示归一化后的物品—用户稀疏邻接矩阵,
Figure FDA0003538513730000039
表示由各个物品节点的度构成的对角阵,Aitem2user表示未归一化的物品—用户稀疏邻接矩阵,
Figure FDA0003538513730000041
表示由各个用户节点的度构成的对角阵;
步骤(3.2)、构建第二图卷积层,通过聚合物品节点的一阶邻居信息来更新物品节点的结构特征表述,得到公式(9):
Figure FDA0003538513730000042
公式(9)中:
Figure FDA0003538513730000043
表示物品的结构表述经过第二图卷积层后,所得到的更新结果,σ(·)为本层的ReLU激活函数;
步骤(3.3)、构建第二图注意力层,对物品节点的三阶邻居信息进行聚合,用于更新自身节点信息,得到各个物品节点结构表述的更新结果,如以下公式(10)所示:
Figure FDA0003538513730000044
公式(10)中:
Figure FDA0003538513730000045
表示物品的结构表述经过第二图注意力层后,所得到的更新结果,θ(·)为本层用于计算更新结果的ELU激活函数,
Figure FDA0003538513730000046
为步骤(2.5)中计算得到的物品节点与用户节点的相关度
Figure FDA0003538513730000047
的转置;
步骤(3.4)、构建第二全连接层融合物品的内容表述与结构信息表述,如公式(11)所示:
Figure FDA0003538513730000048
公式(11)中:Hitem即为物品节点的最终嵌入表示,I为步骤(1)中得到的物品内容表述特征矩阵,Wd_item为该全连接层的权重参数,bd_item表示该全连接层的偏置项;
步骤(4)的具体过程如下:
步骤(4.1)、构建第三全连接层,对用户最终嵌入表示和物品最终嵌入表示进行整合,得到公式(12):
Hd=σ([Huser|Hitem]·Wd+bd) (12),
公式(12)中:Hd表示对用户最终嵌入表示和物品最终嵌入表示的整合结果,σ(·)为该全连接层的ReLU激活函数,Wd表示该全连接层的权重参数,bd表示该全连接层的偏置项;
步骤(4.2)、构建第四全连接层,利用步骤(4.1)中得到的Hd预测用户对物品产生交互的概率,如以下公式(13)所示:
Figure FDA0003538513730000051
公式(13)中:
Figure FDA0003538513730000052
表示用户u对物品i产生交互的预测概率,sigmoid(·)为激活函数,Wp为该全连接层的权重参数,bp表示该全连接层的偏置项。
CN202011614918.7A 2020-12-31 2020-12-31 一种融入评论信息的图神经网络推荐方法 Active CN112650929B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011614918.7A CN112650929B (zh) 2020-12-31 2020-12-31 一种融入评论信息的图神经网络推荐方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011614918.7A CN112650929B (zh) 2020-12-31 2020-12-31 一种融入评论信息的图神经网络推荐方法

Publications (2)

Publication Number Publication Date
CN112650929A CN112650929A (zh) 2021-04-13
CN112650929B true CN112650929B (zh) 2022-05-03

Family

ID=75364362

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011614918.7A Active CN112650929B (zh) 2020-12-31 2020-12-31 一种融入评论信息的图神经网络推荐方法

Country Status (1)

Country Link
CN (1) CN112650929B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113158045B (zh) * 2021-04-20 2022-11-01 中国科学院深圳先进技术研究院 一种基于图神经网络推理的可解释推荐方法
CN113159891B (zh) * 2021-04-24 2022-05-17 桂林电子科技大学 一种基于多种用户表示融合的商品推荐方法
CN113268675B (zh) * 2021-05-19 2022-07-08 湖南大学 一种基于图注意力网络的社交媒体谣言检测方法和系统
CN113434756B (zh) * 2021-06-18 2022-05-27 山东省人工智能研究院 基于图双向聚合网络链接预测模型的个性化评论推荐方法
CN113343094A (zh) * 2021-06-21 2021-09-03 安徽农业大学 一种信息增强的缓解推荐用户冷启动问题的元学习方法
CN114780866B (zh) * 2022-04-11 2022-11-01 山东省人工智能研究院 一种基于时空上下文兴趣学习模型的个性化智能推荐方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111782765A (zh) * 2020-06-24 2020-10-16 安徽农业大学 一种基于图注意力机制的推荐方法
CN112084407A (zh) * 2020-09-08 2020-12-15 辽宁工程技术大学 一种融合图神经网络和注意力机制的协同过滤推荐方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11544535B2 (en) * 2019-03-08 2023-01-03 Adobe Inc. Graph convolutional networks with motif-based attention
US20200334326A1 (en) * 2019-04-18 2020-10-22 Microsoft Technology Licensing, Llc Architectures for modeling comment and edit relations
CN110737778B (zh) * 2019-09-04 2022-05-31 北京邮电大学 基于知识图谱和Transformer的专利推荐方法
CN111582443B (zh) * 2020-04-22 2021-02-02 成都信息工程大学 一种基于Mask机制和层次注意力机制的推荐方法
CN112131469A (zh) * 2020-09-22 2020-12-25 安徽农业大学 一种基于评论文本的深度学习推荐方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111782765A (zh) * 2020-06-24 2020-10-16 安徽农业大学 一种基于图注意力机制的推荐方法
CN112084407A (zh) * 2020-09-08 2020-12-15 辽宁工程技术大学 一种融合图神经网络和注意力机制的协同过滤推荐方法

Also Published As

Publication number Publication date
CN112650929A (zh) 2021-04-13

Similar Documents

Publication Publication Date Title
CN112650929B (zh) 一种融入评论信息的图神经网络推荐方法
CN112214685B (zh) 一种基于知识图谱的个性化推荐方法
CN111061856A (zh) 一种基于知识感知的新闻推荐方法
CN111222332A (zh) 一种结合注意力网络和用户情感的商品推荐方法
Pham et al. A hierarchical fused fuzzy deep neural network with heterogeneous network embedding for recommendation
Chen et al. IR-Rec: An interpretive rules-guided recommendation over knowledge graph
CN112507246B (zh) 一种融合全局和局部社会兴趣影响的社会推荐方法
CN112966091A (zh) 一种融合实体信息与热度的知识图谱推荐系统
Zhang et al. Billion-scale pre-trained e-commerce product knowledge graph model
Jin et al. Multi-label sentiment analysis base on BERT with modified TF-IDF
Wang et al. An enhanced multi-modal recommendation based on alternate training with knowledge graph representation
Meng et al. Concept-concept association information integration and multi-model collaboration for multimedia semantic concept detection
CN111597428A (zh) 一种具有q分离k稀疏的用户与物品拼接的推荐方法
Pughazendi et al. Graph Sample and Aggregate Attention Network optimized with Barnacles Mating Algorithm based Sentiment Analysis for Online Product Recommendation
CN110321565B (zh) 基于深度学习的实时文本情感分析方法、装置及设备
Gan et al. CDMF: a deep learning model based on convolutional and dense-layer matrix factorization for context-aware recommendation
CN114842247B (zh) 基于特征累加的图卷积网络半监督节点分类方法
Hu et al. Wshe: user feedback-based weighted signed heterogeneous information network embedding
Cai et al. Deep learning approaches on multimodal sentiment analysis
Chen et al. Gaussian mixture embedding of multiple node roles in networks
Agarwal et al. Binarized spiking neural networks optimized with Nomadic People Optimization-based sentiment analysis for social product recommendation
Selvi et al. Sentimental analysis of movie reviews in Tamil text
Xin et al. Improving latent factor model based collaborative filtering via integrated folksonomy factors
Van Le et al. An efficient pretopological approach for document clustering
Bao et al. HTRM: A hybrid neural network algorithm based on tag-aware

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant