CN115617969A - 一种会话推荐方法、装置、设备和计算机存储介质 - Google Patents

一种会话推荐方法、装置、设备和计算机存储介质 Download PDF

Info

Publication number
CN115617969A
CN115617969A CN202211374962.4A CN202211374962A CN115617969A CN 115617969 A CN115617969 A CN 115617969A CN 202211374962 A CN202211374962 A CN 202211374962A CN 115617969 A CN115617969 A CN 115617969A
Authority
CN
China
Prior art keywords
session
item
matrix
feature
feature matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211374962.4A
Other languages
English (en)
Inventor
丁美荣
林晓康
李嘉展
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China Normal University
Original Assignee
South China Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China Normal University filed Critical South China Normal University
Priority to CN202211374962.4A priority Critical patent/CN115617969A/zh
Publication of CN115617969A publication Critical patent/CN115617969A/zh
Pending legal-status Critical Current

Links

Images

Abstract

本发明提供了一种会话推荐方法、装置、设备和计算机存储介质,包括:获取物品集合和会话集合;获取物品集合的第一特征矩阵,并利用物品集合的超图神经网络对物品集合的第一特征矩阵进行超图卷积处理,得到物品集合的第二特征矩阵;将物品集合的第二特征矩阵输入多层自注意力网络进行学习,得到会话集合的第一特征矩阵;利用会话集合构建图注意网络,并将会话集合的第一特征矩阵输入图注意网络进行学习,得到会话集合的第二特征矩阵;利用物品集合的第二特征矩阵和会话集合的第二特征矩阵计算每个物品的推荐得分,并利用每个物品的推荐得分和推荐真实值计算损失函数,其通过超图神经网络、多层自注意力网络和图注意网络的结合提高了推荐准确性。

Description

一种会话推荐方法、装置、设备和计算机存储介质
技术领域
本发明涉及会话推荐技术领域,特别是涉及一种会话推荐方法、装置、设备和计算机存储介质。
背景技术
随着互联网的发展,推荐系统成为了帮助用户获取有效信息的重要方法,在消费、服务和决策制定等方面正发挥着重要作用。目前,大部分的推荐系统是根据用户的浏览记录等浏览信息进行推荐,但是很多用户浏览信息时往往采用匿名登录,其使现有的推荐系统不能准确的获取用户的信息,导致推荐的准确性降低,为了解决上述问题,产生了一种新的推荐系统-即会话推荐系统。
会话推荐系统是利用用户在浏览信息的过程中产生的会话(session)数据来挖掘和学习用户的偏好。每一个会话包含在一段连续的时间段内发生的多个「用户–物品交互行为」,例如,用户在一次交易会话(比如从登录电商平台的账号到退出账号这段时间)中购买了一篮子商品。基于会话的推荐系统(本文中也称为会话推荐系统)将每一个会话作为最基本的输入数据单元,能够从用户的最近产生的会话中捕获他的短期偏好,从而进行更精准和实时的推荐。
目前,大部分的会话推荐系统主要包括基于邻近项目方法的会话推荐方法、基于马尔科夫链的会话推荐方法、基于深度学习的会话推荐方法和基于图神经网络的会话推荐方法,其中:(1)基于邻近项目方法的会话推荐方法是通过共同出现的项目来计算出与当前会话相似的会话,但这种方法只根据会话的最后一个项目进行推荐,推荐准确性低;(2)基于马尔科夫链的会话推荐方法是通过预测用户的上一个行为去预测下一个行为,然而如此严格的时序依赖对于推荐任务来说效果并不好;(3)基于深度学习的会话推荐方法忽略了物品之间和会话之间的信息而导致效果欠佳;(4)基于图神经网络的会话推荐方法难以直接学习出不同会话之间的兴趣模式,可以看出,现有的会话推荐方法存在推荐效果差的缺点。
发明内容
基于此,本发明的目的在于提供一种会话推荐方法、装置、设备和计算机存储介质,其具有推荐准确性高的优点。
本发明所采用的技术方案内容具体如下:
一种会话推荐方法,包括:
S1:获取物品集合和会话集合,所述会话集合包括多个会话,每个所述会话包括至少部分所述物品集合中的物品;
S2:获取物品集合的第一特征矩阵,并利用所述物品集合的超图神经网络对物品集合的第一特征矩阵进行超图卷积处理,得到所述物品集合的第二特征矩阵;
S3:将所述物品集合的第二特征矩阵输入多层自注意力网络进行学习,得到所述会话集合的第一特征矩阵;
S4:利用所述会话集合构建图注意网络,并将所述会话集合的第一特征矩阵输入所述图注意网络进行学习,得到所述会话集合的第二特征矩阵;
S5:利用所述物品集合的第二特征矩阵和所述会话集合的第二特征矩阵计算每个物品的推荐得分,并利用每个物品的推荐得分和推荐真实值计算损失函数;
S6:判断所述损失函数是否满足损失阈值,如不满足,重复步骤S2-S5,直到所述损失函数满足损失阈值,并将推荐得分大于推荐阈值的物品作为推荐结果。
进一步地,步骤S2包括:
S21:获取物品集合S={s1,s2,…,sN}的第一特征矩阵X={x1,x2,…,xN},其中:N为物品的个数,si表示第i个物品,xi表示物品si的第一特征向量;
S22:利用物品集合S构建超图神经网络G=(V,E,W),其中:V是超图神经网络中节点的集合,E是超图神经网络中超边的集合,W为超边的权重矩阵;
S23:利用所述超图神经网络G=(V,E,W)对所述物品集合S的第一特征矩阵X进行超图卷积处理,得到所述物品集合S的第二特征矩阵X′={x′1,x′2,…,x′N}。
进一步地,步骤S23包括:
S231:获取所述超图神经网络G=(V,E,W)的关联矩阵H,且H=|V|×|E|,且当v∈e时,h(v,e)=1,其中:v为所述超图神经网络中的节点,e为所述超图神经网络中的超边;
S232:利用所述关联矩阵H计算所述超图神经网络G=(V,E,W)中节点的度矩阵Dv和超边的度矩阵De,且Dv={d(v1),d(v2),…,d(vn)},De={d(e1),d(e2),…,d(en)},其中:d(v)=∑e∈Eω(e)h(v,e),d(e)=∑v∈Vh(v,e);
S233:利用节点的度矩阵Dv、超边的度矩阵De、关联矩阵H以及超边的权重矩阵W计算所述物品集合S的第二特征矩阵X′={x′1,x′2,…,x′N},且计算公式为:
Figure BDA0003926264100000021
其中:X′(l+1)为所述超图神经网络第(l+1)层的特征,X′(l)为所述超图神经网络第l层的特征,θ(l)所述超图神经网络第l层的权重矩阵。
进一步地,步骤S3包括:
S31:利用所述物品集合S的第二特征矩阵X′获得所述物品集合S的第三特征矩阵X″={x″1,x″2,…,x″N},且
Figure BDA0003926264100000031
其中:x″i表示物品si的第三特征向量,WQ、WK和WV均为特征转换矩阵,d为向量qi的纬度,其取值为100;
S32:将会话ti的最后一个物品的第三特征向量x″i作为该会话的第一特征向量qi,得到所述会话集合T={t1,t2,…,tM}的第一特征矩阵Q={q1,q2,…,qM},其中:i=1,2,…,M。。
进一步地,步骤S4包括:
S41:利用会话集合T构建图注意网络,所述图注意网络包括多个节点,其中:ti表示第i个会话,M表示会话的数量;
S42:将所述会话集合T的第一特征矩阵Q输入所述图注意网络进行图注意力学习,得到所述会话集合T的第二特征矩阵Q′={q′1,q′2,…,q′M}。
进一步地,步骤S42包括:
S421:计算所述图神经网络中任意两个节点的相似度αij,且
Figure BDA0003926264100000032
其中:aT为随机初始化向量;Ni为所述图注意网络中邻接点的集合;qi、qj分别表示会话ti、tj的第一特征向量;W为特征转换矩阵;LeakyReLU为激活函数;
S422:利用所述图注意网络中任意两个节点的相似度αij和所述会话集合T的第一特征矩阵Q计算所述会话集合T的第二特征矩阵Q′,且
Figure BDA0003926264100000033
其中:σ为激活函数,qi、q′i分别表示会话ti的第一特征向量和第二特征向量;W为特征转换矩阵。
进一步地,步骤S5包括:
S51:利用每个会话的第二特征向量q′i和每个物品的第二特征向量x′i计算每个物品的推荐得分
Figure BDA0003926264100000034
Figure BDA0003926264100000035
S52:利用每个物品的推荐得分
Figure BDA0003926264100000036
计算推荐得分
Figure BDA0003926264100000037
的损失函数
Figure BDA0003926264100000038
Figure BDA0003926264100000039
Figure BDA00039262641000000310
其中:yi为物品xi的真实值,其取值为0或1。
本发明还公开了一种会话推荐装置,包括:
第一获取模块,用于获取物品集合和会话集合,所述会话集合包括多个会话,每个所述会话包括至少部分所述物品集合中的物品;
第二获取模块,用于获取物品集合的第一特征矩阵,并利用所述物品集合的超图神经网络对物品集合的第一特征矩阵进行超图卷积处理,得到所述物品集合的第二特征矩阵;
第三获取模块,将所述物品集合的第二特征矩阵输入多层自注意力网络进行学习,输出所述会话集合的第一特征矩阵;
第四获取模块,用于利用所述会话集合构建图注意网络,并将所述会话集合的第一特征矩阵输入所述图注意网络进行学习,得到所述会话集合的第二特征矩阵;
计算模块,用于利用所述物品集合的第二特征矩阵和所述会话集合的第二特征矩阵计算每个物品的推荐得分,并利用每个物品的推荐得分和推荐真实值计算损失函数;
确定模块,用于判断所述损失函数是否满足损失阈值,且当所述损失函数满足损失阈值时,将推荐得分大于推荐阈值的物品作为推荐结果。
本发明还公开了一种会话推荐设备,包括:
处理器;
存储器,用于存储由所述处理器执行的计算机程序;
其中,所述处理器执行所述计算机程序时实现本发明所述的会话推荐方法。
本发明还公开了一种计算机可读存储介质,其特征在于,其上存储有计算机程序,所述计算机程序被执行时实现本发明所述的会话推荐方法。
与现有技术相比,本发明的有益效果在于:
本发明公开的会话推荐方法,其通过超图神经网络和多层自注意力网络可以学习物品集合中的特征信息和每个会话中每个物品的重要程度,并利用图注意网络可以获取不同会话之间的兴趣模式,以便于充分物品的特征和不同会话之间的相关性,以达到提高推荐效果的目的。
为了更好地理解和实施,下面结合附图详细说明本发明。
附图说明
图1为本发明一实施例中会话推荐方法的流程图;
图2为图1的流程示意图;
图3为超图神经网络的示意图;
图4为图注意网络的示意图;
图5为本发明一实施例中会话推荐装置的结构示意图;
其中,各图中的附图标记为:
1、第一获取模块;11、物品集合获取单元;12、会话集合获取单元;2、第二获取模块;21、第一物品特征矩阵获取单元;22、超图神经网络创建单元;23、关联征矩阵获取单元;24、度矩阵获取单元;25、第二物品特征矩阵获取单元;3、第三获取模块;4、第四获取模块;41、图注意网络构建单元;42、相似度计算单元;43、会话特征矩阵获取单元;5、计算模块;51、推荐得分计算单元;52、损失函数计算单元;6、确定模块;61、判断单元;62、确定单元。
具体实施方式
应当明确,所描述的实施例仅仅是本申请实施例一部分实施例,而不是全部的实施例。基于本申请实施例中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本申请实施例保护的范围。
在本申请实施例使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本申请实施例。在本申请实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。在本申请的描述中,需要理解的是,术语“第一”、“第二”、“第三”等仅用于区别类似的对象,而不必用于描述特定的顺序或先后次序,也不能理解为指示或暗示相对重要性。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本申请中的具体含义。
此外,在本申请的描述中,除非另有说明,“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
应当理解的是,本申请实施例并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请实施例的范围仅由所附的权利要求来限制。
参照图1和图2,本实施例提供了一种会话推荐方法,其包括如下步骤:
S1:获取物品集合和会话集合,所述会话集合包括多个会话,每个所述会话包括至少部分所述物品集合中的物品,在本实施中,所述物品集合S为:S={s1,s2,…,sN},N为物品的数量;所述会话集合T为:T={t1,t2,…,tM},M为会话的数量。
S2:获取物品集合的第一特征矩阵,并利用所述物品集合的超图神经网络对物品集合的第一特征矩阵进行超图卷积处理,得到所述物品集合的第二特征矩阵。
在本实施例中,步骤S2通过如下步骤实现:
(1)采用随机的方式获得所述物品集合S的第一特征向量,在本实施例中,令X表示所述物品集合S的第一特征向量,且X={x1,x2,…,xN},N为物品的个数,si表示第i个物品,xi表示物品si的第一特征向量。
(2)参照图3,利用物品集合S构建超图神经网络G=(V,E,W),其中:V是超图神经网络中节点的集合,E是超图神经网络中超边的集合,W为超边的权重矩阵。
(3)利用所述超图神经网络G=(V,E,W)对所述物品集合S的第一特征矩阵X进行超图卷积处理,得到所述物品集合S的第二特征矩阵X′={x′1,x′2,…,x′N},且所述物品集合S的第二特征矩阵X′={x′1,x′2,…,x′N}通过如下方式获得:1)获取所述超图神经网络G=(V,E,W)的关联矩阵H,且H=|V|×|E|,且当v∈e时,h(v,e)=1,其中:v为所述超图神经网络中的节点,e为所述超图神经网络中的超边;2)利用所述关联矩阵H计算所述超图神经网络G=(V,E,W)中节点的度矩阵Dv和超边的度矩阵De,且Dv={d(v1),d(v2),…,d(vn)},De={d(e1),d(e2),…,d(en)},其中:d(v)=∑e∈Eω(e)h(v,e),d(e)=∑v∈Vh(v,e);3)利用节点的度矩阵Dv、超边的度矩阵De、关联矩阵H以及超边的权重矩阵W计算所述物品集合S={s1,s2,…,sN}的第二特征矩阵X′={x′1,x′2,…,x′N},且计算公式为:
Figure BDA0003926264100000061
其中:X′(l+1)为所述超图神经网络第(l+1)层的特征,X′(l)为所述超图神经网络第l层的特征,θ(l)所述超图神经网络第l层的权重矩阵。
S3:将所述物品集合的第二特征矩阵输入多层自注意力网络进行学习,得到所述会话集合的第一特征矩阵。
在本实施例中,首先,利用所述物品集合S的第二特征矩阵X′获得所述物品集合S的第三特征矩阵X″={x″1,x″2,…,x″N},且
Figure BDA0003926264100000062
其中:x″i表示物品si的第三特征向量,WQ、WK和WV均为特征转换矩阵,d为向量qi的纬度,其取值为100;然后,将会话ti的最后一个物品的第三特征向量x″i作为该会话的第一特征向量qi,得到所述会话集合T={t1,t2,…,tM}的第一特征矩阵Q={q1,q2,…,qM},其中:i=1,2,…,M。
S4:利用所述会话集合构建图注意网络,并将所述会话集合的第一特征矩阵输入所述图注意网络进行学习,得到所述会话集合的第二特征矩阵。
在本实施例中,步骤S4通过如下步骤实现:
(1)参照图4,利用会话集合T构建图注意网络,所述图注意网络包括多个节点,其中:ti表示第i个会话,M表示会话的数量。
(2)将所述会话集合T的第一特征矩阵Q={q1,q2,…,qM}输入所述图注意网络进行图注意力学习,得到所述会话集合T的第二特征矩阵Q′={q′1,q′2,…,q′M},且所述会话集合T的第二特征矩阵Q′通过如下方式获得:1)计算所述图神经网络中任意两个节点的相似度αij,且
Figure BDA0003926264100000071
其中:aT为随机初始化向量;Ni为所述图注意网络中邻接点的集合;qi、qj分别表示会话ti、tj的第一特征向量;W为特征转换矩阵;LeakyReLU为激活函数;2)利用所述图注意网络中任意两个节点的相似度αij和所述会话集合T的第一特征矩阵Q计算所述会话集合T的第二特征矩阵Q′,且
Figure BDA0003926264100000072
其中:σ为激活函数,qi、q′i分别表示会话ti的第一特征向量和第二特征向量;W为特征转换矩阵。
S5:利用所述物品集合的第二特征矩阵和所述会话集合的第二特征矩阵计算每个物品的推荐得分,并利用每个物品的推荐得分和推荐真实值计算损失函数。
在本实施例中,步骤S5包括如下步骤:(1)利用每个会话的第二特征向量q′i和每个物品的第二特征向量x′i计算每个物品的推荐得分
Figure BDA0003926264100000073
Figure BDA0003926264100000074
(2)利用每个物品的推荐得分
Figure BDA0003926264100000075
计算推荐得分
Figure BDA0003926264100000076
的损失函数
Figure BDA0003926264100000077
Figure BDA0003926264100000078
Figure BDA0003926264100000079
其中:yi为物品xi的真实值,其取值为0或1。
S6:判断所述损失函数是否满足损失阈值,如不满足,重复步骤S2-S5,直到所述损失函数满足损失阈值,并将推荐得分大于推荐阈值的物品作为推荐结果。
为了验证本发明的会话推荐方法的推荐效果,本发明以Yoochoose1/4和Diginetica两个数据集的数据为例,利用参数P@20和MRR@20对本发明的会话推荐方法、POP、Item-KNN、GRU4REC、NARM、STAMP、SR-GNN等多种推荐方法的推荐效果进行评估,且试验数据如表1所示。
表1
Figure BDA00039262641000000710
表1中,参数P@20(Precision)表示前20个推荐的物品中正确推荐的物品占推荐总数的比例,其计算公式为:
Figure BDA00039262641000000711
其中:nhit为前20个推荐的物品中正确推荐的物品;n为推荐总数;MRR@20(Mean Reciprocal Rank)是正确推荐的物品排在第几位的倒数的累计求和,表示前20个推荐物品在范围内的排序优劣,其计算公式为:
Figure BDA0003926264100000081
Figure BDA0003926264100000082
其中:Vhit表示前20个推荐的物品中包含正确的物品的个数;ranks表示物品s在推荐列表中的排名,nt表示物品总数。
从表1中可以看出,本发明所述的会话推荐方法,其推荐结果的准确性较高,这是由于本发明所述的会话推荐方法首先利用超图神经网络对物品之间的信息进行学习,然后利用自注意力网路对物品之间的信息进行聚合,最后利用图注意网络对会话之间的信息进行学习,其通过超图神经网络、多层自注意力网络和图注意力网络的相互结合可以充分利用物品的特征、物品之间的关联以及会话之间的关联性,以达到提高推荐准确性的目的。
基于本实施例提供的会话推荐方法,本实施例还提供了一种会话推荐装置,其包括:
第一获取模块1,用于获取物品集合和会话集合,所述会话集合包括多个会话,每个所述会话包括至少部分所述物品集合中的物品。
在本实施例中,所述第一获取模块1包括物品集合获取单元11和会话集合获取单元12,所述物品集合获取单元11用于获取物品集合,且所述物品集合S为:S={s1,s2,…,sN},N为物品的数量;所述会话集合获取单元12用于获取会话集合,且所述会话集合T为:T={t1,t2,…,tM},M为会话的数量。
第二获取模块2,用于获取物品集合的第一特征矩阵,并利用所述物品集合的超图神经网络对物品集合的第一特征矩阵进行超图卷积处理,得到所述物品集合的第二特征矩阵。
在本实施例中,所述第二获取模块2包括第一物品特征矩阵获取单元21、超图神经网络创建单元22、关联征矩阵获取单元23、度矩阵获取单元24和第二物品特征矩阵获取单元25,其中:(1)所述第一物品特征矩阵获取单元21采用随机的方式获得所述物品集合S的第一特征向量,在本实施例中,令X表示所述物品集合S的第一特征向量,且X={x1,x2,…,xN},N为物品的个数,si表示第i个物品,xi表示物品si的第一特征向量;(2)所述超图神经网络创建单元22利用物品集合S构建超图神经网络G=(V,E,W),其中:V是超图神经网络中节点的集合,E是超图神经网络中超边的集合,W为超边的权重矩阵;(3)所述关联征矩阵获取单元23用于获取所述超图神经网络G=(V,E,W)的关联矩阵H,且H=|V|×|E|,且当v∈e时,h(v,e)=1,其中:v为所述超图神经网络中的节点,e为所述超图神经网络中的超边;(4)所述度矩阵获取单元24利用所述关联矩阵H计算所述超图神经网络G=(V,E,W)中节点的度矩阵Dv和超边的度矩阵De,且Dv={d(v1),d(v2),…,d(vn)},De={d(e1),d(e2),…,d(en)},其中:d(v)=∑e∈Eω(e)h(v,e),d(e)=∑v∈Vh(v,e);(5)所述第二物品特征矩阵获取单元25利用节点的度矩阵Dv、超边的度矩阵De、关联矩阵H以及超边的权重矩阵W计算所述物品集合S={s1,s2,…,sN}的第二特征矩阵X′={x′1,x′2,…,x′N},且计算公式为:
Figure BDA0003926264100000091
Figure BDA0003926264100000092
其中:X′(l+1)为所述超图神经网络第(l+1)层的特征,X′(l)为所述超图神经网络第l层的特征,θ(l)所述超图神经网络第l层的权重矩阵;
第三获取模块3,将所述物品集合的第二特征矩阵输入多层自注意力网络进行学习,输出所述会话集合的第一特征矩阵。
在本实施例中,所述第三获取模块3将所述物品集合的第二特征矩阵输入多层自注意力网络进行学习,得到所述会话集合的第一特征矩阵的具体过程为:首先,利用所述物品集合S的第二特征矩阵X′获得所述物品集合S的第三特征矩阵X″={x″1,x″2,…,x″N},且
Figure BDA0003926264100000093
Figure BDA0003926264100000094
其中:x″i表示物品si的第三特征向量,WQ、WK和WV均为特征转换矩阵,d为向量qi的纬度,其取值为100;然后,将会话ti的最后一个物品的第三特征向量x″i作为该会话的第一特征向量qi,得到所述会话集合T={t1,t2,…,tM}的第一特征矩阵Q={q1,q2,…,qM},其中:i=1,2,…,M。
第四获取模块4,用于利用所述会话集合构建图注意网络,并将所述会话集合的第一特征矩阵输入所述图注意网络进行学习,得到所述会话集合的第二特征矩阵。
在本实施例中,所述第四获取模块4包括图注意网络构建单元41、相似度计算单元42和会话特征矩阵获取单元43,其中:(1)所述图注意网络构建单元41利用会话集合T构建图注意网络,所述图注意网络包括多个节点,其中:ti表示第i个会话,M表示会话的数量;(2)所述相似度计算单元42用于计算所述图神经网络中任意两个节点的相似度αij,且
Figure BDA0003926264100000095
其中:aT为随机初始化向量;Ni为所述图注意网络中邻接点的集合;qi、qj分别表示会话ti、tj的第一特征向量;W为特征转换矩阵;LeakyReLU为激活函数;(3)所述会话特征矩阵获取单元42利用所述图注意网络中任意两个节点的相似度αij和所述会话集合T的第一特征矩阵Q计算所述会话集合T的第二特征矩阵Q′,且
Figure BDA0003926264100000098
其中:σ为激活函数,qi、q′i分别表示会话ti的第一特征向量和第二特征向量;W为特征转换矩阵。
计算模块5,用于利用所述物品集合的第二特征矩阵和所述会话集合的第二特征矩阵计算每个物品的推荐得分,并利用每个物品的推荐得分和推荐真实值计算损失函数。
在本实施例中,所述计算模块5包括推荐得分计算单元51和损失函数计算单元52,其中:(1)所述推荐得分计算单元51利用每个会话的第二特征向量q′i和每个物品的第二特征向量x′i计算每个物品的推荐得分
Figure BDA0003926264100000096
Figure BDA0003926264100000097
(2)所述损失函数计算单元52利用每个物品的推荐得分
Figure BDA0003926264100000101
计算推荐得分
Figure BDA0003926264100000102
的损失函数
Figure BDA0003926264100000103
Figure BDA0003926264100000104
其中:yi为物品xi的真实值,其取值为0或1。
确定模块6,用于判断所述损失函数是否满足损失阈值,且当所述损失函数满足损失阈值时,将推荐得分大于推荐阈值的物品作为推荐结果。
在本实施例中,所述确定模块6包括判断单元61和确定单元62,其中:(1)所述判断单元61用于判断所述损失函数是否满足损失阈值;(2)当所述判断单元61判断所述损失函数满足损失阈值时,所述确定单元62将推荐得分大于推荐阈值的物品作为推荐结果。
基于本实施例提供的会话推荐方法,本实施例还提供了会话推荐设备,所述会话推荐设备可以是服务器、台式计算设备或移动计算设备(例如,膝上型计算设备、手持计算设备、平板电脑、上网本等)等会话推荐设备,其包括:
处理器;
存储器,用于存储由所述处理器执行的计算机程序;
其中,所述处理器执行所述计算机程序时实现本实施例所述的会话推荐方法。
基于本实施例提供的会话推荐方法,本实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被执行时实现本实施例所述的会话推荐方法。
本申请可采用在一个或多个其中包含有程序代码的存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。计算机可用存储介质包括永久性和非永久性、可移动和非可移动媒体,可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括但不限于:相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。
以上所述实施例仅表达了本发明的优选实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,则本发明也意图包含这些改动和变形。

Claims (10)

1.一种会话推荐方法,其特征在于,包括:
S1:获取物品集合和会话集合,所述会话集合包括多个会话,每个所述会话包括至少部分所述物品集合中的物品;
S2:获取物品集合的第一特征矩阵,并利用所述物品集合的超图神经网络对物品集合的第一特征矩阵进行超图卷积处理,得到所述物品集合的第二特征矩阵;
S3:将所述物品集合的第二特征矩阵输入多层自注意力网络进行学习,得到所述会话集合的第一特征矩阵;
S4:利用所述会话集合构建图注意网络,并将所述会话集合的第一特征矩阵输入所述图注意网络进行学习,得到所述会话集合的第二特征矩阵;
S5:利用所述物品集合的第二特征矩阵和所述会话集合的第二特征矩阵计算每个物品的推荐得分,并利用每个物品的推荐得分和推荐真实值计算损失函数;
S6:判断所述损失函数是否满足损失阈值,如不满足,重复步骤S2-S5,直到所述损失函数满足损失阈值,并将推荐得分大于推荐阈值的物品作为推荐结果。
2.根据权利要求1所述的会话推荐方法,其特征在于,步骤S2包括:
S21:获取物品集合S={s1,s2,…,sN}的第一特征矩阵X={x1,x2,…,xN},其中:N为物品的个数,si表示第i个物品,xi表示物品si的第一特征向量;
S22:利用物品集合S构建超图神经网络G=(V,E,W),其中:V是超图神经网络中节点的集合,E是超图神经网络中超边的集合,W为超边的权重矩阵;
S23:利用所述超图神经网络G=(V,E,W)对所述物品集合S的第一特征矩阵X进行超图卷积处理,得到所述物品集合S的第二特征矩阵X′={x′1,x′2,…,x′N}。
3.根据权利要求2所述的会话推荐方法,其特征在于,步骤S23包括:
S231:获取所述超图神经网络G=(V,E,W)的关联矩阵H,且H=|V|×|E|,且当v∈e时,h(v,e)=1,其中:v为所述超图神经网络中的节点,e为所述超图神经网络中的超边;
S232:利用所述关联矩阵H计算所述超图神经网络G=(V,E,W)中节点的度矩阵Dv和超边的度矩阵De,且Dv={d(v1),d(v2),…,d(vn)},De={d(e1),d(e2),…,d(en)},其中:d(v)=∑e∈Eω(e)h(v,e),d(e)=∑v∈Vh(v,e);
S233:利用节点的度矩阵Dv、超边的度矩阵De、关联矩阵H以及超边的权重矩阵W计算所述物品集合S的第二特征矩阵X′={x′1,x′2,…,x′N},且计算公式为:
Figure FDA0003926264090000021
其中:X′(l+1)为所述超图神经网络第(l+1)层的特征,X′(l)为所述超图神经网络第l层的特征,θ(l)所述超图神经网络第l层的权重矩阵。
4.根据权利要求3所述的会话推荐方法,其特征在于,步骤S3包括:
S31:利用所述物品集合S的第二特征矩阵X′获得所述物品集合S的第三特征矩阵X″={x″1,x″2,…,x″N},且
Figure FDA0003926264090000022
其中:x″i表示物品si的第三特征向量,WQ、WK和WV均为特征转换矩阵,d为向量qi的纬度,其取值为100;
S32:将会话ti的最后一个物品的第三特征向量x″i作为该会话的第一特征向量qi,得到所述会话集合T={t1,t2,…,tM}的第一特征矩阵Q={q1,q2,…,qM},其中:i=1,2,…,M。
5.根据权利要求4所述的会话推荐方法,其特征在于,步骤S4包括:
S41:利用会话集合T构建图注意网络,所述图注意网络包括多个节点,其中:ti表示第i个会话,M表示会话的数量;
S42:将所述会话集合T的第一特征矩阵Q输入所述图注意网络进行图注意力学习,得到所述会话集合T的第二特征矩阵Q′={q′1,q′2,…,q′M}。
6.根据权利要求5所述的会话推荐方法,其特征在于,步骤S42包括:
S421:计算所述图神经网络中任意两个节点的相似度αij,且
Figure FDA0003926264090000023
其中:aT为随机初始化向量;Ni为所述图注意网络中邻接点的集合;qi、qj分别表示会话ti、tj的第一特征向量;W为特征转换矩阵;LeakyReLU为激活函数;
S422:利用所述图注意网络中任意两个节点的相似度αij和所述会话集合T的第一特征矩阵Q计算所述会话集合T的第二特征矩阵Q′,且
Figure FDA0003926264090000024
其中:σ为激活函数,qi、q′i分别表示会话ti的第一特征向量和第二特征向量;W为特征转换矩阵。
7.根据权利要求6所述的会话推荐方法,其特征在于,步骤S5包括:
S51:利用每个会话的第二特征向量q′i和每个物品的第二特征向量x′i计算每个物品的推荐得分
Figure FDA0003926264090000025
Figure FDA0003926264090000026
S52:利用每个物品的推荐得分
Figure FDA0003926264090000027
计算推荐得分
Figure FDA0003926264090000028
的损失函数
Figure FDA0003926264090000029
Figure FDA00039262640900000210
Figure FDA00039262640900000211
其中:yi为物品xi的真实值,其取值为0或1。
8.一种会话推荐装置,其特征在于,包括:
第一获取模块,用于获取物品集合和会话集合,所述会话集合包括多个会话,每个所述会话包括至少部分所述物品集合中的物品;
第二获取模块,用于获取物品集合的第一特征矩阵,并利用所述物品集合的超图神经网络对物品集合的第一特征矩阵进行超图卷积处理,得到所述物品集合的第二特征矩阵;
第三获取模块,将所述物品集合的第二特征矩阵输入多层自注意力网络,输出所述会话集合的第一特征矩阵;
第四获取模块,用于利用所述会话集合构建图注意网络,并将所述会话集合的第一特征矩阵输入所述图注意网络进行学习,得到所述会话集合的第二特征矩阵;
计算模块,用于利用所述物品集合的第二特征矩阵和所述会话集合的第二特征矩阵计算每个物品的推荐得分,并利用每个物品的推荐得分和推荐真实值计算损失函数;
确定模块,用于判断所述损失函数是否满足损失阈值,且当所述损失函数满足损失阈值时,将推荐得分大于推荐阈值的物品作为推荐结果。
9.一种会话推荐设备,其特征在于,包括:
处理器;
存储器,用于存储由所述处理器执行的计算机程序;
其中,所述处理器执行所述计算机程序时实现权利要求1-7中任一项所述的会话推荐方法。
10.一种计算机可读存储介质,其特征在于,其上存储有计算机程序,所述计算机程序被执行时实现权利要求1-7中任一项所述的会话推荐方法。
CN202211374962.4A 2022-11-04 2022-11-04 一种会话推荐方法、装置、设备和计算机存储介质 Pending CN115617969A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211374962.4A CN115617969A (zh) 2022-11-04 2022-11-04 一种会话推荐方法、装置、设备和计算机存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211374962.4A CN115617969A (zh) 2022-11-04 2022-11-04 一种会话推荐方法、装置、设备和计算机存储介质

Publications (1)

Publication Number Publication Date
CN115617969A true CN115617969A (zh) 2023-01-17

Family

ID=84877167

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211374962.4A Pending CN115617969A (zh) 2022-11-04 2022-11-04 一种会话推荐方法、装置、设备和计算机存储介质

Country Status (1)

Country Link
CN (1) CN115617969A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116130089A (zh) * 2023-02-02 2023-05-16 湖南工商大学 基于超图神经网络的多模态抑郁症检测系统、装置及介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116130089A (zh) * 2023-02-02 2023-05-16 湖南工商大学 基于超图神经网络的多模态抑郁症检测系统、装置及介质
CN116130089B (zh) * 2023-02-02 2024-01-02 湖南工商大学 基于超图神经网络的多模态抑郁症检测系统、装置及介质

Similar Documents

Publication Publication Date Title
CN108076154B (zh) 应用信息推荐方法、装置及存储介质和服务器
US10489688B2 (en) Personalized digital image aesthetics in a digital medium environment
CN108829808B (zh) 一种页面个性化排序方法、装置及电子设备
US8290945B2 (en) Web searching
US20180053092A1 (en) Method and System for Innovation Management and Optimization Under Uncertainty
CN104778173B (zh) 目标用户确定方法、装置及设备
US20170206361A1 (en) Application recommendation method and application recommendation apparatus
US9342624B1 (en) Determining influence across social networks
Khairina et al. Decision support system for new employee recruitment using weighted product method
US20170330556A1 (en) Two-stage training of a spoken dialogue system
CN109062914A (zh) 用户推荐方法和装置,存储介质和服务器
JP6819355B2 (ja) レコメンデーション生成
CN113191838B (zh) 一种基于异质图神经网络的购物推荐方法及系统
Coelho et al. A personalized travel recommendation system using social media analysis
CN110008397A (zh) 一种推荐模型训练方法及装置
CN111782947A (zh) 一种搜索内容展示方法、装置、电子设备及存储介质
CN107704941B (zh) 一种显示物品评论的方法及装置
JP5730741B2 (ja) 話題推薦装置及び方法及びプログラム
US20110208687A1 (en) Collaborative networking with optimized inter-domain information quality assessment
CN115617969A (zh) 一种会话推荐方法、装置、设备和计算机存储介质
WO2019242453A1 (zh) 信息处理方法及装置、存储介质、电子装置
Su et al. Common threshold in quantile regressions with an application to pricing for reputation
CN113392321A (zh) 一种信息推荐方法、装置、电子设备及存储介质
CN113158022A (zh) 业务推荐方法、装置、服务器及存储介质
CN112733035A (zh) 基于知识图谱的知识点推荐方法、装置、存储介质及电子装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination