CN115510335A - 一种融合相关性信息的图神经网络会话推荐方法 - Google Patents

一种融合相关性信息的图神经网络会话推荐方法 Download PDF

Info

Publication number
CN115510335A
CN115510335A CN202211210004.3A CN202211210004A CN115510335A CN 115510335 A CN115510335 A CN 115510335A CN 202211210004 A CN202211210004 A CN 202211210004A CN 115510335 A CN115510335 A CN 115510335A
Authority
CN
China
Prior art keywords
sequence
information
item
representation
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211210004.3A
Other languages
English (en)
Inventor
杨波
曾耀海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202211210004.3A priority Critical patent/CN115510335A/zh
Publication of CN115510335A publication Critical patent/CN115510335A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9536Search customisation based on social or collaborative filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种融合相关性信息的图神经网络会话推荐方法,属于会话推荐技术领域。本发明将所有序列中的所有物品转换成无向图再导入到相关信息嵌入模块中,对相关性信息进行建模;同时将每条序列都转换为一张有向图,基于转移关系来捕获物品和物品之间的转移信息,并使用转移信息嵌入模块来对转移信息进行建模。合并相关性信息和转移信息后传递到会话表示模块,获取当前用户交互序列最终的表示。使用编码器处理交互时间戳序列,使用解码器处理交互物品序列,从而融合每次交互行为的具体时序信息以捕获更为细粒度的用户行为模式。本发明克服了现有方法没有考虑物品与物品的相关性的缺陷,减弱了序列中的噪声带来的影响,提高了推荐效果。

Description

一种融合相关性信息的图神经网络会话推荐方法
技术领域
本发明属于会话推荐技术领域,具体涉及一种融合相关性信息的图神经网络会话推荐方法。
背景技术
现有的会话推荐方法主要通过常见的序列建模算法(例如马尔科夫链,循环神经网络,图神经网络模型)对用户(可能匿名)历史交互行为序列建模,捕获有效的用户行为模式,从而预测用户未来可能交互的物品,但现有的会话推荐模型的算法仍存在不足之处:现有会话推荐方法仅对了序列中物品和物品之间转移信息进行建模,而忽略了物品之间的相关性信息,这种相关性信息对用户交互序列的建模同样极其重要,仅使用转移信息使得序列建模不仅容易受到序列中噪声的影响,而且对于复杂的用户行为模式也难以得到深入有效的建模。
发明内容
本发明提供了一种融合相关性信息的图神经网络会话推荐方法,可用于提高对物品的推荐效果。
本发明采用的技术方案为:
一种融合相关性信息的图神经网络会话推荐方法,所述方法包括:
步骤1,构建并训练推荐模型;
所述推荐模型包括相关性信息模块、转移性信息模块和用户表示模块;
其中,推荐模型的输入为用户-物品的交互序列[s1,s2,…,sl…,sL],sl表示第l条交互序列,其中l=1,2,…,L,L表示交互序列的数量;
将所有交互序列中的所有物品构建成一张物品无向图,在物品无向图中,若两个物品在序列中相邻则相连,并定义A表示物品无向图的邻接矩阵,
定义一个可学习的物品嵌入矩阵E,任意物品i的嵌入信息用ei表示;
将邻接矩阵A加上维度为N×N的单位矩阵IN,得到矩阵
Figure BDA0003874820090000011
其中,N表示物品无向图的物品数量;
相关性信息模块采用多层图卷积神经网络获取物品的相关性信息嵌入表示,相关性信息模块(第一层图卷积神经网络)的输入包括:矩阵
Figure BDA0003874820090000015
和初始化的物品嵌入矩阵E,每层图卷积神经网络根据前一层输出的相关性信息嵌入表示更新物品嵌入矩阵E,具体更新公式为:
Figure BDA0003874820090000012
其中,
Figure BDA0003874820090000013
表示物品无向图的度矩阵,
Figure BDA0003874820090000014
分别表示经过第k层、第k+1层图卷积神经网络更新后的相关性信息嵌入表示;
相关性信息模块输出的最终的所有物品的相关性嵌入表示Er为在每一层图卷积网络中得到的嵌入表示的加权和:
Figure BDA0003874820090000021
其中,βk表示每一层图卷积神经网络的权重值,E(0)表示初始化的物品嵌入矩阵E;
将每条用户-物品的交互序列的所有物品转换成一张有向图,在有向图中,若两个物品在当前序列中相邻则相连;
将每条用户-物品的交互序列的有向图和相关性信息模块输出的Er作为转移性信息模块的输入,转移性信息模块基于注意力机制,根据
Figure BDA00038748200900000215
计算当前用户-物品的交互序列的任意两个相邻的物品i和j之间的注意系数θij,其中,Att()代表注意力函数,
Figure BDA00038748200900000216
表示表物品i和j之间的转移关系的权重参数,ei,ej表示物品i和j的嵌入信息,基于相关性信息模块输出的Er确定;
转移性信息模块再通过softmax函数将权重参数转换为概率形式:
Figure BDA0003874820090000022
其中,
Figure BDA0003874820090000023
表示物品i在当前序列s构成的有向图中的邻居节点的物品集合,k表示集合
Figure BDA0003874820090000024
中的物品编号,θik表示物品i和k之间的注意系数;
转移性信息模块最后输出的物品i在当前序列s中的转移性信息嵌入表示为其自身的嵌入表示与其邻居节点的嵌入表示的加权和:
Figure BDA0003874820090000025
其中,
Figure BDA0003874820090000026
表示当前序列s中的物品j的嵌入信息,基于相关性信息模块输出的Er确定;
用户表示模块对当前序列中的每个物品i,将转移性信息模块输出的转移性信息嵌入表示
Figure BDA0003874820090000027
与相关性信息模块输出的相关性嵌入表示eri相加得到每个物品的嵌入表示
Figure BDA0003874820090000028
并通过平均池化操作得到当前序列的全局嵌入表示sg
Figure BDA0003874820090000029
其中,n表示当前序列的物品数;
用户表示模块基于位置嵌入获取前序列的局部嵌入表示sl
对于每条交互序列s,有一个相对应的位置嵌入矩阵P=[p1,p2,…,pi…,pt],其中,pi表示第i个物品的位置嵌入向量,根据
Figure BDA00038748200900000210
计算交互序列s的物品i的特征向量
Figure BDA00038748200900000211
并根据
Figure BDA00038748200900000212
得到物品i的用户短期兴趣表示,再根据
Figure BDA00038748200900000213
得到局部嵌入表示sl,其中,W1、W2、W3表示对应的权重,可学习参数,b表示特征向量的偏置项,c表示用户短期兴趣表示的偏置项,均为可学习参数;
用户表示模块拼接全局嵌入表示与局部嵌入表示得到当前序列的嵌入表示S=[sl||sg];
并通过使用当前序列的嵌入表示S和每个物品的嵌入表示
Figure BDA00038748200900000214
求内积来计算当前序列对每个物品的偏好分数:
Figure BDA0003874820090000031
基于设置的训练数据集对相关性信息模块、转移性信息模块和用户表示模块中的可学习参数进行深度学习训练,当满足预置的训练结束条件(损失收敛或者达到最大的训练次数)时停止,得到训练好的推荐模型;
步骤2,基于训练好的推荐模型获取推荐列表:
使用训练好的推荐模型在待处理数据集进行预测,对于待处理数据集中每一条用户-物品的交互序列,通过推荐模型计算出它对每个物品的偏好分数,将前K(K大于等于1)个最大偏好分数的物品作为推荐列表进行推荐,向当前交互序列所对应的用户进行推送。进一步的,使用了LeakyRelu作为激活函数获取αij
Figure BDA0003874820090000032
其中,⊙代表的是向量中对应元素相乘。
本发明提供的技术方案至少带来如下有益效果:
本发明提出了一种基于图神经网络的模型,同时学习物品之间的两种信息:使用注意力机制在序列构成的有向图中学习物品在序列中的转移性信息,从而更好的捕获用户的长期和短期兴趣;同时本发明使用了图卷积神经网络,在物品构成的无向图中学习物品之间的相关性信息,克服了现有方法没有考虑物品与物品的相关性的缺陷,减弱了序列中的噪声带来的影响,提高了推荐效果。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本发明实施例中采用的推荐模型的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
针对现有方法忽略了物品和物品之间相关性信息的缺点,本发明提出了一种独特的基于图神经网络的模型,充分利用了两种类型的信息,即物品之间的相关性信息和物品之间的转移信息。更具体地说,一方面,为了获取项目到项目的相关性信息,本发明将所有序列中的所有物品转换成一张大的无向图,若两个物品在某条序列中相邻则将它们相连,相连的边的权重值为这两个物品出现相邻的次数。然后将图导入到本发明提出的相关信息嵌入模块中,对相关性信息进行建模。另一方面,将每条序列都转换为一张有向图,基于预定义的转移关系(例如在同一条序列中,仅有物品i转移到物品j,仅有物品j转移到物品i,以及物品i和物品j之间互有转移,为三种不同的转移关系),来捕获物品和物品之间的转移信息,然后使用转移信息嵌入模块来对转移信息进行建模。此外,为了学习用户的长期和短期兴趣,将得到的相关性信息和转移信息合并后,传递到一个会话表示模块,分别获取用户交互序列的全局表示(代表长期兴趣)与局部表示(代表短期兴趣)。最后,全局表示与局部表示融合即可得到当前用户交互序列最终的表示。
针对无法利用时序信息对用户历史交互行为进行建模的缺点,本发明提出了一种独特的编码器-解码器结构的方法,使用编码器处理交互时间戳序列,使用解码器处理交互物品序列,从而融合每次交互行为的具体时序信息以捕获更为细粒度的用户行为模式。同时针对时序信息具有连续性的特点,本发明使用了一种基于窗函数的编码方法,可以更好地将时间戳转换成嵌入编码。再结合自注意力机制,剔除时序信息和物品信息中的冗余部分,利用其中的关键信息,对用户近期交互行为做出了更精确的预测,克服了现有方法没有考虑具体时序信息的缺陷,提高了推荐效果。
如图1所示,本发明采用的会话推荐模型包括:捕捉物品相关性信息模块,捕捉物品转移性信息模块,以及用户表示模块。各模块具体实现如下:
(1)相关性信息模块的构建。
整个模型的输入为用户-物品的交互序列[s1,s2,…,sL],而相关性信息模块的输入共有两部分:首先将所有序列中的所有物品构建成一张大的无向图,两个物品如果在序列中相邻则相连,然后将所有物品的无向图的邻接矩阵A∈RN×N作为相关性信息模块的第一部分输入,其中,N表示物品数量。对于物品序列,定义了一个可学习的物品嵌入矩阵E∈RN ×d,d表示物品嵌入信息的维度,其中每个物品i的嵌入信息用ei表示,该物品嵌入矩阵为相关性信息模块的第二部分输入。在该模块中,首先会在邻接矩阵中加上单位矩阵IN,加强其自交互信息:
Figure BDA0003874820090000041
在模块中使用了多层图卷积神经网络,在每层图卷积神经网络中,都会根据前一层的结果更新所有物品的相关性信息嵌入表示,具体更新公式如下:
Figure BDA0003874820090000042
其中,
Figure BDA0003874820090000051
为无向图的度矩阵,
Figure BDA0003874820090000052
相当于对邻接矩阵
Figure BDA0003874820090000059
进行了对称归一化,
Figure BDA0003874820090000053
代表经过第k层图卷积神经网络更新后的相关性信息嵌入表示。对于每个物品,其相关性信息的更新公式为:
Figure BDA0003874820090000054
其中,Ni代表物品i在无向图中邻居节点的个数,Nj表示表物品j在无向图中邻居节点的个数,
Figure BDA0003874820090000055
表示第k次更新物品i的相关性信息,每次更新相当于对物品i周围的邻居节点做了一次聚合操作。最终,所有物品的相关性嵌入表示为在每一层图卷积网络中得到的嵌入表示的加权和,即:
Figure BDA0003874820090000056
其中,βk即为每一层的权重值,是可学习的超参数,E(0)为一开始输入的物品嵌入矩阵,可随机初始化。
(2)转移性信息模块的构建。
如图1所示,转移性信息模块的输入同样由两部分构成,首先将每条序列转换成一张有向图,并将所有的有向图作为该模块的第一部分输入,第二部分则与相关性信息模块的输入相同,为物品的嵌入矩阵E∈RN×d。由于每个有向图中不同物品之间的转移关系不同,利用注意力机制来区分不同转移关系对转移性信息嵌入构建的重要性。在第一阶段,对于物品的嵌入向量ei和ej,其对应的物品i和j在同一会话中相邻,计算注意系数θij,表示项目j对于i的重要性:
Figure BDA00038748200900000511
其中,Att代表注意力函数,rij则代表物品i和j之间的转移关系,因此
Figure BDA00038748200900000510
代表当前转移关系的权重参数。为了比较不同的邻居物品对于当前物品的重要性,本发明引入了softmax方法,将权重参数转换为概率形式:
Figure BDA0003874820090000057
其中,
Figure BDA0003874820090000058
代表物品i在当前序列s构成的有向图中的邻居节点。对于Att,即注意力激活函数的选择是多样的。在本发明的会话推荐模型中,为了更好的结合当前节点和邻居节点之间的信息,使用了嵌入向量中对应元素相乘的方法来结合物品间的转移信息,并使用了LeakyRelu作为激活函数:
Figure BDA0003874820090000061
其中,⊙代表的是向量中对应元素相乘。最终,转移性信息模块最后输出的物品i在当前序列s中的转移性信息嵌入表示为其自身的嵌入表示与其邻居节点的嵌入表示的加权和:
Figure BDA0003874820090000062
(3)用户表示模块的构建。
由图1所示,当计算出了每个物品在当前序列的转移性信息嵌入与每个物品的相关性信息嵌入后,需要结合两种信息,进一步得到整条序列的嵌入表示。首先对于当前序列s中的每个物品i,其最终的嵌入表示为两种信息的元素和:
Figure BDA0003874820090000063
之后,为了分别捕捉到用户的长期兴趣和短期兴趣,分别构建了序列全局嵌入表示用户的长期兴趣,以及序列的局部嵌入来表示用户的短期兴趣。对于全局嵌入表示,使用了平均池化策略来结合当前序列中所有物品的信息:
Figure BDA0003874820090000064
其中,n表示当前序列的物品数。
而对于用户的局部嵌入表示,本发明认为在用户交互序列中点击越晚的物品越能表示用户的短期兴趣,因此引入了位置嵌入的概念。对于每条序列s,有一个相对应的位置嵌入矩阵P=[p1,p2,…,pi…,pt],其中pi∈Rd是一个可学习的嵌入向量,为了体现越晚点击的物品越能表示用户的短期兴趣,将物品嵌入向量与位置嵌入向量倒序后相拼接:
Figure BDA0003874820090000065
其中,tanh为激活函数,而W1和b都为可学习的参数。之后,使用软注意力机制来获取每个序列中的每个物品对于用户短期兴趣的权重,最后加权求和得到最终的用户短期兴趣表示。
Figure BDA0003874820090000066
Figure BDA0003874820090000067
其中,W2和W3表示对应的权重,c表示软注意力机制的偏置项,均为可学习的参数。
最终,当前序列的嵌入表示为该序列的全局嵌入表示与局部嵌入表示的拼接:
S=[sl||sg]
最后,通过使用当前序列的嵌入表示和每个物品的嵌入表示求内积来计算该序列对每个物品的偏好分数:
Figure BDA0003874820090000071
Figure BDA0003874820090000072
其中,最终的计算结果yi即代表当前序列下一个可能交互的物品为vi的偏好分数,将前K(K大于等于1)个最大偏好分数的物品作为推荐列表进行推荐,向当前交互序列所对应的用户进行推送。
为了进一步验证本发明的会话推荐性能,本发明实施例在三个来自显示场景的公开数据集评估了本发明实施例提出的模型,这些数据集有着不同的稀疏度,大小,时间跨度。
Diginetica数据集来源于CIKM Cup,其中包含典型的交易数据;Nowplaying数据集由用户的音乐收听行为组成;Tmall数据集来自IJCAI竞赛,由天猫网购平台上的用户-物品交互组成。
表1数据集特征(预处理后)
数据集 总交互数目 训练序列数目 测试序列数目 物品总数目 序列平均长度
Diginetica 982,961 719,470 60,858 43,097 5.12
Nowplaying 1,367,963 825,304 89,824 60,417 7.42
Tmall 818,479 351,268 25,898 40,728 6.69
本发明使用下述两种种在业界被广泛使用的评价指标:
1.准确率(Hit Ratio,HR),HR主要是衡量推荐的准确性。
3.平均倒数排名(Mean Reciprocal Rank,MRR),MRR是通过衡量正确推荐的物品在推荐列表中的位置衡量模型的推荐效果。
本实施例中,与本发明方法进行对比的方法如下:
Pop:最简单的baseline,根据物品流行度推荐物品。
Item-KNN:根据余弦相似性推荐与当前序列中的物品相似的物品
FMPC:一种结合马尔可夫链和矩阵分解的混合模型,用于捕获用户的偏好和序列信息。
GRU4Rec:一使用RNN来建模用户历史交互行为的模型,提出一种“会话并行”的方式加速。
NARM:该模型将RNN与注意力机制相结合,以捕捉用户的顺序行为特征和主要目的。
STAMP:采用自我注意力机制,不仅通过捕捉一般兴趣来模拟用户的长期行为,还基于用户在会话中的最后一次点击来关注增强用户短期兴趣的影响。
SR-GNN:使用图形神经网络进行基于会话的推荐。它通过将序列转换为有向图来捕获物品之间的信息。并且和STAMP相同,它使用自我注意机制来学习序列最终的表示。
FGNN:通过设计一个加权注意力图层来学习物品的嵌入切入,从而考虑序列的潜在顺序。
GCE-GNN:建立了两个不同的序列图,以获得全局信息和局部信息。
本发明与上述现有方法的推荐结果的对比结果如表2所示:
表2
Figure BDA0003874820090000081
从表2可知,本发明提出的RA-GNN在三个数据集上的各个指标上都获得了最好的结果,如表二所示,黑体为当前指标下最好结果。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
以上所述的仅是本发明的一些实施方式。对于本领域的普通技术人员来说,在不脱离本发明创造构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。

Claims (2)

1.一种融合相关性信息的图神经网络会话推荐方法,其特征在于,包括下列步骤:
步骤1,构建并训练推荐模型;
所述推荐模型包括相关性信息模块、转移性信息模块和用户表示模块;
其中,推荐模型的输入为用户-物品的交互序列[s1,s2,…,sl…,sL],sl表示第l条交互序列,其中l=1,2,…,L,L表示交互序列的数量;
将所有交互序列中的所有物品构建成一张物品无向图,在物品无向图中,若两个物品在序列中相邻则相连,并定义A表示物品无向图的邻接矩阵,
定义一个可学习的物品嵌入矩阵E,任意物品i的嵌入信息用ei表示;
将邻接矩阵A加上维度为N×N的单位矩阵IN,得到矩阵
Figure FDA0003874820080000011
其中,N表示物品无向图的物品数量;
相关性信息模块采用多层图卷积神经网络获取物品的相关性信息嵌入表示,相关性信息模块的输入包括:矩阵
Figure FDA0003874820080000012
和初始化的物品嵌入矩阵E,每层图卷积神经网络根据前一层输出的相关性信息嵌入表示更新物品嵌入矩阵E,具体更新公式为:
Figure FDA0003874820080000013
其中,
Figure FDA0003874820080000014
表示物品无向图的度矩阵,
Figure FDA0003874820080000015
分别表示经过第k层、第k+1层图卷积神经网络更新后的相关性信息嵌入表示;
相关性信息模块输出的最终的所有物品的相关性嵌入表示Er为在每一层图卷积网络中得到的嵌入表示的加权和:
Figure FDA0003874820080000016
其中,βk表示每一层图卷积神经网络的权重值,为可学习参数,E(0)表示初始化的物品嵌入矩阵E;
将每条用户-物品的交互序列的所有物品转换成一张有向图,在有向图中,若两个物品在当前序列中相邻则相连;
将每条用户-物品的交互序列的有向图和相关性信息模块输出的Er作为转移性信息模块的输入,转移性信息模块基于注意力机制,根据
Figure FDA0003874820080000017
计算当前用户-物品的交互序列的任意两个相邻的物品i和j之间的注意系数θij,其中,Att()代表注意力函数,
Figure FDA0003874820080000018
表示表物品i和j之间的转移关系的权重参数,为可学习参数,ei,ej表示物品i和j的嵌入信息,基于相关性信息模块输出的Er确定;
转移性信息模块再通过softmax函数将权重参数转换为概率形式:
Figure FDA0003874820080000019
其中,
Figure FDA00038748200800000110
表示物品i在当前序列s构成的有向图中的邻居节点的物品集合,k表示集合
Figure FDA00038748200800000111
中的物品编号,θik表示物品i和k之间的注意系数;
转移性信息模块最后输出的物品i在当前序列s中的转移性信息嵌入表示为其自身的嵌入表示与其邻居节点的嵌入表示的加权和:
Figure FDA0003874820080000021
其中,
Figure FDA0003874820080000022
表示当前序列s中的物品j的嵌入信息,基于相关性信息模块输出的Er确定;
用户表示模块对当前序列中的每个物品i,将转移性信息模块输出的转移性信息嵌入表示
Figure FDA0003874820080000023
与相关性信息模块输出的相关性嵌入表示eri相加得到每个物品的嵌入表示
Figure FDA0003874820080000024
并通过平均池化操作得到当前序列的全局嵌入表示sg
Figure FDA0003874820080000025
其中,n表示当前序列的物品数;
用户表示模块基于位置嵌入获取前序列的局部嵌入表示sl
对于每条交互序列s,有一个相对应的位置嵌入矩阵P=[p1,p2,…,pi…,pt],其中,pi表示第i个物品的位置嵌入向量,根据
Figure FDA0003874820080000026
计算交互序列s的物品i的特征向量fi s,并根据
Figure FDA0003874820080000027
得到物品i的用户短期兴趣表示,再根据
Figure FDA0003874820080000028
得到局部嵌入表示sl,其中,W1、W2、W3表示对应的权重,为可学习参数,b表示特征向量的偏置项,c表示用户短期兴趣表示的偏置项,b、c均为可学习参数;
用户表示模块拼接全局嵌入表示与局部嵌入表示得到当前序列的嵌入表示S=[sl||sg];
并通过使用当前序列的嵌入表示S和每个物品的嵌入表示
Figure FDA0003874820080000029
求内积来计算当前序列对每个物品的偏好分数:
Figure FDA00038748200800000210
基于设置的训练数据集对相关性信息模块、转移性信息模块和用户表示模块中的可学习参数进行深度学习训练,当满足预置的训练结束条件时停止,得到训练好的推荐模型;
步骤2,基于训练好的推荐模型获取推荐列表:
使用训练好的推荐模型在待处理数据集进行预测,对于待处理数据集中的每一条用户-物品的交互序列,通过推荐模型计算出它对每个物品的偏好分数,再将前K个最大偏好分数的物品作为推荐列表,并向当前交互序列所对应的用户进行推送,其中,K大于等于1。
2.如权利要求1所述的方法,特征在于,采用LeakyRelu作为激活函数获取αij
Figure FDA00038748200800000211
其中,⊙代表的是向量中对应元素相乘,LeakyRelu()表示LeakyRelu激活函数的输出。
CN202211210004.3A 2022-09-30 2022-09-30 一种融合相关性信息的图神经网络会话推荐方法 Pending CN115510335A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211210004.3A CN115510335A (zh) 2022-09-30 2022-09-30 一种融合相关性信息的图神经网络会话推荐方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211210004.3A CN115510335A (zh) 2022-09-30 2022-09-30 一种融合相关性信息的图神经网络会话推荐方法

Publications (1)

Publication Number Publication Date
CN115510335A true CN115510335A (zh) 2022-12-23

Family

ID=84508719

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211210004.3A Pending CN115510335A (zh) 2022-09-30 2022-09-30 一种融合相关性信息的图神经网络会话推荐方法

Country Status (1)

Country Link
CN (1) CN115510335A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116542720A (zh) * 2023-07-05 2023-08-04 湖北工业大学 一种基于图卷积网络的时间增强信息序列推荐方法及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116542720A (zh) * 2023-07-05 2023-08-04 湖北工业大学 一种基于图卷积网络的时间增强信息序列推荐方法及系统
CN116542720B (zh) * 2023-07-05 2023-09-19 湖北工业大学 一种基于图卷积网络的时间增强信息序列推荐方法及系统

Similar Documents

Publication Publication Date Title
CN111581520B (zh) 基于会话中物品重要性的物品推荐方法和系统
CN109754317B (zh) 融合评论的可解释性服装推荐方法、系统、设备及介质
CN111881342A (zh) 一种基于图孪生网络的推荐方法
CN111222332A (zh) 一种结合注意力网络和用户情感的商品推荐方法
CN114065048A (zh) 基于多异构图图神经网络的物品推荐方法
CN110196928B (zh) 完全并行化具有领域扩展性的端到端多轮对话系统及方法
CN111861046B (zh) 基于大数据和深度学习的专利价值智能评估系统
CN110619540A (zh) 一种神经网络的点击流预估方法
CN112115371A (zh) 一种基于因子分解机的神经注意力机制手机应用推荐模型
CN115510335A (zh) 一种融合相关性信息的图神经网络会话推荐方法
CN114020999A (zh) 一种电影社交网络的社区结构检测方法及系统
CN111506821A (zh) 推荐模型、方法、装置、设备及存储介质
CN116541607A (zh) 基于商品检索数据分析的智能推荐方法
CN113919440A (zh) 一种融合双重注意力机制和图卷积社交网络谣言检测系统
CN116204729A (zh) 一种基于超图神经网络的跨领域群组智能推荐方法
CN114154080B (zh) 一种基于图神经网络的动态社会化推荐方法
CN113868537B (zh) 一种基于多行为会话图融合的推荐方法
CN114925270A (zh) 一种会话推荐方法和模型
CN114492451A (zh) 文本匹配方法、装置、电子设备及计算机可读存储介质
CN113010774A (zh) 一种基于动态深度注意力模型的点击率预测方法
CN110570226B (zh) 一种联合主题模型和异质信息网络的评分预测方法
CN117094859A (zh) 结合图神经网络和多层感知机的学习路径推荐方法及系统
CN117194765A (zh) 一种兴趣感知的双通道图对比学习会话推荐方法
CN113888238A (zh) 一种广告点击率预测方法、装置及计算机设备
CN115905859A (zh) 一种基于显著分数的联邦学习客户端贡献评估方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination