CN113961816B - 一种基于结构增强的图卷积神经网络会话推荐方法 - Google Patents
一种基于结构增强的图卷积神经网络会话推荐方法 Download PDFInfo
- Publication number
- CN113961816B CN113961816B CN202111423525.2A CN202111423525A CN113961816B CN 113961816 B CN113961816 B CN 113961816B CN 202111423525 A CN202111423525 A CN 202111423525A CN 113961816 B CN113961816 B CN 113961816B
- Authority
- CN
- China
- Prior art keywords
- representation
- session
- global
- embedded
- graph
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及会话推荐技术领域,具体涉及一种基于结构增强的图卷积神经网络会话推荐方法,首先获取目标会话文本的会话表示;然后基于会话表示生成对应的会话图,进而通过会话图识别目标会话文本中的噪声项目;再结合注意力机制重置噪声项目的注意力权重,以消除噪声项目的影响;最后计算最终预测概率分布,并基于最终预测概率分布进行项目推荐。本发明中基于结构增强的图卷积神经网络会话推荐方法能够识别噪声项目并解决噪声项目影响,从而能够提升会话项目推荐的准确性。
Description
技术领域
本发明涉及互联网大数据技术领域,具体涉及一种基于结构增强的图卷积神经网络会话推荐方法。
背景技术
基于会话的推荐是一种针对匿名用户或未登录用户的一种推荐模式,其在如今的各大电商平台(淘宝、京东等)或流媒体平台(抖音,YouTobe等)发挥着重要作用。在实际场景中,某些时候只能获取到用户的短期历史交互,比如:新用户或未登录用户。此时,依赖于用户长期历史交互的推荐算法在会话推荐中的表现会收到限制,例如基于协同过滤或马尔可夫链的方法。因此,基于会话的推荐成为一个研究热点,其目标是根据用户在会话中的行为序列来推荐用户感兴趣的下一个项目(或商品)。
针对现有会话推荐方法的项目推荐准确性不高的问题,公开号为CN112035746A的中国专利公开了《一种基于时空序列图卷积网络的会话推荐方法》,其包括:将所有会话序列建模为有向会话图;以会话中共有的商品为链接,构建全局图;将ARMA过滤器嵌入到门控图神经网络中,提取图模型中随时间变化的拓扑图信号,并得到会话图中涉及的各个节点的特征向量;采用注意力机制从用户历史会话中得到全局偏好信息;从用户点击的最后一个会话中获取用户的局部偏好信息,并结合全局偏好信息得到用户最终偏好信息;预测每个会话中下一点击商品可能出现的概率,并给出Top-K推荐商品。
上述现有方案中的会话推荐方法从全局图中捕获丰富的会话表示(上下文关系),通过注意力机制学习用户的全局和局部偏好,进而提供准确的商品预测。但是,现有GNN(图卷积网络)中的图结构是由静态方式构造的,一旦用户的偏好发生转移,就很容易为图结构带来噪声项目(信息),导致图结构不准确,同时,项目转换关系中通常包含由用户意外或错误点击引起的噪声项目。然而,传统的注意力机制会为会话文本中的每一个项目分配注意力权重(重要性系数),即噪声项目也会分配到相应的注意力权重,这容易将噪声信息引入到会话表示中,导致模型学习不准确的用户偏好表示,进而导致推荐准确性偏低。因此,如何设计一种能够解决噪声影响的会话推荐方法是亟需解决的技术问题。
发明内容
针对上述现有技术的不足,本发明所要解决的技术问题是:如何提供一种能够识别噪声项目并解决噪声项目影响的会话推荐方法,从而提升会话项目推荐的准确性。
为了解决上述技术问题,本发明采用了如下的技术方案:
一种基于结构增强的图卷积神经网络会话推荐方法:首先获取目标会话文本的会话表示;然后基于会话表示生成对应的会话图,进而通过会话图识别目标会话文本中的噪声项目;再结合注意力机制重置噪声项目的注意力权重,以消除噪声项目的影响;最后计算最终预测概率分布,并基于最终预测概率分布进行项目推荐。
优选的,具体包括以下步骤:
S1:获取目标会话文本;
S2:将目标会话文本输入经过预先训练的会话推荐模型中;
所述会话推荐模型首先通过融合嵌入模块从三个角度分别提取目标会话文本的局部嵌入表示、全局嵌入表示和共识嵌入表示;再通过重复预测模块计算对应的重复预测概率;然后通过探索预测模块识别目标会话文本中的噪声项目、消除噪声项目的影响,并计算对应的探索预测概率;最后通过判断模块基于重复预测概率和探索预测概率计算对应的最终预测概率分布;
S3:基于会话推荐模型输出的最终预测概率分布进行项目推荐。
优选的,所述融合嵌入模块包括用于基于目标会话文本生成全局表示的动态全局邻居注意力网络,以及用于基于目标会话文本的局部表示和全局表示融合生成对应的局部嵌入表示、全局嵌入表示和共识嵌入表示的多通道图卷积神经网络。
优选的,所述动态全局邻居注意力网络通过如下步骤生成全局表示:
优选的,所述多通道图卷积神经网络通过如下步骤生成局部嵌入表示、全局嵌入表示和共识嵌入表示:
S213:基于局部图AL,(l-1)和全局图AG,(l-1)融合生成对应的共识图AM,(l-1);
上述式中:HWGCN表示多通道图卷积神经网络;l表示多通道图卷积神经网络的层数;表示第l-1层HWGCN输出的局部嵌入表示;表示第l-1层HWGCN输出的全局嵌入表示;表示第l-1层HWGCN输出的共识嵌入表示;σ表示Sigmoid函数;表示可训练参数。
优选的,所述会话推荐模型还包括图增强的位置编码器;
位置编码器的结构表示为:
优选的,重复预测模块通过如下步骤计算重复预测概率:
优选的,探索预测模块包括用于消除噪声项目影响的图增强注意力网络;图增强注意力网络通过如下步骤消除噪声项目的影响:
优选的,探索预测模块通过如下步骤计算探索预测概率:
优选的,判断模块通过如下公式计算最终预测概率;
本发明中的会话推荐方法与现有技术相比,具有如下有益效果:
在本发明中,通过会话图的结构能够准确识别会话文本中的噪声项目,进而通过调整注意机制及其注意力权重的方式消除噪声项目的影响,使得能够得到会话文本中的长期结构表示,避免模型学习不准确的用户偏好表示,从而能够提升会话项目推荐的准确性。同时,本发明利用项目相似性(而不是项目转换模式)能够捕获项目之间的高质量关系,使得能够减少由用户意外或错误点击造成的噪音信息。此外,本发明从三个角度分别获取了局部嵌入表示、全局嵌入表示和共识嵌入表示,使得能够增强会话文本的表示性,从而能够更好的提升会话项目推荐的全面性。最后,本发明中通过“重复和探索”的机制能够很好的计算得到符合用户偏好的概率分布,即能够更精确的进行项目分布概率的预测,从而能够提升会话项目推荐预测的准确性。
附图说明
为了使发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步的详细描述,其中:
图1为图卷积神经网络会话推荐方法的逻辑框图;
图2为会话推荐模型的网络结构图;其中,(A)表示重复预测模块和探索预测模块,(B)表示动态全局邻居注意力网络,(C)表示多通道图卷积神经网络,(D)表示图增强的位置编码器;
图3为DGS-MGNN、DGS-MGNN w/o GPE和DGS-MGNN-POS的性能示意图;
图4为DGS-MGNN、DGS-MCGNN-STR和DGS-MCGNN-SEQ的性能示意图;
图5为不同全局邻居数量时DGS-MGNN的性能示意图;
图6为DGS-MGNN、DSAN和GCE-GNN的性能示意图。
具体实施方式
下面通过具体实施方式进一步详细的说明:
实施例:
本实施例中公开了一种基于结构增强的图卷积神经网络会话推荐方法。
基于结构增强的图卷积神经网络会话推荐方法:首先获取目标会话文本的会话表示;然后基于会话表示生成对应的会话图,进而通过会话图识别目标会话文本中的噪声项目;再结合注意力机制重置噪声项目的注意力权重,以消除噪声项目的影响;最后计算最终预测概率分布,并基于最终预测概率分布进行项目推荐。具体的,将噪声项目的注意力权重设置为0。
结合图1所示,具体包括以下步骤:
S1:获取目标会话文本;
S2:将目标会话文本输入经过预先训练的会话推荐模型中;
结合图2所示,会话推荐模型首先通过融合嵌入模块从三个角度分别提取目标会话文本的局部嵌入表示、全局嵌入表示和共识嵌入表示;再通过重复预测模块计算对应的重复预测概率;然后通过探索预测模块识别目标会话文本中的噪声项目、消除噪声项目的影响,并计算对应的探索预测概率;最后通过判断模块基于重复预测概率和探索预测概率计算对应的最终预测概率分布;
S3:基于会话推荐模型输出的最终预测概率分布进行项目推荐。
在本发明中,通过会话图的结构能够准确识别会话文本中的噪声项目,进而通过调整注意机制及其注意力权重的方式消除噪声项目的影响,使得能够得到会话文本中的长期结构表示,避免模型学习不准确的用户偏好表示,从而能够提升会话项目推荐的准确性。同时,本发明利用项目相似性(而不是项目转换模式)能够捕获项目之间的高质量关系,使得能够减少由用户意外或错误点击造成的噪音信息。此外,本发明从三个角度分别获取了局部嵌入表示、全局嵌入表示和共识嵌入表示,使得能够增强会话文本的表示性,从而能够更好的提升会话项目推荐的全面性。最后,本发明中通过“重复和探索”的机制能够很好的计算得到符合用户偏好的概率分布,即能够更精确的进行项目分布概率的预测,从而能够提升会话项目推荐预测的准确性。
具体实施过程中,融合嵌入模块包括用于基于目标会话文本生成全局表示的动态全局邻居注意力网络(Dynamic Global Attention,DGNA),以及用于基于目标会话文本的局部表示和全局表示融合生成对应的局部嵌入表示、全局嵌入表示和共识嵌入表示的多通道图卷积神经网络(Multi-Channel Graph Neural Network,MC-GNN)。
具体的,动态全局邻居注意力网络通过如下步骤生成全局表示:
S202:从候选项目集合V={v1,v1,…,v|V|}中提取K个候选项目vj∈V作为目标项目的全局邻居;选取全局邻居时,计算目标项目与各个候选项目vj的余弦相似度,然后选取余弦相似度最高的K个候选项目vj来作为全局邻居;
多通道图卷积神经网络通过如下步骤生成局部嵌入表示、全局嵌入表示和共识嵌入表示:
S213:基于局部图AL,(l-1)和全局图AG,(l-1)融合生成对应的共识图AM,(l-1);
上述式中:HWGCN表示多通道图卷积神经网络;l表示多通道图卷积神经网络的层数;表示第l-1层HWGCN输出的局部嵌入表示;表示第l-1层HWGCN输出的全局嵌入表示;表示第l-1层HWGCN输出的共识嵌入表示;σ表示Sigmoid函数;表示可训练参数。具体的,通过高速公路网络(highway network)来缓解堆叠图卷积神经网络带来过度平滑的问题,将第l层的图传播过程定义如下:
在本发明中,基于局部表示和全局表示构造了对应的局部图和全局图,进而基于局部图和全局图融合生成了共识图,即能够以动态的方式构造会话图,使得能够通过共识图维护局部图和全局图间的一致性。同时,本发明从三个角度分别获取了局部嵌入表示、全局嵌入表示和共识嵌入表示,使得能够增强会话文本的表示性,从而能够更好的提升会话项目推荐的全面性。
具体实施过程中,会话推荐模型还包括图增强的位置编码器(Graph PositionEncoder,GPE);
位置编码器的结构表示为:
上述式中:表示目标会话文本S中第i个位置的位置嵌入;Slen表示目标会话文本S的会话长度;表示会话长度Slen的嵌入表示。Emebedlen表示一种针对会话长度的向量嵌入操作。例如会话长度为Slen=6的会话将其长度6映射到一个向量该向量是可训练参数。
传统建模位置信息的方法通常采用绝对位置编码的方式,其难以很好的适应会话推荐任务。例如:会话S1=(苹果手机,耳机,短袖、短裙、毛衣),会话S2=(小米手机,耳机)。会话S1和会话S2的第二个项目都是耳机,然而S2中的耳机更能体现用户的当前偏好,这是由于耳机分别位于S2的最后一个位置和S1的倒数第四个位置,而现有绝对位置编码会忽略掉这种会话的个性化位置信息。
为此,本发明通过整合会话长度信息以及捕获会话固有的拓扑位置结构来增强会话中每个项目的位置嵌入,使得模型能够更好的关注到会话的个性化位置信息,从而能够辅助提升会话项目的推荐准确性和全面性。
具体实施过程中,重复预测模块通过如下步骤计算重复预测概率:
在本发明中,通过重复预测模块能够基于局部嵌入表示、全局嵌入表示、共识嵌入表示和位置嵌入表示计算当前会话中出现过的项目的概率分布,即重复预测概率,这能够很好的辅助计算最终预测概率分布。
具体实施过程中,探索预测模块包括用于消除噪声项目影响的图增强注意力网络(Graph-Enhanced Attention Network,GEA);图增强注意力网络通过如下步骤消除噪声项目的影响:
探索预测模块通过如下步骤计算探索预测概率:
在本发明中,通过探索预测模块能够基于局部嵌入表示、全局嵌入表示、共识嵌入表示和位置嵌入表示分别计算得到会话结构表示和会话顺序表示,进而能够从会话结构和会话顺序两个方面去预测概率分布,这同样能够很好的辅助计算最终预测概率分布。
具体实施过程中,判断模块通过如下公式计算最终预测概率;
为了更好的说明本发明中会话推荐方法的优势,本实施例中公开了如下实验。
一、数据集
本实验在三个广泛使用的基准数据集(Diginetica,Yoochoose,Retailrocket)上对DGS-MGNN和一系列基线模型的性能进行了测试。
Diginetica:来自于2016年CIKM Cup挑战赛。由于其包含商品交易类型的数据,所以经常被用于会话推荐任务。本实验提取其最后一周的数据作为测试数据。
Yoochoose:来自于2015年的ResSys挑战赛,其包含了6个月内电子商务网站的点击流数据。由于该数据量过大,提取按时间排序的最近的1/4和1/64的数据作为训练集,它们分别被命名未“Yoochoose1/4”和”Yoochoose1/64”,最后一周的数据作为测试集。
Retailrocket:来自于2016年的Kaggle竞赛,其包含了用户在电子商务网站上4.5个月的行为数据。本实验提取最近的1/4数据作为训练集,最后15天的数据作为测试集。
在三个数据集中,将会话长度小于2的会话和项目出现次数小于5的项目进行过滤。
二、基线模型
为了全面的检验DGS-MGNN(本发明提出的会话推荐模型)的性能,本实验将其与三种类型的基线模型进行了性能对比(传统推荐方法、基于循环设计网络和注意力机制的方法、基于图神经网络的方法),详细的介绍如下:
1)传统推荐方法:
POP:这是推荐系统中常用的一种基线方法,它推荐训练集中出现频率最高的前N个项目。
Item-KNN:是一种基于协同过滤的方法,其通过向用户推荐与当前会话最相似的项目。
FPMC:将矩阵分解和马尔科夫链结合起来,其中序列数据由转移矩阵建模,所有转移矩阵都是用户特定的。它引入了一个因子分解模型,该模型给出了转换立方体的低秩近似值,其中每一个部分都是用户历史点击在马尔科夫链下的转移矩阵。
2)基于循环神经网络和注意力机制的方法:
GRU4REC:利用门控循环神经网络GRU模拟用户的顺序行为并采用并行小批次训练方案进行模型训练。
NARM:使用循环神经网络RNN来建模用户的顺序行为并结合注意力机制来捕获用户的主要偏好。同时,它结合双线性匹配机制为每个候选项目生成推荐概率。
STAMP:通过捕获用户的长期偏好和短期兴趣来缓解用户的偏好转移的问题。
CSRM:提出利用协作邻域信息进行基于会话的推荐。它利用内部编码器捕获当前会话的信息,同时它也利用外部编码器捕获邻域会话的协作信息。
DSAN:将双稀疏注意力网络应用于会话推荐任务。它首先探究了会话内每个项目的间的关系并结合自注意力网络目标项目表示,然后利用普通的注意力网络来捕获项目的重要性,最后利用神经网络将目标表示和会话表示结合起来从而得到最终的表示。
3)基于图神经网络的方法:
SR-GNN:通过将会话序列建模为会话图捕获项目在会话中复杂的转换关系。同时,它还结合门控图神经网络和自注意力机制来生成会话表示。
TAGNN:通过会话序列建模为会话图并通过图神经网络获取项目的嵌入表示,它还引入了目标感知模块,以揭示给定目标项目与所有候选项目的相关性,从而提升会话表示质量。
GCE-GNN:是目前性能最好的模型,它通过2个不同的视角学习项目的表示,例如:会话视角和全局视角。会话视角旨在通过会话内项目的转换关系学习项目的表示,全局视角旨在通过项目在所有会话中的转换关系学习项目的表示。
三、实验参数设置
本实验在DGS-MGNN的所有实验中,设置训练批次大小为256,项目嵌入的向量维度为256。全局邻居的数量K设置为10,HWGCN的层数为1。根据基线模型的原始论文设置其实验参数。在实验中的模型参数初始化按照均值为0,方差为0.1进行初始化。使用Adam优化器并配备0.001的学习率,该学习率会每训练3轮衰减为之前的0.1倍。δ设置为0.4,同时dropout也在模型中使用,其值设定为0.4。另一方面,利用L2正则化来避免过拟合,其值设定为1e-4。
四、评测指标
本实验使用2个广泛使用的评测指标P@20和MRR@20来评估所有模型的性能,P@K和MRR@K的值越高,代表模型性能越好。
P@K(Precision):它衡量目标项目在top-K推荐中排名时的数量比例,是评估未排名结果的指标。
式中:N表示测试集数量;nhit表示目标项目在预测的top-K列表中的样本数量。
MRR@K(Mean Reciprocal Rank):它是目标项在推荐列表中的倒数排名的平均值。此指标考虑正确推荐项目在排名列表中的位置。
式中:N表示测试集数量;ranki表示第i个目标项目在推荐列表中的位置。若目标项目未在top-K推荐列表中,则MRR@K为0。
五、整体实验
表1展示了DGS-MGNN和基线模型在三个基准数据集上的性能测试实验结果。
表1
从表1中可以看出,本发明提出的DGS-MGCN始终优于所有最先进的基线方法。具体来说,DGS-MGNN相比较最优基线GCE-GNN表现出了显著的改善(t检验,p≤0.01)并在Diginetica、Yoochoose和Retailrocket的MRR@20上高出了3.36%,6.07%和13.46%。同样的性能优势在P@20上也能得到体现。DGS-MGNN取得性能优势的主要原因是其可以动态的聚合全局信息。
本发明提出了一个MC-GNN(多通道图卷积神经网络)来学习项目不同视角的丰富的信息。此外,DGS-MGNN结合图曾庆的GPE(图增强的位置编码器)和GEA(图增强的注意力网络)来分别增强项目的位置嵌入和过滤会话中的噪音项目。
六、DGNA和MC-GNN的影响
为了验证动态全局邻居注意力网络(DGNA)和多通道图卷积神经网络(MC-GNN)的有效性,本实验设计了相关的变体模型:
DGS-MGNN w/o DGNA:从DGS-MGNN中将动态全局邻居注意力网络(DGNA)移除。
DGS-MGNN-MLP:将DGS-MGNN中的多通道图神经网络(MC-GNN)替换为多层感知机(MLP)。
DGS-MGNN-GGNN:将DGS-MGNN中的多通道图神经网络(MC-GNN)替换为SR-GNN中所使用的门控图神经网络(GGNN),同时其图的构造方法于SR-GNN中一致。
DGS-MGNN-GAT:将DGS-MGNN中的多通道图神经网络(MC-GNN)替换为GCE-GNN中所使用的图注意力网络(GAT),同时其图的构造方法于GCE-GNN中一致。
表2展示了所有变体模型的性能实验结果。
表2
从表2中可以看出,从DGS-MGNN中移除DGNA会使DGS-MGNN的性能出现明显的下降,这验证了DGNA的有效性。
从表2中可以看到配备有MC-GNN的DGS-MGNN的性能始终优于其他变体模型,例如将MC-GNN替换为MLP、GGNN与GAT,在所有三种变体中,我们可以观察到DGS-MGNN-GGNN与DGS-MGNN-MLP相比几乎没有改善,原因是DGS-MGNN-GGNN没有区分项目之间的连接强度。此外,它还受到用户意外或错误点击的影响,这可能会给用户表示带来噪声信息。DGS-MGNN-GAT在所有比较的变体中实现了最佳性能,因为它通过引入注意机制生成的权重作为项目之间的连接强度来缓解连接强度问题。然而,与DGS-MGNN-GGNN类似,DGS-MGNN-GAT仍然会遇到由用户意外或错误点击引起的噪声信息的影响。与DGS-MGNN-GAT不同,我们提出的带有MC-GNN的DGS-MGNN模型通过动态调整图的结构和项目之间的连接强度,可以有效地处理连接强度和噪声信息问题。
七、图增强的位置编码器的影响
本实验对图增强的位置编码器(GPE)的有效性进行了验证。位置编码已经广泛的应用在了会话推荐任务中,然而应用在SASRec和Star-GNN中的绝对位置嵌入在会话推荐任务中并没有达到理想的效果。为了验证图增强的位置编码器的有效性,我们设置了2个相关的变体模型:
DGS-MGNN w/o GPE:将DGS-MGNN中的图增强的位置编码器(GPE)移除。
DGS-MGNN-POS:将DGS-MGNN中的图增强的位置编码器(GPE)替换为应用在SASRec和Star-GNN中的绝对位置嵌入。
图3显示了各个对比模型的性能。实验结果揭示了配备了图增强的位置编码器(GPE)的DGS-MGNN的性能明显优于2个变体模型。更准确地说,带有图增强的位置编码器的模型(即本发明提出的DGS-MGNN和变体DGS-MGNN-POS)始终优于不考虑位置嵌入的变体模型(即DGS-MGNN w/o GPE)。此外,本发明提出的DGS-MGNN比采用传统图增强的位置编码器的DGS-MGNN-POS变体性能更好。图增强的位置编码器将会话长度信息引入到位置嵌入中以缓解上述问题。同时,图增强的位置编码器还能捕获会话固有的拓扑位置结构。
八、图增强的注意力网络的影响
为了验证探索图增强的注意力网络(GEA)对推荐性能的影响,我们设计了以下三种变体模型:
DGS-MGNN-S:用加合池化代替DGS-MGNN中的图增强的注意力网络(GEA)。
DGS-MGNN-M:用平均池化代替DGS-MGNN中的图增强的注意力网络(GEA)。
DGS-MGNN-SA:用普通注意力机制代替DGS-MGNN中的图增强的注意力网络(GEA)。
表3
如表3所示,基于加合池化的变体模型DGS-MGNN-S的性能最差。相反,基于平均池化的变体模型DGS-MGNN-M的性能优于DGS-MGNN-S。在所有三种变体中,基于自注意网络的变体模型DGS-MGNN-SA的性能最好,这表明了引入注意机制根据项目的重要性系数动态聚合信息的有效性。
与所有三种变体相比,我们提出的带有GEA的DGS-MGNN模型在所有数据集上都表现出最佳性能。这主要是因为在会话中,用户可能会有一些意外或错误的点击,传统的注意机制会为这些意外或错误的点击分配注意权重,从而给会话的表示带来噪音。相反,图增强的注意力网络(GEA)应用会话图的结构来识别用户在会话中的意外或错误点击,然后通过设置噪音项目的注意权重为0过滤掉噪声项目。
九、顺序信息和结构信息的影响
DGS-MCGNN-STR:DGS-MGNN的一种变体,它只保留当前会话的长期结构表示,而忽略了DGS-MGNN中的长期序列信息。
DGS-MCGNN-SEQ:DGS-MGNN的一种变体,它只保留当前会话的长期顺序表示,而丢弃DGS-MGNN中的长期结构信息。
图4展示了实验结果。可以看出,我们提出的DGS-MGNN在所有数据集上都获得了最佳性能,该模型既捕获了当前会话的长期结构表示,也捕获了当前会话的长期顺序表示。当DGS-MGNN仅配备当前会话的结构信息或序列信息时,其性能将显著降低。此外,在这两种变体中,DGS-MGNN-STR优于DGS-MGNN-SEQ,这表明:1)当前会话的长期结构表示比当前会话的长期顺序表示更重要;2)这两种长期表示是相辅相成的,它们的组合将极大提高性能。
十、全局邻居数量对模型性能的影响
为了探索全局邻居数量(K)对模型性能的影响,我们分析了不同全局邻居数量(0-50)下模型的性能变化。实验结果如图5所示,可以看出,在Diginetica数据上,DGS-MCGNN的性能随着全局邻居数量的增多而提升,当全局邻居数量超过10的时候,模型性能逐渐趋于稳定或轻微下降。在Yoochoose1/64数据上,当全局邻居数据小于20时,模型性能随着全局邻居数量的增多而提升,当超过20时,模型性能逐渐趋于稳定,相同的实验结论也在其他两个数据上得到了体现。结果表明,我们提出的方法DGS-MGNN可以在全局邻居数量相对较少的情况下获得令人满意的性能。
十一、模型在不同长度的会话下的性能差异
为了验证不同长度会话的模型性能,我们将会话分为两组(即长会话和短会话),其中长度大于5的会话被视为长会话,剩余的会话被视为短会话。我们将我们提出的方法DGS-MGNN与两个最具竞争力的基线模型,即DSAN和GCE-GNN分别在长会话和短会话上进行了性能比较。从图6中可以看出,三种方法在短会话上的性能都优于它们在长会话上的性能,这可归因于长会话通常包含更复杂的用户兴趣(例如,兴趣转移),难以捕获,而短会话中的用户兴趣通常很简单。本发明提出的模型DGS-MGNN在所有数据集的两个指标上,同时在短会话和长会话上都始终优于两种最先进的基线方法。
此外,与DSAN和GCE-GNN相比,DGS-MGNN在长会话上的性能改进明显大于在短会话上的性能改进。例如,在Diginetica数据集上,DGS-MGNN的P@20(MRR@20)在短会话上相对于DSAN和GCE-GNN的性能改进分别为1.58%(2.96%)和1.78%(2.60%)。而长会话的相应改善率分别为5.23%(8.22%)和5.61%(7.45%)。在其他3个数据集研究中也观察到类似的结果。
十二、模型计算复杂度
将DGS-MGNN的计算复杂度与其他四种最具竞争力的基线方法(包括SR-GNN、TAGNN、DSAN和GCE-GNN)进行了比较。在表4中展示了这些方法的理论计算复杂性以及实际训练时间和内存成本。
从表4中可以看到SR-GNN的计算复杂度是O(s(nd2+n3)+d2),其中n是会话长度,d是项目embedding的维度。为了简单起见,我们使用s表示不同图形神经网络的层数,即SR-GNN和TAGNN中的门控图神经网络(GGNN),GCE-GNN中的图注意力网络(GAT),以及我们提出的DGS-MGNN中的多通道图神经网络(MC-GNN)。与SR-GNN一样,TAGNN同样应用GGNN来学习节点的表示,此外它还开发了一种局部目标主义理论模块来测量当前会话中的每个项目与所有候选项目的注意力得分。因此,该方法具有更高的时间计算复杂度(O(s(nd2+n3)+n|V|d2+d2),其中|V|是所有候选项目的数量。DSAN和GCE-GNN它们各自的计算复杂度分别是O(n2d+d2)和O(sn2d+nKd+d2),我们所提出的模型DGS-MGNN的计算复杂度为O(sn2d+n|V|d+d2),其中主要的计算开销来自于MC-GNN模块中计算全局邻居的部分。从结果可以看出,DGS-MGNN的计算复杂度远低于TAGNN,略高于SR-GNN、DSAN和GCE-GNN。
表4
对于训练时间的消耗,我们可以观察到基线DSAN在所有数据集上比其他方法花费更少的训练时间,但Diginetica数据集上除外。基线TAGNN在所有数据集上具有最高的训练时间消耗。对于我们提出的方法DGS-MGNN,其训练时间成本远低于TAGNN,略高于SR-GNN、DSAN和GCE-GNN,这与理论计算复杂性的结果一致。就模型内存成本而言,基线SR-GNN和TAGNN分别显示了所有数据集的最低和最高内存成本。而其他两个基线模型DSAN和GCE-GNN显示了与SR-GNN相当或略高的内存成本。DGS-MGNN的存储成本远低于TAGNN,切与GCE-GNN具有的内存开销相比具有竞争性。基于上述分析,DGS-MGNN的计算复杂度适中,因此在潜在的应用中是可行的。
需要说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管通过参照本发明的优选实施例已经对本发明进行了描述,但本领域的普通技术人员应当理解,可以在形式上和细节上对其作出各种各样的改变,而不偏离所附权利要求书所限定的本发明的精神和范围。同时,实施例中公知的具体结构及特性等常识在此未作过多描述。最后,本发明要求的保护范围应当以其权利要求的内容为准,说明书中的具体实施方式等记载可以用于解释权利要求的内容。
Claims (6)
1.一种基于结构增强的图卷积神经网络会话推荐方法,其特征在于:首先获取目标会话文本的会话表示;然后基于会话表示生成对应的会话图,进而通过会话图识别目标会话文本中的噪声项目;再结合注意力机制重置噪声项目的注意力权重,以消除噪声项目的影响;最后计算最终预测概率分布,并基于最终预测概率分布进行项目推荐;
具体包括以下步骤:
S1:获取目标会话文本;
S2:将目标会话文本输入经过预先训练的会话推荐模型中;
所述会话推荐模型首先通过融合嵌入模块从三个角度分别提取目标会话文本的局部嵌入表示、全局嵌入表示和共识嵌入表示;再通过重复预测模块计算对应的重复预测概率;然后通过探索预测模块识别目标会话文本中的噪声项目、消除噪声项目的影响,并计算对应的探索预测概率;最后通过判断模块基于重复预测概率和探索预测概率计算对应的最终预测概率分布;
S3:基于会话推荐模型输出的最终预测概率分布进行项目推荐;
其中,重复预测模块通过如下步骤计算重复预测概率:
探索预测模块包括用于消除噪声项目影响的图增强注意力网络;
图增强注意力网络通过如下步骤消除噪声项目的影响:
探索预测模块通过如下步骤计算探索预测概率:
2.如权利要求1所述的基于结构增强的图卷积神经网络会话推荐方法,其特征在于:所述融合嵌入模块包括用于基于目标会话文本生成全局表示的动态全局邻居注意力网络,以及用于基于目标会话文本的局部表示和全局表示融合生成对应的局部嵌入表示、全局嵌入表示和共识嵌入表示的多通道图卷积神经网络。
4.如权利要求3所述的基于结构增强的图卷积神经网络会话推荐方法,其特征在于,所述多通道图卷积神经网络通过如下步骤生成局部嵌入表示、全局嵌入表示和共识嵌入表示:
S213:基于局部图AL,(l-1)和全局图AG,(l-1)融合生成对应的共识图AM,(l-1);
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111423525.2A CN113961816B (zh) | 2021-11-26 | 2021-11-26 | 一种基于结构增强的图卷积神经网络会话推荐方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111423525.2A CN113961816B (zh) | 2021-11-26 | 2021-11-26 | 一种基于结构增强的图卷积神经网络会话推荐方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113961816A CN113961816A (zh) | 2022-01-21 |
CN113961816B true CN113961816B (zh) | 2022-07-01 |
Family
ID=79472240
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111423525.2A Active CN113961816B (zh) | 2021-11-26 | 2021-11-26 | 一种基于结构增强的图卷积神经网络会话推荐方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113961816B (zh) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113326425A (zh) * | 2021-04-20 | 2021-08-31 | 中国电子科技集团公司第五十四研究所 | 一种基于结构和语义注意力堆叠的会话推荐方法及系统 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11430347B2 (en) * | 2017-09-18 | 2022-08-30 | Microsoft Technology Licensing, Llc | Providing diet assistance in a session |
US10789622B2 (en) * | 2018-05-07 | 2020-09-29 | Adobe Inc. | Generating and providing augmented reality representations of recommended products based on style compatibility in relation to real-world surroundings |
CN112035746A (zh) * | 2020-09-01 | 2020-12-04 | 湖南大学 | 一种基于时空序列图卷积网络的会话推荐方法 |
CN112258262B (zh) * | 2020-09-15 | 2023-09-26 | 浙江大学 | 一种基于卷积自注意力网络的会话推荐方法 |
US11963051B2 (en) * | 2020-09-17 | 2024-04-16 | Intel Corporation | Context aware handovers |
CN112396492A (zh) * | 2020-11-19 | 2021-02-23 | 天津大学 | 基于图注意力网络和双向长短期记忆网络的会话推荐方法 |
CN112925977A (zh) * | 2021-02-26 | 2021-06-08 | 中国科学技术大学 | 一种基于自监督图表征学习的推荐方法 |
CN112989064B (zh) * | 2021-03-16 | 2022-07-08 | 重庆理工大学 | 一种聚合知识图神经网络和自适应注意力的推荐方法 |
CN113487018A (zh) * | 2021-07-28 | 2021-10-08 | 辽宁工程技术大学 | 一种基于会话推荐的全局上下文增强图神经网络方法 |
CN113656696A (zh) * | 2021-08-24 | 2021-11-16 | 工银科技有限公司 | 一种会话推荐方法及装置 |
CN113610610B (zh) * | 2021-08-27 | 2022-07-05 | 齐鲁工业大学 | 基于图神经网络和评论相似度的会话推荐方法和系统 |
-
2021
- 2021-11-26 CN CN202111423525.2A patent/CN113961816B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113326425A (zh) * | 2021-04-20 | 2021-08-31 | 中国电子科技集团公司第五十四研究所 | 一种基于结构和语义注意力堆叠的会话推荐方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN113961816A (zh) | 2022-01-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220222920A1 (en) | Content processing method and apparatus, computer device, and storage medium | |
CN110516160B (zh) | 基于知识图谱的用户建模方法、序列推荐方法 | |
CN112364976B (zh) | 基于会话推荐系统的用户偏好预测方法 | |
WO2023108324A1 (zh) | 对比学习增强的双流模型推荐系统及算法 | |
Gao et al. | The joint method of triple attention and novel loss function for entity relation extraction in small data-driven computational social systems | |
Rizi et al. | Shortest path distance approximation using deep learning techniques | |
CN114265986B (zh) | 一种融合知识图谱结构与路径语义的信息推送方法和系统 | |
CN112699215B (zh) | 基于胶囊网络与交互注意力机制的评级预测方法及系统 | |
CN113487018A (zh) | 一种基于会话推荐的全局上下文增强图神经网络方法 | |
CN115203550A (zh) | 一种增强邻居关系的社交推荐方法及系统 | |
CN114925270A (zh) | 一种会话推荐方法和模型 | |
CN115618101A (zh) | 基于负反馈的流媒体内容推荐方法、装置及电子设备 | |
CN114741599A (zh) | 基于知识增强和注意力机制的新闻推荐方法及系统 | |
Fu et al. | A Unified Framework for Multi-Domain CTR Prediction via Large Language Models | |
Zeng et al. | Collaborative filtering via heterogeneous neural networks | |
CN113961816B (zh) | 一种基于结构增强的图卷积神经网络会话推荐方法 | |
CN114186139B (zh) | 一种基于时间增强的图神经网络会话推荐方法 | |
CN114462707B (zh) | 一种基于特征深度融合的Web服务多维QoS联合预测方法 | |
CN114757391B (zh) | 一种面向服务质量预测的网络数据空间设计与应用方法 | |
CN115408505A (zh) | 一种基于双通道超图兴趣建模的对话推荐算法 | |
CN113849725B (zh) | 一种基于图注意力对抗网络的社会化推荐方法及系统 | |
CN115795005A (zh) | 一种融合对比学习去噪优化的会话推荐方法及装置 | |
CN114880576A (zh) | 基于时间感知超图图卷积的预测方法 | |
CN115601745A (zh) | 一种面向应用端的多视图三维物体识别方法 | |
CN116263794A (zh) | 对比学习增强的双流模型推荐系统及算法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |