CN114625969A - 一种基于交互近邻会话的推荐方法 - Google Patents

一种基于交互近邻会话的推荐方法 Download PDF

Info

Publication number
CN114625969A
CN114625969A CN202210289034.1A CN202210289034A CN114625969A CN 114625969 A CN114625969 A CN 114625969A CN 202210289034 A CN202210289034 A CN 202210289034A CN 114625969 A CN114625969 A CN 114625969A
Authority
CN
China
Prior art keywords
session
neighbor
interactive
graph
conversation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210289034.1A
Other languages
English (en)
Inventor
沈学利
刘艺军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Liaoning Technical University
Original Assignee
Liaoning Technical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Liaoning Technical University filed Critical Liaoning Technical University
Priority to CN202210289034.1A priority Critical patent/CN114625969A/zh
Publication of CN114625969A publication Critical patent/CN114625969A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/901Indexing; Data structures therefor; Storage structures
    • G06F16/9024Graphs; Linked lists
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

本发明公开了一种基于交互近邻会话的推荐方法,包括:构建向当前会话图,侧重目标会话中频繁项目之间的转换;用图神经网络和软注意力机制对有向当前会话图进行建模,生成用户偏好项目的会话表示;对目标会话的交互近邻会话进行搜索,从交互近邻会话中选择项目与目标会话构造无向交互近邻图;使用图神经网络和软注意力机制对无向交互近邻图进行建模,生成含有近邻信息的会话表示;通过融合门控机制结合两类会话表示信息,生成丰富的会话嵌入,从而达到高效率推荐的目的。本发明在推荐性能与模型鲁棒性上都有着一定的优势,能够满足用户的推荐偏好,准确的预测用户点击的下一项。

Description

一种基于交互近邻会话的推荐方法
技术领域
本发明属于推荐系统的技术领域,尤其涉及一种基于交互近邻会话的推荐方法。
背景技术
在这个数据爆炸式增长的时代,推荐系统在帮助用户缓解信息过载和选择感兴趣的内容方面发挥着重要作用。目前,现有的推荐系统大多分析用户的历史点击、购买、评级和其他交互行为数据,并结合用户的身份信息来发现用户偏好。然而,在许多应用场景中,用户身份可能是未知的,并且只有当前会话中用户行为数据是可用的。为了解决这个问题,产生了基于会话的推荐方法。基于会话的推荐根据用户在当前会话中的先前行为顺序来预测用户可能点击的下一项。由于基于会话的推荐不需要太多的用户信息,其在这个用户信息受到保护的时代更具实用性,受到越来越多研究者的关注,并提出了各种相关的推荐算法。
传统的基于马尔可夫链(markov chain,MC)模型被广泛用于基于会话的推荐任务,它计算两个连续项目之间的转移概率,通过用户的上一个行为预测用户下一个单击的项目。然而数据的稀疏性和状态空间的爆炸问题阻碍了算法的有效性和效率。为此Rendle等人将矩阵分解法(matrix factorization,MF)和顺序马尔科夫链方法的优点相结合,提出FPMC(Factorized Personalized Markov Chains)模型。
循环神经网络(recurrent neural network,RNN)由于其在序列处理方面具有独特的优势,因此已被广泛应用于基于会话的推荐。Hidasi等人提出了GRU4REC模型,应用门控循环单位(GRU)来建模用户偏好。Li等人使用两个RNN模块对用户行为序列进行建模,以捕获用户主要意图。然而,这些方法仅考虑连续项目间的单向转移,而没有考虑用户行为之间的复杂转换,忽视会话之间有价值的协助信息。因此基于RNN的方法对挖掘有价值的信息仍不够充分。
基于协同过滤的会话推荐方法也取得了显著的性能。KNN-RNN结合KNN与RNN实现更好的推荐性能。之后Wang等人提出CSRM(Collaborative Session-basedRecommendation Machine)推荐模型,CSRM模型结合了两个并行存储模块,分别用于考虑当前会话信息和协作邻域信息,在递归神经网络和注意力机制的帮助下进行推荐。但是KNN-RNN模型和CSRM模型仍然像基于RNN的方法一样缺乏考虑会话上下文项目级交互问题。
由于用户偏好具有多样性和实时变化的特点,因此仅以序列的形式对用户会话进行建模并不足以充分反映用户偏好。由于图是一种数据结构,在许多现实应用中,它可以恰当地描述各种实体之间的复杂关系。近年来研究人员通过图建模会话序列,通过图神经网络对图数据进行处理学习图结构数据的表示,来解决会话型推荐问题。Xu等人提出GC-SAN(Graph Contextual Self-Attention model based on graph neural Network)模型,GC-SAN模型将会话数据转换为图形结构的数据,将GNN与注意力机制相结合,通过GNN捕获物品间的局部依赖关系,通过自注意力机制捕获物品间全局依赖关系进行推荐,有效地提高推荐的准确性。然而大多基于GNN的推荐方法仅考虑目标会话内项目的复杂转换,忽略了交互近邻会话对目标会话的辅助作用,没有充分利用潜在的协作信息,限制了模型推荐性能的上限。
现有技术一:Session-based recommendation with graph neural networks,在该方法中,会话序列被建模为图结构数据。基于会话图,通过门控图神经网络处理图数据,对项目表示进行学习。然后,使用软注意力机制将每个会话表示为该会话的全局偏好和当前兴趣的组合,进行推荐并预测用户可能点击的下一项。
该方法仅对目标会话进行建模时,缺乏对目标会话与近邻会话之间相关信息的考量,没有充分利用潜在的协助信息对目标会话进行补充,获得有价值的信息非常有限,难以进行比较准确的推荐。
现有技术二:基于多图神经网络的会话感知推荐模型,该方法根据目标会话与训练集中的所有会话构建物品转移图(ITG)和协同关联(CRG),并基于这两张图应用图神经网络(GNN)来汇聚节点的信息,得到两类的节点表示;然后,经过双层注意力模块对两类节点表示建模,获取会话级别的表示;最后,使用注意力机制进行信息融合,得到最终的会话表示,并预测下一个交互物品。
该方法将没有考虑如何在引入协同信息时对会话进行筛选,没有引入相似度或相关性较高的交互近邻会话来进一步提升推荐准确性。
发明内容
基于以上现有技术的不足,本发明所解决的技术问题在于提供一种基于交互近邻会话的推荐方法,考虑会话的上下文项目级交互问题,更深入地挖掘不同会话之间的项目转换,充分利用交互近邻会话的信息,提高了推荐性能。
为了解决上述技术问题,本发明通过以下技术方案来实现:本发明提供一种基于交互近邻会话的推荐方法,包括:
S1、构建向当前会话图,侧重目标会话中频繁项目之间的转换;
S2、用图神经网络和软注意力机制对有向当前会话图进行建模,生成用户偏好项目的会话表示;
S3、对目标会话的交互近邻会话进行搜索,从交互近邻会话中选择项目与目标会话构造无向交互近邻图;
S4、使用图神经网络和软注意力机制对无向交互近邻图进行建模,生成含有近邻信息的会话表示;
S5、通过融合门控机制结合两类会话表示信息,生成丰富的会话嵌入,从而达到高效率推荐的目的。
进一步的,所述步骤S2中,提取用户点击的子序列并计算出现的次数作为出度矩阵中对应的权重,增强项目之间信息传递,了解节点与节点之间的交互信息。
进一步的,所述步骤S3的具体步骤如下:
S31、首先构造候选邻居会话集;
S32、在得到候选邻居会话集后,获取合适的交互近邻会话,将目标会话与每一条候选邻居会话进行相似度的计算;
S33、通过图来获得目标会话中的项目与交互近邻会话之间的复杂转移关系,充分利用潜在的协助信息丰富当前会话;
S34、通过门控图神经网络提取无向交互近邻图中的节点信息以及对节点的连接关系信息进行学习;
S35、同样使用软注意力机制来建模当前会话基于交互近邻会话的表示。
由上,本发明的基于交互近邻会话的推荐方法至少具有以下优点:
本发明的模型构造有向当前会话图和无向交互近邻图,引入交互近邻会话信息对目标会话进行补充,用图神经网络研究两图的复杂结构,对项目之间的复杂转移信息进行有效提取,利用软注意力机制对两类信息进行有效的建模,通过融合门控机制结合信息生成丰富的会话表示,在两个常用的数据集上进行了对比,结果表明本发明方法优于13种典型的会话推荐方法,在推荐性能与模型鲁棒性上都有着一定的优势,能够满足用户的推荐偏好,准确的预测用户点击的下一项。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其他目的、特征和优点能够更简明易懂,以下结合优选实施例,并配合附图,详细说明如下。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例的附图作简单地介绍。
图1为本发明的基于交互近邻会话的推荐方法的总体框架图;
图2为相应的有向当前会话图和邻接矩阵图,其中(a)为有向当前会话图,(b)为归一化之前的邻接矩阵图,(c)为归一化之后的邻接矩阵图;
图3为构造候选邻居会话集图;
图4为无向交互近邻图和邻接矩阵图,其中(a)为无向交互近邻图,(b)为归一化之前的邻接矩阵图,(c)为归一化之后的邻接矩阵图。
具体实施方式
下面结合附图详细说明本发明的基于交互近邻会话的推荐方法的具体实施方式。
对于现有的一些会话推荐方法,仅对目标会话中的信息进行建模,忽略了交互近邻会话对目标会话的辅助作用,导致潜在的协作信息没有被充分利用。本发明旨在构造一个充分利用交互近邻会话信息来丰富目标会话,满足用户的推荐偏好,能够很好的预测用户点击下一项的推荐模型。
如图1至图4所示,本发明的基于交互近邻会话的推荐方法(ARMBINNS),首先构建向当前会话图(DCSG),侧重目标会话中频繁项目之间的转换。用图神经网络和软注意力机制对有向当前会话图进行建模,生成用户偏好项目的会话表示。然后对目标会话的交互近邻会话进行搜索,从交互近邻会话中选择项目与目标会话构造无向交互近邻图(UING)。同样使用图神经网络和软注意力机制对无向交互近邻图进行建模,生成含有近邻信息的会话表示。最后通过融合门控机制结合两类会话表示信息,生成丰富的会话嵌入,从而达到高效率推荐的目的。
本发明令V={v1,v2,...,vm}为所有会话中涉及到的唯一项组成的集合,其中m为项目总数。一个匿名会话序列S={v1,v2,...,vn},n表示会话的长度,vi在S中按时间戳顺序排列。对于V中的每一项,将其映射到一个统一的嵌入空间,每个物品vi对应的的嵌入向量为vi。给定一个会话St={v1,v2,...,vt},模型的目的是预测用户下一时刻可能点击的项目vt+1。本发明根据输入的最终会话生成所有可能的项目概率
Figure BDA0003559407870000061
Figure BDA0003559407870000062
概率值越大越可能被点击,然后将概率值按从大到小排序。由于会产生多个推荐项目,因此从预测结果中选出概率最高的前N个项目构成推荐列表。
本发明的基于交互近邻会话的推荐方法的总体框架模型由以下四部分组成:用户偏好项目的会话表示模块,含有近邻信息的会话表示模块,组合信息模块,预测模块,如图1所示。
首先将目标会话S构造成一个带权有向图,表示为
Figure BDA0003559407870000063
其中
Figure BDA0003559407870000064
代表目标会话S中所包含物品的集合,
Figure BDA0003559407870000065
代表项目之间的有向边集合,
Figure BDA0003559407870000066
代表两节点之间的一条有向边,即用户点击完物品vi-1后又与项目vi进行了交互。考虑用户生成的会话数据,往往有许多重复的连接,这些连接隐式地反映了用户的个性化偏好信息。增加重复出现项目之间边的权重,对于S={v1,v3,v2,v3,v2,v3,v4,v1},子序列{v3,v2}重复出现在会话S中,本发明提取用户点击的子序列并计算出现的次数作为出度(入度)矩阵中对应的权重,通过这种处理方式能够增强项目之间信息传递,更好地了解节点与节点之间的交互信息。这里也考虑节点的自相关,即节点到自身的边设置为1,考虑节点本身对当前会话的影响。最后将权重进行归一化处理,计算的方式为归一化之前出度(入度)矩阵中每一行对应的值除以该行权重值的总和。图2为相应的有向当前会话图和邻接矩阵图。
门控图神经网络(Gated Graph Sequence Neural Network,GGNN)对GNN进行改进,能够更好的处理图数据,适合于项目表示学习。本模型使用GGNN来更新初始项的嵌入,学习更新后的节点表示,公式如下:
Figure BDA0003559407870000071
Figure BDA0003559407870000072
Figure BDA0003559407870000073
Figure BDA0003559407870000074
Figure BDA0003559407870000075
式中E(t-1)表示会话中所有节点对应的向量表,
Figure BDA0003559407870000076
表示入度矩阵和出度矩阵,
Figure BDA0003559407870000077
为参数矩阵,
Figure BDA0003559407870000078
为偏置向量,
Figure BDA0003559407870000079
Figure BDA00035594078700000710
都是可学习的参数。
Figure BDA00035594078700000711
Figure BDA00035594078700000712
分别表示复位门和更新门,它们的目的是保留有价值信息的和丢弃无用信息。σ(·)是sigmoid函数,⊙表示元素相乘,
Figure BDA00035594078700000713
表示节点的候选状态。更新后得到节点表示
Figure BDA00035594078700000714
获得用户偏好项目表示,表示为DD={vD,1,vD,2,...,vD,n}。
为了减少用户意外点击所引起的兴趣漂移,本发明将用户的长期偏好和当前兴趣结合起来,生成用户偏好项目的会话表示。由于软注意机制能够很好的获取用户的长期偏好和当前兴趣。受软注意力启发,对于
Figure BDA00035594078700000715
将最后一次点击的项vD,n表示用户的当前兴趣,用Sl表示vD,n。然后根据用户当前兴趣Sl聚集所有的节点向量,获得对应的用户全局偏好表示Sg,最后结合用户全局偏好表示与当前兴趣来生成用户偏好项目的会话表示SD。相关函数如下:
Figure BDA0003559407870000081
Figure BDA0003559407870000082
SD=W3[Sg||Sl]
式中:
Figure BDA0003559407870000083
均为可学习的参数。σ(·)表示sigmoid函数。
本发明通过当前会话和它的邻居会话构建无向交互近邻图,考虑项目级的协作信息,合并协作信息来丰富当前会话的表示学习。该过程包括构造候选邻居会话集、选择合适的交互近邻会话、构建无向交互近邻图和生成含有近邻信息的会话表示。
首先构造候选邻居会话集Sh。依照相关工作的方法,对目标会话S中的每一个项目按用户点击顺序从所有的会话中找到与该项目相同的会话,从这些会话中构造候选邻居会话集Sh,候选邻居会话集只包含目标会话之前的最近会话并且包括目标会话本身,如果候选邻居会话的条数大于1000,则选择目标会话最近的1000条候选邻居会话,选择最近会话的原因在相关工作方法中被证明有效。构造候选邻居会话集的操作如图3所示:
在得到候选邻居会话集合Sh后,获取合适的交互近邻会话,将目标会话与每一条候选邻居会话进行相似度的计算,相关函数如下:
Figure BDA0003559407870000084
式中Sv为候选邻居会话集合Sh中的一条会话,sn(S,Sv)表示目标会话与每条候选邻居会话中相同项目的个数,l(S)和l(Sv)分别为目标会话和每条候选邻居会话长度,从候选邻居会话集合中筛选出相似度小于0.5的邻居会话并将这些会话排除。最后,将相似度大小进行排序,选择相似度高的前k的交互近邻会话来构建交互邻居集合Ns
构造无向交互近邻图的目的通过图来获得目标会话中的项目与交互近邻会话之间的复杂转移关系。充分利用潜在的协助信息丰富当前会话。本发明从交互邻居集合Ns中选择项目与目标会话构建成一个加权无向的交互近邻图
Figure BDA0003559407870000091
Figure BDA0003559407870000092
中,每个节点表示一个项目出现在目标会话S中或交互邻居集合Ns中,
Figure BDA0003559407870000093
表示所含项目之间的无向边集合。因为
Figure BDA0003559407870000094
是无向的,本发明只使用邻接矩阵AN来建模节点之间的转化,特别地,如果在两个节点vi和vj之间存在一条边,则将相对应的元素Aij设置为1,否则设置为0。这里将邻接矩阵的对角线设置为1,保证节点的自相关。最后将邻接矩阵进行归一化处理。无向交互近邻图仅包含目标会话中项目的一阶近邻,一阶近邻只考虑当前会话的邻居,不考虑邻居的邻居。相应的无向交互近邻图和邻接矩阵如图4所示:
通过门控图神经网络提取无向交互近邻图中的节点信息以及对节点的连接关系信息进行学习。相关函数如下:
Figure BDA0003559407870000095
Figure BDA0003559407870000096
Figure BDA0003559407870000097
Figure BDA0003559407870000098
Figure BDA0003559407870000099
式中参数都是可训练的,在t时刻获得含有合并协作信息的当前会话项目表示,表示为DU={vU,1,vU,2,...,vU,n}。
最后同样使用软注意力机制来建模当前会话基于交互近邻会话的表示,对于DU={vU,1,vU,2,...,vU,n},将最后一次点击的项vU,n表示具有协作信息的用户当前兴趣,用
Figure BDA0003559407870000101
表示vU,n。然后根据用户当前兴趣
Figure BDA0003559407870000102
采用软注意机制,对DU中的所有节点向量进行聚合,得到用户长期偏好表示
Figure BDA0003559407870000103
最后结合用户的长期偏好和当前兴趣得到含有近邻信息的会话表示SU。相关函数如下:
Figure BDA0003559407870000104
Figure BDA0003559407870000105
Figure BDA0003559407870000106
式中相关参数都是可训练的。
在获得用户偏好项目的会话表示SD和含有近邻信息的会话表示SU后,本发明使用融合门控机制来获取最终的会话表示,该机制能够有选择的组合两类表示信息。相关函数如下:
m=σ(W7SD+W8SU+b6)
Stotal=mSD+(1-m)SU
式中:W7,W8为权重矩阵,b6为偏置向量,Stotal为会话的最终表示。
得到会话的最终表示Stotal后,对每个候选项目vi的得分
Figure BDA0003559407870000107
进行计算,然后进行归一化处理,相关函数如下:
Figure BDA0003559407870000108
Figure BDA0003559407870000109
式中:
Figure BDA00035594078700001010
代表所有候选项目的推荐的得分,每个元素
Figure BDA00035594078700001011
表示该项目下一次被点击时的概率。
模型采用交叉熵函数作为损失函数。在学习过程中通过随时间反向传播(BPTT)算法训练模型。相关函数如下:
Figure BDA00035594078700001012
由于在会话推荐中,匿名用户生成的会话长度相对较短,因此,采用较少的训练过程来防止过拟合的出现。
本发明在两个具有代表性的数据集上进行实验,分别是Yoochoose和Diginetica。Diginetica数据集来自CIKM Cup 2016,包含43097件商品,共有204771条用户点击记录。仅使用交易成功的数据进行实验。Yoochoose数据集由RecSys challenge 2015发布。它包含6个月内用户对电子商务网站的一系列点击记录。
依照相关工作的处理方式,针对两个数据集,如果会话的长度仅为1和项目出现的次数小于5次,将它们过滤掉。对于Yoochoose数据集,将最后一天的数据用作测试集。由于Yoochoose数据集信息量巨大,仅用距离测试集时间最近的1/64数据来做训练。而对于Diginetica数据集,将最后七天的数据用作测试集,剩下的全部数据用作训练集。
依照相关工作,使用数据增强法对输入的序列数据进行处理。将会话S分割为对应的序列和标签,得([v1],v2),([v1,v2],v3),...,([v1,v2,...,vn-1],vn),[v1,v2,...,vn-1]是一个生成序列,vn表示用户的下一个交互项。表1总结了两数据集的相关信息。
表1两数据集的统计
Figure BDA0003559407870000111
本发明采取了13个现有工作中具有代表性的工作进行对比实验:
POP:该方法将数据集中受欢迎程度最高的物品向用户进行推荐。
POP:该方法用每个会话中最受欢迎的物品进行推荐。
Item-KNN:该方法采用K最近邻思想,用推荐列表中的物品与用户最后一次交互的物品进行余弦相似度的计算,将相似度从大到小排序,推荐前N个物品。
SKNN:一种考虑会话完整性的邻域方法。
BPR-MF:该方法是经典的矩阵分解法,通过贝叶斯算法优化用户的个性化序列。
FPMC:FPMC是一阶马尔科夫链和矩阵分解法相结合的序列预测算法。
GRU4REC:GRU4REC是首个将循环神经网络用于基于会话的推荐,引入门控循环单元提取序列信息。
NARM:该方法在循环网络的基础上引入注意力机制,分别获取序列的特征和用户的主要目的,结合两者的优点进行推荐。
STAMP:一种新的记忆模型,该模型通过注意力机制提取用户的长期兴趣,并利用嵌入最后点击的项目作为短期兴趣。
KNN-RNN:一种将GRU4REC和SKNN加权结合进行推荐的方法。
CSRM:一种基于混合神经网络的框架,该框架考虑了会话级的协作信息。
SR-GNN:该方法将会话序列构造成一张有向图,用GGNN获取项目之间的交互信息,通过软注意力机制获取用户的当前偏好和一般兴趣,生成最终的会话表示。
GC-SAN:该方法对SR-GNN进行了改进,结合GGNN和自注意力机制进行推荐。
本发明采用P@N和MRR@N两个常用的评估指标。
P@N是推荐系统的主要性能指标,被广泛用于测量预测的准确度,其值越高,模型的性能就越好。该算法的公式为:
Figure BDA0003559407870000121
式中:nhit表示前N个推荐项目中正确的个数,n为整个测试样本的数量。
MRR@N是指正确推荐项目倒数排名的平均值。用户所需项目在推荐列表中的位置越前,则其结果越大,模型的推荐效果也越好。如果目标项目的位置不在前N个推荐结果中,则倒数排名的值设定为0。计算公式如下:
Figure BDA0003559407870000131
式中:n为整个测试样本的数量,ranki表示推荐列表中项目i的排名。由于推荐给用户的物品中,用户通常对初始印象的一些物品关注度高,因此设置N=20来比较模型性能。
在本发明的实验中,在两个数据集上将物品向量的嵌入维度d设定为100。使用平均值为0,标准差为0.1的高斯分布初始化模型参数。设置初始学习率lr为0.001,每经过3个周期学习率下降0.1。两个数据集上训练的Batch设定为128,L2的正则化参数设置为10-5,并采用Adam算法优化模型参数。
表2统计了本发明模型与13种基于会话的推荐方法在P@20和MRR@20评估指标上的实验结果。
最简单的推荐算法如POP和S-POP在两个评估指标上表现不佳,因为它们只关心数据集中或当前会话中受欢迎程度最高的物品。推荐方法过于简单,没有考虑用户在当前会话中的个性化偏好。BPR-MF方法关注用户个性化偏好,其推荐的准确率高于POP方法。传统的FPMC方法将马尔科夫链与矩阵分解相结合,注重用户个性化偏好,虽然是很有效的方法,但在性能上明显劣于Item-KNN和SKNN。Item-KNN和SKNN两种方法基于KNN,推荐性能明显优于其他传统的推荐方法。此外,SKNN在计算相似度时考虑了整个当前会话,而Item-KNN只考虑了当前会话中的最后一个项目,忽略了会话的上下文信息。因此,SKNN取得了更好的推荐结果。
在两个评估指标上,基于循环神经网络的方法都明显优于其他传统的推荐方法。GRU4REC用门控循环单元对会话序列进行建模,从中发现有价值信息,获得了很好的推荐性能。KNN-RNN将KNN和RNN结合,推荐性能优于GRU4REC。NARM注重捕获用户的主要兴趣,并进一步挖掘会话的隐藏信息。STAMP方法证明用户的最近行为在基于会话的推荐中是要重点考虑的一方面,还将用户的一般兴趣和当前兴趣结合来获得更好的推荐结果。NARM和STAMP两种方法表明用户的短期行为和注意力机制在基于会话推荐中的有效性。CSRM性能优于NARM和STAMP证实了利用邻居会话信息可以提高模型的推荐性能。
总的来说,基于图神经网络的方法(SR-GNN和GC-SAN)优于基于RNN方法(GRU4REC、NARM、STAMP、KNN-RNN、CSRM)。因为可以通过聚合多个节点之间的信息来捕获图中依赖关系,获取会话上下文项目级交互,而RNN只能处理连续项之间的单向转换。
与现有的推荐方法不同,本发明所提出的方法充分考虑交互近邻会话的信息,更深入地挖掘不同会话之间的项目转换,合并协作信息来丰富当前会话的表示学习进行推荐。根据表中数据的对比,ARMBINNS模型获得最优结果,说明引入交互近邻会话信息的合理性和有效性。
表2不同模型的实验结果
Figure BDA0003559407870000141
本发明引入交互近邻会话信息来丰富目标会话信息,仅对目标会话构建有向图,考虑节点的自相关,通过图神经网络挖掘节点之间的信息,通过软注意力机制生成相对应的会话表示。采用K-近邻思想找到目标会话的交互近邻会话,对目标会话和交互近邻会话构建无向图,同样考虑节点的自相关,通过图神经网络和软注意机制获得相应的会话表示。最后通过融合门控机制生成最终对的会话表示。
最后应说明的是:以上所述是本发明的优选实施方式而已,当然不能以此来限定本发明之权利范围,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和变动,这些改进和变动也视为本发明的保护范围。

Claims (3)

1.一种基于交互近邻会话的推荐方法,其特征在于,包括:
S1、构建向当前会话图,侧重目标会话中频繁项目之间的转换;
S2、用图神经网络和软注意力机制对有向当前会话图进行建模,生成用户偏好项目的会话表示;
S3、对目标会话的交互近邻会话进行搜索,从交互近邻会话中选择项目与目标会话构造无向交互近邻图;
S4、使用图神经网络和软注意力机制对无向交互近邻图进行建模,生成含有近邻信息的会话表示;
S5、通过融合门控机制结合两类会话表示信息,生成丰富的会话嵌入,从而达到高效率推荐的目的。
2.根据权利要求1所述的基于交互近邻会话的推荐方法,其特征在于,所述步骤S2中,提取用户点击的子序列并计算出现的次数作为出度矩阵中对应的权重,增强项目之间信息传递,了解节点与节点之间的交互信息。
3.根据权利要求1所述的基于交互近邻会话的推荐方法,其特征在于,所述步骤S3的具体步骤如下:
S31、首先构造候选邻居会话集;
S32、在得到候选邻居会话集后,获取合适的交互近邻会话,将目标会话与每一条候选邻居会话进行相似度的计算;
S33、通过图来获得目标会话中的项目与交互近邻会话之间的复杂转移关系,充分利用潜在的协助信息丰富当前会话;
S34、通过门控图神经网络提取无向交互近邻图中的节点信息以及对节点的连接关系信息进行学习;
S35、同样使用软注意力机制来建模当前会话基于交互近邻会话的表示。
CN202210289034.1A 2022-03-22 2022-03-22 一种基于交互近邻会话的推荐方法 Pending CN114625969A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210289034.1A CN114625969A (zh) 2022-03-22 2022-03-22 一种基于交互近邻会话的推荐方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210289034.1A CN114625969A (zh) 2022-03-22 2022-03-22 一种基于交互近邻会话的推荐方法

Publications (1)

Publication Number Publication Date
CN114625969A true CN114625969A (zh) 2022-06-14

Family

ID=81903141

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210289034.1A Pending CN114625969A (zh) 2022-03-22 2022-03-22 一种基于交互近邻会话的推荐方法

Country Status (1)

Country Link
CN (1) CN114625969A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115659063A (zh) * 2022-11-08 2023-01-31 黑龙江大学 针对用户兴趣漂移的关联性信息增强推荐方法、计算机设备、存储介质和程序产品

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115659063A (zh) * 2022-11-08 2023-01-31 黑龙江大学 针对用户兴趣漂移的关联性信息增强推荐方法、计算机设备、存储介质和程序产品

Similar Documents

Publication Publication Date Title
Wu et al. Session-based recommendation with graph neural networks
CN111523047B (zh) 基于图神经网络的多关系协同过滤算法
CN111797321B (zh) 一种面向不同场景的个性化知识推荐方法及系统
CN111860785A (zh) 基于注意力机制循环神经网络的时间序列预测方法及系统
CN110796313B (zh) 一种基于带权图卷积和项目吸引力模型的会话推荐方法
CN111581520B (zh) 基于会话中物品重要性的物品推荐方法和系统
CN112733018B (zh) 一种基于图神经网络gnn和多任务学习的会话推荐方法
CN112364976A (zh) 基于会话推荐系统的用户偏好预测方法
WO2023108324A1 (zh) 对比学习增强的双流模型推荐系统及算法
CN111506835A (zh) 一种融合用户时间特征和个性特征的数据特征提取方法
CN115270007B (zh) 一种基于混合图神经网络的poi推荐方法及系统
CN114639483A (zh) 一种基于图神经网络的电子病历检索方法及装置
Zhang et al. STR-SA: Session-based thread recommendation for online course forum with self-attention
CN113297487A (zh) 一种基于注意力机制增强门控循环单元的序列推荐系统及方法
CN114595383A (zh) 一种基于会话序列的海洋环境数据推荐方法及系统
CN114925270A (zh) 一种会话推荐方法和模型
CN115203529A (zh) 一种基于多头自注意力机制的深度神经网络推荐模型及方法
CN114625969A (zh) 一种基于交互近邻会话的推荐方法
CN113779385A (zh) 基于复杂网络图嵌入的好友关注度度量排序方法及系统
CN113610610A (zh) 基于图神经网络和评论相似度的会话推荐方法和系统
CN114880576A (zh) 基于时间感知超图图卷积的预测方法
CN113704439B (zh) 一种基于多来源信息异构图的会话推荐方法
CN114117229A (zh) 一种基于有向和无向结构信息的图神经网络的项目推荐方法
CN115293812A (zh) 一种基于长短期兴趣的电商平台会话感知推荐预测方法
CN113569139A (zh) 一种个性化会话推荐方法和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination