CN115470406A - 一种基于双通道信息融合的图神经网络会话推荐方法 - Google Patents

一种基于双通道信息融合的图神经网络会话推荐方法 Download PDF

Info

Publication number
CN115470406A
CN115470406A CN202211064385.9A CN202211064385A CN115470406A CN 115470406 A CN115470406 A CN 115470406A CN 202211064385 A CN202211064385 A CN 202211064385A CN 115470406 A CN115470406 A CN 115470406A
Authority
CN
China
Prior art keywords
session
item
representation
graph
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211064385.9A
Other languages
English (en)
Inventor
高世伟
曾宇峰
党小超
董晓辉
陈致伟
方则宇
赵文丰
张稣艾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwest Normal University
Original Assignee
Northwest Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwest Normal University filed Critical Northwest Normal University
Priority to CN202211064385.9A priority Critical patent/CN115470406A/zh
Publication of CN115470406A publication Critical patent/CN115470406A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

本发明提出一种基于双通道信息融合的图神经网络会话推荐方法,该方法通过两个通道学习两个层次的会话嵌入,即全局信息增强的会话嵌入以及转导信息增强的会话嵌入。全局信息增强会话表示学习层利用其他会话和当前会话的信息来学习一个全局级的会话嵌入,转导信息增强会话表示学习层只利用当前会话的项目来学习一个新的会话嵌入,并将时间信息融入到会话序列中的项目表示中用于邻居嵌入学习,进一步增强会话序列中的顺序转导关系。该发明能够弱化在利用其他会话信息时引入的不相关项(噪声)对模型性能的影响,并且在邻居聚合时融合了时间信息,从而提升了会话推荐的质量和准确性。

Description

一种基于双通道信息融合的图神经网络会话推荐方法
技术领域
本发明专利涉及一种基于图神经网络的会话推荐方法,在推荐系统领域具有重要的应用前景和实用价值。
背景技术
随着互联网的飞速发展,信息过载的问题也越来越突出。为了缓解Web上的信息过载,推荐系统已经被广泛部署,并用于进行个性化的信息过滤。推荐系统的核心是预测用户是否会与某项商品进行交互,例如,点击、加购物车、购买等形式的交互。在许多现实世界的网络应用中也扮演着非常重要的角色,例如电子商务、短视频平台和音乐平台等。推荐系统取得巨大成功的原因在于它可以通过为每个用户提供个性化的推荐来缓解信息超载的问题。传统的推荐系统基于用户的个人资料和他们所有的历史活动来提供建议。然而,在某些情况下,这些信息是不能被访问的,在这种情况下,只有匿名用户在短时间内的行为可用。为了提高匿名用户的推荐质量,提出了基于会话的推荐,旨在基于匿名会话更好地预测下一个点击动作。基于会话的推荐作为一种基础的推荐任务,在学术界和产业界都得到了广泛的研究,它根据给定的匿名行为序列,按时间顺序预测下一个感兴趣的项目。基于会话的推荐的一个常见范例是学习会话中各个项目的向量表示(即项目嵌入),然后根据序列中的项目表示生成会话表示,最后基于会话表示和所有商品嵌入之间的相似性执行top-k推荐。与大多数其他需要明确用户人口统计信息的推荐任务不同,会话推荐系统只依赖于正在进行的会话中的匿名用户操作日志(例如,点击)来预测用户的下一个操作。
发明内容
现有的基于图神经网络的会话推荐的方法虽然取得了很好的效果,但是仍存在着一些问题。首先,利用其他会话的项目转导信息虽然能够丰富当前会话序列中的项目表示,以便更好地推断当前会话的用户偏好,但不可避免的会引入不相关项(噪声),从而对模型性能产生影响。其次,通过翻转会话序列的方式来利用反向位置编码进行项目表示的聚合,虽然能够更直观地衡量会话序列中每个项目的贡献,但一定程度上破坏了会话序列中项目的顺序转导关系。此外,现有的方法通常侧重于从空间结构信息的角度进行信息聚合,但对会话序列中相邻节点的时间信息的研究却不够深入。因此,针对上述这些问题,本发明提出一种基于双通道信息融合的图神经网络会话推荐方法。
本发明主要包括四个部分:(1)数据预处理。(2)会话图和全局图的构造。(3)基于转导信息增强门控图神经网络的会话推荐模型。(4)项目推荐。
(1)数据预处理和数据增强。长度为1的会话和出现次数少于5次的条目在所有三个数据集中都被过滤。此外,还对数据进行增强。对于一个会话序列S={vs,1,vs,2,...,vs,n},将其分割处理成序列和相应的标签,即([vs,1],vs,2),([vs,1,vs,2],vs,3),...,([vs,1,vs,2,...,vs,n-1],vs,n)。
(2)会话图和全局图的构造。由于采用的是图神经网络,因此需要将会话序列转换成图的形式。将图的构造分成两个部分:
1)会话图构造。对于一个会话序列
Figure BDA0003827149210000021
可以将其建模成一个有向图Gs=(Vs,Es),其中Vs表示会话S中的节点,Es代表会话S中边的集合,每条边
Figure BDA0003827149210000022
表示为会话中两个相邻时间点点击的项目。把每个会话序列建模成两个有向图:一个顺序图和一个逆序图。对于顺序图,将边划分成输入边和输出边,并且分配一个归一化的权重,它的计算方法是该边的出现次数除以该边的起始节点的出度。对于逆序图,首先将序列翻转即变成[v3,v2,v3,v4,v2,v1],然后为每个项目添加一条自连接边,并将边分成四种类型,分别为ein,eout,ein-out,eself。ein表示输入边,eout表示输出边,,即一条从vi到vj的单向边,ein-out表示双向边,即两个项目之间的转导是双向的。eself表示自连接。
2)全局图构造。构建全局图来利用所有会话中的项转换提取全局信息,提高模型的泛化性。Gg=(Vgg)表示全局图,Vg表示构成全局图的节点即为V中的所有项目,εg代表所有会话序列中相邻项构成的边,用邻居项在所有会话的出现频率作为相应边的权值。出于效率考虑,对于每个项目只保留边权重最高的N条边。
(3)基于转导信息增强门控图神经网络的会话推荐模型。该模型主要由图注意力网络和图门控网络构成,分别利用这两个网络来学习不同层次的会话表示,以便更好的进行推荐。该阶段为本发明的重点,分为三个部分:
1)全局信息增强会话表示学习(Global information enhances sessionpresentation learning)。在这一部分,利用会话图和全局图分别学习项目内的局部项目表示以及项目间的全局项目表示,然后通过反向位置编码和软注意机制把两个层次学习到的项目表征进行聚合形成全局级会话表示。
2)转导信息增强会话表示学习(Transduction information enhances sessionpresentation learning)。在这一部分,采用位置编码将时间信息嵌入到会话序列中的项目表示中,增强会话序列的顺序转导关系。然后使用门控图卷积网络来学习会话序列的项目转导关系并生局部级会话表示。
3)预测(Prediction)。通过前两个部分(通道)的学习,得到了一个全局级会话表示和一个局部级会话表示。通过将全局级会话表示和局部级会话表示输入到预测层,可以得到两个概率向量,之后使用一个可调节的超参数k将两个概率向量相加来得到最终的预测概率。
(4)项目推荐。根据会话推荐模型得到的最终预测概率来进行项目推荐。基于转导信息增强门控图神经网络的会话推荐模型的总览图如图1所示。首先我们通过全局信息增强会话表示学习层和转导信息增强会话表示学习层两个通道来学习不同层次的会话嵌入,全局信息增强会话表示学习层利用翻转后的当前会话序列和其他会话信息来学习会话级的项目表示和全局级的项目表示,并利用反向位置编码和软注意机制将项目表示聚合成一个全局级的会话嵌入。转导信息增强会话表示学习层只利用当前会话序列的项目来学习一个会话嵌入,以补充全局信息增强会话表示学习层忽略的对会话序列的顺序转导关系的学习,并将时间信息融入到会话序列中的项目表示中用于邻居嵌入学习。接下来我们使用这两个会话表示分别进行预测,得到其对应的概率,最后我们将两个得分进行求和,得到最终的预测结果。
本发明一种基于双通道信息融合的图神经网络会话推荐方法的详细实施步骤如下:
步骤1:数据预处理和数据增强。长度为1的会话和出现次数少于5次的条目在所有三个数据集中都被过滤。此外,还对数据进行增强。对于一个会话序列S={vs,1,vs,2,...,vs,n},将其分割处理成序列和相应的标签,即([vs,1],vs,2),([vs,1,vs,2],vs,3),...,([vs,1,vs,2,...,vs,n-1],vs,n)。
步骤2:会话图和全局图的构造,将其他类型的数据转换成图是图神经网络必不可少的一步。在这里将会话序列转换成会话图和全局图。其具体构建过程在步骤2.1、2.2进行说明:
步骤2.1:构建会话图,包括顺序图和逆序图的构造。对于一个会话序列
Figure BDA0003827149210000041
Figure BDA0003827149210000042
可以将其建模成一个有向图Gs=(Vs,Es),其中Vs表示会话S中的节点,Es代表会话S中边的集合,每条边
Figure BDA0003827149210000043
表示为会话中两个相邻时间点点击的项目。以会话[v1,v2,v4,v3,v2,v3]为例,介绍如何将每个会话序列建模成两个有向图:一个逆序图和一个顺序图。对于逆序图,首先将序列翻转即变成[v3,v2,v3,v4,v2,v1],然后为每个项目添加一条自连接边,并将边分成四种类型,分别为ein,eout,ein-out,eself。ein表示输入边,eout表示输出边,,即一条从vi到vj的单向边,ein-out表示双向边,即两个项目之间的转导是双向的。eself表示自连接。逆序图的构造示例如图2所示。对于顺序图,将边划分成输入边和输出边,并且分配一个归一化的权重,它的计算方法是该边的出现次数除以该边的起始节点的出度。顺序图的构造示例如图3所示。
步骤2.2:全局图构造。由于会话图只能提取当前会话内的项目转导信息,为了能够更好的提取项目的转导关系,通过构建全局图来利用所有会话中的项转换提取全局信息,提高模型的泛化性。Gg=(Vgg)表示全局图,Vg表示构成全局图的节点即为V中的所有项目,εg代表所有会话序列中相邻项构成的边,用邻居项在所有会话的出现频率作为相应边的权值。出于效率考虑,对于每个项目只保留边权重最高的N条边。全局图的构造示例如图4所示。
步骤3:构建转导信息增强门控图神经网络的会话推荐模型。详细的网络模型构建分为三个步骤,其具体构建过程在步骤3.1、3.2和步骤3.3进行说明:
步骤3.1:构建全局信息增强会话表示学习层,包括构建局部项目表示学习模块、全局项目表示学习模块和会话表示生成模块。这三个模块的具体实现细节在步骤3.1.1、3.1.2和3.1.3进行详细说明:
步骤3.1.1:构建局部项目表示学习模块。利用图注意力网络来学习局部项目表示,利用注意力机制聚合邻居,以学习不同邻居节点的重要性。通过元素积和非线性转换来计算
Figure BDA0003827149210000051
Figure BDA0003827149210000052
之间的注意力分数αij,对于不同的关系,训练不同的权重向量,即ain,aout,ain-out,aself。为了使不同节点之间的系数具有可比性,通过softmax函数将注意力权重进行标准化:
Figure BDA0003827149210000053
在该公式中,
Figure BDA0003827149210000054
Figure BDA0003827149210000055
Figure BDA0003827149210000056
之间的关系r的权重向量,这里使用LeakyRelu作为激活函数,
Figure BDA0003827149210000057
是vi的一阶邻居。接下来,根据之前计算得到的注意力分数对特征进行线性组合来获得每个节点的输出特征:
Figure BDA0003827149210000058
步骤3.1.2:构建全局项目表示学习模块。利用图注意力网络的思想,根据每个连接的重要性来生成注意力权重。采用注意力机制区分当前项的不同邻居的重要性。在这里,全局项目表示学习模块由两个组件组成:信息传播和信息聚合。
信息传播:一个项目可能涉及到多个项目,从其他会话序列中获得更丰富的项目转换信息来帮助预测当前会话的兴趣。由于不同的邻居项有不同的重要性,所以考虑利用会话感知的注意力分数来区分当前项的邻居(Nε(v))的重要性。因此,当前项的邻居Nε(v)根据会话感知的注意力分数线性组合。
Figure BDA0003827149210000061
其中π(vi,vj)估计不同邻居的重要性权重,采用Softmax函数对其进行归一化。直观地说,一个项目越接近当前会话的偏好,这个项目就越接近用户的兴趣。因此,实现π(vi,vj)如下:
Figure BDA0003827149210000062
Figure BDA0003827149210000063
这里选择LeakyRelu作为激活函数,⊙表示元素乘积,||表示级联操作,wij∈R1是全局图中边(vi,vj)的权值,W1∈Rd+1和q1∈Rd+1是可训练参数,s是当前会话的项目表示的平均值,
Figure BDA0003827149210000064
借助当前会话的项目表示的均值来计算相关项的重要性权重,这意味着跟当前会话更相似的邻居将拥有更重要的地位。
信息聚合:最终需要聚合项目表示hv和它的邻居
Figure BDA0003827149210000065
实现聚合函数如下:
Figure BDA0003827149210000066
在这里,将relu作为激活函数,W2∈Rd×2d是可训练参数,||表示拼接操作。
通过单一的聚合器层,项的表示依赖于它自己和它的近邻。可以从一层扩展到多层以获取高阶连接信息。这使得来自其他会话的更多有用信息合并到当前表示中。通过单一层的信息传播和信息聚合,将项目本身及其邻居的表示聚合起来形成新的项目表示。在第k步,将一个项目的嵌入表示为:
Figure BDA0003827149210000071
Figure BDA0003827149210000072
代表项目v在第k-1步的项目表示,
Figure BDA0003827149210000073
被设置为hv的初始嵌入。因此,项目的k阶表示是它的初始表示以及它的k阶邻居的聚合,这样使更多更有效的信息被聚合到当前会话中。
步骤3.1.3:构建会话表示生成模块。对于会话序列中的每一项,通过合并全局上下文和会话上下文来获得它的表示,把全局级项目表示和会话级项目表示相加来得到最终的项目表示。
Figure BDA0003827149210000074
Figure BDA0003827149210000075
Figure BDA0003827149210000076
分别在全局级表示和会话级表示上使用dropout来防止过拟合。
现在提出如根据上述学到的项目表示何获得会话表示。根据上述学到的项目表示来学习会话表示用于推荐。将会话序列输入到图神经网络后,可以得到会话中涉及的项目的表示,即
Figure BDA0003827149210000077
l是会话序列的长度。这里引用反向位置编码来保留会话的位置信息。直观的说,越靠近最后一项的项目,越能代表用户的当前兴趣。位置嵌入对应一个可学习的位置嵌入矩阵
Figure BDA0003827149210000078
它们被添加到项目表示以获得最终的项目表示,l表示当前会话序列的长度。具体的说,把位置嵌入与会话序列中的项目嵌入拼接起来,再经过特征变换和非线性激活函数tanh得到最终结果:
Figure BDA0003827149210000079
在这里W3∈Rd×2d和b∈Rd是可训练参数,||表示拼接操作。
以前的大多数方法都集中在会话最后一项的重要性上,这间接影响了其他项对当前项的贡献。通过会话序列中项目的平均值来得到会话信息,
Figure BDA00038271492100000710
然后采用一种软注意力机制来计算权重,
Figure BDA00038271492100000711
W4,W5∈Rd×d是可训练参数。
最后,会话表示由项目表示的线性连接形成,
Figure BDA0003827149210000081
会话表示S由当前会话中涉及到的所有项构成,其中每个项的贡献由当前会话中的信息和会话序列中的先后顺序共同决定。
步骤3.2:构建转导信息增强会话表示学习层,包括构建项目表示学习模块和生成会话表示模块。这两个模块的构建细节在步骤3.2.1和3.2.2进行详细说明:
步骤3.2.1:构建项目表示学习模块。门控图卷积网络(GGNN)已经被广泛应用于基于会话的推荐中,并取得了显著效果。因此,使用GGNN来学习会话序列的项目转导关系,对于图上的节点vi,其更新函数如下所示:
Figure BDA0003827149210000082
Figure BDA0003827149210000083
Figure BDA0003827149210000084
Figure BDA0003827149210000085
Figure BDA0003827149210000086
H∈Rd×2d是权重系数,zs,i和rs,i分别是更新门和重置门,
Figure BDA0003827149210000087
是会话S中加入位置编码后的节点嵌入列表,⊙表示元素乘积,σ表示sigmoid激活函数。As∈Rn×2n是图的邻接矩阵,As,i:∈R1×2n是节点vs,i在邻接矩阵As中对应的两列。
对于每个会话图,门控图神经网络同时处理节点。在矩阵As的约束下,进行不同节点间的信息传播。具体来说,它提取邻域的潜在向量,并将它们作为输入,输入到图神经网络。然后由更新门和重置门两个门分别决定哪些信息需要保留,哪些信息需要丢弃。更新门用于控制前一时刻的状态信息被带入到当前状态的程度。重置门决定如何将新的信息与之前的记忆相结合,从而捕捉时间序列中的短期依赖关系。在此之后,根据前一个状态、当前状态和复位门构造候选状态。最后利用更新门来将前一时刻的状态和候选状态结合起来得到最终状态。更新会话图中的所有节点直到收敛,就可以得到最终的节点向量。
步骤3.2.2:构建生成会话表示模块。不同于之前的利用会话序列最后一项作为用户的当前兴趣并使用软注意力机制生成会话嵌入方法,直接采用均值聚合的方式来形成会话嵌入。
Figure BDA0003827149210000091
步骤3.3:构建预测层。在步骤3.1和步骤3.2的计算得到的会话表示的基础上,根据每个候选条目的初始嵌入和当前会话表示,首先使用点积,然后应用softmax函数得到输出
Figure BDA0003827149210000092
Figure BDA0003827149210000093
Figure BDA0003827149210000094
式中
Figure BDA0003827149210000095
表示项目vi在当前会话中作为下一次点击的概率,
Figure BDA0003827149210000096
是所有项目在下一次被点击的概率。通过将会话嵌入Sg和St输入到预测层,可以得到两个概率向量
Figure BDA0003827149210000097
Figure BDA0003827149210000098
之后使用一个超参数k将两个概率向量相加:
Figure BDA0003827149210000099
损失函数被定义为预测结果
Figure BDA00038271492100000910
的交叉熵:
Figure BDA00038271492100000911
式中y表示项目真实值的one-hot编码向量。
步骤4:项目推荐。根据会话推荐模型得到的最终预测概率来进行top-k项目推荐。
附图说明
图1是本发明中模型的总览图
图2是本发明中逆序图的构造示例图
图3是本发明中顺序图的构造示例图
图4是本发明中全局图的构造示例图
具体实施方式
下面通过具体实施方式对本发明进一步说明。
为了更好的说明本发明会话推荐方法的优势,本实施例进行了如下实验。
一、数据集和预处理
使用三个基准数据Diginetica,Tmall,Nowplaying来验证该方法的性能。其中Diginetica数据集来自于2016年的CIKM Cup,由典型的交易数据组成。Tmall数据集来自2015年的IJCAI大赛,其中包含匿名用户在天猫在线购物平台上的购物日志。Nowplaying数据集Twitter构建,它描述了用户的音乐收听行为。首先对数据集进行处理。具体来说,长度为1的会话和出现次数少于5次的条目在所有三个数据集中都被过滤了。此外,对于一个会话序列S={vs,1,vs,2,...,vs,n},将其分割处理成序列和相应的标签,即([vs,1],vs,2),([vs,1,vs,2],vs,3),...,([vs,1,vs,2,...,vs,n-1],vs,n)。
二、评价指标
使用2个在会话推荐中被广泛使用的评测指标P@20和MRR@20来评估所有模型的性能。P@K和MRR@K的值越高,代表模型性能越好。
·P@20(Presicion)被广泛用作预测准确性的衡量标准。它代表了前20个项目中正确推荐的项目的比例。
·MRR@20(Mean Reciprocal Rank)是正确推荐项目的平均倒数排名。当排名超过20时,倒数排名设置为0。MRR度量考虑推荐排序的顺序,其中较大的MRR值表示正确的推荐位于排序列表的前面。
三、基线模型
将该方法与经典方法以及最先进的模型进行比较。对以下九个基线模型进行了评估。
·FPMC:它结合了矩阵分解和一阶马尔可夫链来捕捉序列效应和用户偏好。按照前面的工作,在计算推荐评分时也忽略了用户潜在表示。
·GRU4REC:这是一种基于循环神经网络的深度学习模型,它利用会话并行的小批量训练、基于小批量的输出采样和设计良好的TOP1损失函数来帮助循环神经网络模型适应基于会话的推荐问题。
·NARM:这是一种引入注意力机制来捕捉用户主要目的的方法。主要目的是与连续的行为特征相结合,并用作生成下一个项目的最终表示。
·STAMP:是一种利用通过注意机制增强的简单多层感知机的方法,可以同时捕捉用户的一般兴趣和当前会话的当前兴趣。
·SR-GNN:是第一个使用图神经网络用于会话推荐的方法,它首先引入了图神经网络(GNN)来捕获复杂的项目转换。为了生成当前会话的下一个条目,它使用了与STAMP相同的思想,即利用注意力机制来捕捉用户的一般兴趣和当前兴趣。
·GC-SAN:首先结合图神经网络和多层自注意力网络,通过建模局部邻近项转换和上下文化非局部表示来提高推荐性能。
·FGNN:提出了一个加权注意图层和一个图级特征提取器来学习项目嵌入和会话的嵌入。
·GCE-GNN:利用图注意力网络从局部和全局上下文捕获项目转移关系,并利用反向位置编码来生成会话表示。
·GC-HGNN:使用超图卷积神经网络和图注意力网络获取全局上下文信息和局部信息,并利用注意机制处理融合特征学习会话序列的最终表示。
四、参数设置
为了进行公平的比较,根据各自论文中提供的数据预处理方法和参数设置以获得最佳性能。使用均值为0、标准差为0.1的高斯分布对所有的参数进行初始化,并且使用L2正则化作为处罚项,其值为10-5,选择初始学习速率为0.001的Adam,每3个epoch后将衰减0.1来优化参数。此外,对于全局图的设置,将邻居数和相邻项的最大距离分别设置为12和1。一些对模型有较大影响的超参数,需要在每个数据集中分别进行调整。
五、整体实验
为了验证该方法的有效性,在表1中比较了新模型与其他模型的性能。
表1新模型与其他模型性能比较
Figure BDA0003827149210000111
Figure BDA0003827149210000121
从表一可以看到传统的基于马尔可夫链的方法FPMC在会话推荐中表现较差,这表明基于马尔可夫链的方法中关于连续项独立性的假设在会话推荐中是不够的。与基于深度学习和图神经网络的方法相比,传统方法的竞争力明显不足。
对于基于深度学习的GRU4REC方法通过简单堆叠多个门控循环单元来进行预测,因此其与其他基于深度学习的方法相比表现最差。NARM探索了一种带有注意机制的混合编码器,来模拟用户的顺序行为,捕捉用户在当前会话中的主要目的,随后将其组合为统一的会话表示从而得到较好的性能。STAMP利用注意力机制明确地考虑用户的一般和当前兴趣,与NARM相比各有利弊。与传统方法相比,这几个模型的推荐性能相较于传统方法具有明显提升,这表明基于深度学习的方法具有更强大的表示能力。
随着图神经网络的发展,会话推荐也开始使用图神经网络来建模会话序列的转导关系。SR-GNN第一次尝试将门控图神经网络用于会话推荐,并取得了优于基于深度学习方法的性能。GC-SAN动态地构造会话序列的图结构并捕获丰富的本地依赖关系,每个会话通过自注意机制来学习长期依赖。最后,每个会话都表示为全局首选项和该会话当前兴趣的线性组合。FGNN提出了一个加权注意图层和一个图级特征提取器来学习项目嵌入和会话的嵌入。GCE-GNN首次通过构建全局图利用会话间的信息来生成项目表示,并使用位置编码来生成会话表示。GC-HGNN提出了一种全局上下文支持的超图增强图神经网络,该网络可以有效地学习全局和局部上下文信息,并通过融合两层信息获得更好的会话特征。与之前的方法相比,这两个模型都在三个公共数据集上取得了比之前的模型更好的结果,表明从会话图和全局图中考虑两个层次的项目嵌入有利于预测。
新方法在三个公共数据集上都取得了最优结果,这证明了该方法的优越性。不同于SR-GNN和GCE-GNN,该方法不仅仅将全局信息融入到会话序列的项目表示中,还将时间信息加入到会话序列的项目表示中来增强会话序列中的顺序转导关系。并且生成两个层次的会话嵌入以弱化融入全局信息带来的噪声对模型性能的影响。因此,该方法取得了更好的性能。

Claims (1)

1.一种基于双通道信息融合的图神经网络会话推荐方法,用在会话序列的下一项推荐中,其特征在于:
步骤1:数据预处理和数据增强。具体来说,长度为1的会话和出现次数少于5次的条目在所有三个数据集中都被过滤了。此外,还对数据进行增强。对于一个会话序列S={vs,1,vs,2,...,vs,n},将其分割处理成序列和相应的标签,即([vs,1],vs,2),([vs,1,vs,2],vs,3),...,([vs,1,vs,2,...,vs,n-1],vs,n)。
步骤2:会话图和全局图的构造,将其他类型的数据转换成图是图神经网络必不可少的一步。在这里将会话序列转换成会话图和全局图。其具体构建过程包含步骤2.1和2.
步骤2.1:构建会话图,包括顺序图和逆序图的构造。对于一个会话序列
Figure FDA0003827149200000011
Figure FDA0003827149200000012
可以将其建模成一个有向图Gs=(Vs,Es),其中Vs表示会话S中的节点,Es代表会话S中边的集合,每条边
Figure FDA0003827149200000013
表示为会话中两个相邻时间点点击的项目。以会话[v1,v2,v4,v3,v2,v3]为例,介绍如何将每个会话序列建模成两个有向图:一个逆序图和一个顺序图。对于逆序图,首先将序列翻转即变成[v3,v2,v3,v4,v2,v1],然后为每个项目添加一条自连接边,并将边分成四种类型,分别为ein,eout,ein-out,eself。ein表示输入边,eout表示输出边,,即一条从vi到vj的单向边,ein-out表示双向边,即两个项目之间的转导是双向的。eself表示自连接。对于顺序图,将边划分成输入边和输出边,并且分配一个归一化的权重,它的计算方法是该边的出现次数除以该边的起始节点的出度。
步骤2.2:全局图构造。由于会话图只能提取当前会话内的项目转导信息,为了能够更好的提取项目的转导关系,构建全局图来利用所有会话中的项转换提取全局信息,提高模型的泛化性。Gg=(Vg,εg)表示全局图,Vg表示构成全局图的节点即为V中的所有项目,εg代表所有会话序列中相邻项构成的边,用邻居项在所有会话的出现频率作为相应边的权值。出于效率考虑,对于每个项目只保留边权重最高的N条边。
步骤3:构建转导信息增强门控图神经网络的会话推荐模型模型。详细的网络模型构建分为三个步骤,其具体构建过程在步骤3.1、3.2和步骤3.3进行说明:
步骤3.1:构建全局信息增强会话表示学习层,包括构建局部项目表示学习模块、全局项目表示学习模块和会话表示生成模块。这三个模块的具体实现细节在步骤3.1.1、3.1.2和3.1.3进行详细说明:
步骤3.1.1:构建局部项目表示学习模块。利用图注意力网络来学习局部项目表示,利用注意力机制聚合邻居,以学习不同邻居节点的重要性。通过元素积和非线性转换来计算
Figure FDA0003827149200000021
Figure FDA0003827149200000022
之间的注意力分数αij,对于不同的关系,训练不同的权重向量,即ain,aout,ain-out,aself。为了使不同节点之间的系数具有可比性,通过softmax函数将注意力权重进行标准化:
Figure FDA0003827149200000023
在该公式中,
Figure FDA0003827149200000024
Figure FDA0003827149200000025
Figure FDA0003827149200000026
之间的关系r的权重向量,在这里使用LeakyRelu作为激活函数,
Figure FDA0003827149200000027
是vi的一阶邻居。接下来,根据之前计算得到的注意力分数对特征进行线性组合来获得每个节点的输出特征:
Figure FDA0003827149200000028
步骤3.1.2:构建全局项目表示学习模块。利用图注意力网络的思想,根据每个连接的重要性来生成注意力权重。采用注意力机制区分当前项的不同邻居的重要性。在这里,全局项目表示学习模块由两个组件组成:信息传播和信息聚合。
信息传播:一个项目可能涉及到多个项目,从其他会话序列中获得更丰富的项目转换信息来帮助预测当前会话的兴趣。由于不同的邻居项有不同的重要性,所以考虑利用会话感知的注意力分数来区分当前项的邻居(Nε(v))的重要性。因此,当前项的邻居Nε(v)根据会话感知的注意力分数线性组合。
Figure FDA0003827149200000029
其中π(vi,vj)估计不同邻居的重要性权重,采用softmax函数对其进行归一化。直观地说,一个项目越接近当前会话的偏好,这个项目就越接近用户的兴趣。因此,实现π(vi,vj)如下:
Figure FDA0003827149200000031
这里选择LeakyRelu作为激活函数,⊙表示元素乘积,||表示级联操作,wij∈R1是全局图中边(vi,vj)的权值,W1∈Rd+1和q1∈Rd+1是可训练参数,s是当前会话的项目表示的平均值,
Figure FDA0003827149200000032
借助当前会话的项目表示的均值来计算相关项的重要性权重,这意味着跟当前会话更相似的邻居将拥有更重要的地位。
信息聚合:最终需要聚合项目表示hv和它的邻居
Figure FDA0003827149200000033
实现聚合函数如下:
Figure FDA0003827149200000034
在这里,将Relu作为激活函数,W2∈Rd×2d是可训练参数,||表示拼接操作。
通过单一的聚合器层,项的表示依赖于它自己和它的近邻。可以从一层扩展到多层以获取高阶连接信息。这使得来自其他会话的更多有用信息合并到当前表示中。通过单一层的信息传播和信息聚合,将项目本身及其邻居的表示聚合起来形成新的项目表示。在第k步,将一个项目的嵌入表示为:
Figure FDA0003827149200000035
Figure FDA0003827149200000036
代表项目v在第k-1步的项目表示,
Figure FDA0003827149200000037
被设置为hv的初始嵌入。因此,项目的k阶表示是它的初始表示以及它的k阶邻居的聚合,这样使更多更有效的信息被聚合到当前会话中。
步骤3.1.3:构建会话表示生成模块。对于会话序列中的每一项,通过合并全局上下文和会话上下文来获得它的表示,把全局级项目表示和会话级项目表示相加来得到最终的项目表示。
Figure FDA0003827149200000041
Figure FDA0003827149200000042
Figure FDA0003827149200000043
分别在全局级表示和会话级表示上使用dropout来防止过拟合。
现在提出如根据上述学到的项目表示何获得会话表示。根据上述学到的项目表示来学习会话表示用于推荐。将会话序列输入到图神经网络后,可以得到会话中涉及的项目的表示,即
Figure FDA0003827149200000044
1是会话序列的长度。引用反向位置编码来保留会话的位置信息。直观的说,越靠近最后一项的项目,越能代表用户的当前兴趣。位置嵌入对应一个可学习的位置嵌入矩阵
Figure FDA0003827149200000045
它们被添加到项目表示以获得最终的项目表示,l表示当前会话序列的长度。具体的说,把位置嵌入与会话序列中的项目嵌入拼接起来,再经过特征变换和非线性激活函数tanh得到最终结果:
Figure FDA0003827149200000046
在这里W3∈Rd×2d和b∈Rd是可训练参数,||表示拼接操作。
以前的大多数方法都集中在会话最后一项的重要性上,这间接影响了其他项对当前项的贡献。通过会话序列中项目的平均值来得到会话信息,
Figure FDA0003827149200000047
然后采用一种软注意力机制来计算权重,
Figure FDA0003827149200000048
W4,W5∈Rd×d是可训练参数。
最后,会话表示由项目表示的线性连接形成,
Figure FDA0003827149200000049
会话表示S由当前会话中涉及到的所有项构成,其中每个项的贡献由当前会话中的信息和会话序列中的先后顺序共同决定。
步骤3.2:构建转导信息增强会话表示学习层,包括构建项目表示学习模块和生成会话表示模块。这两个模块的构建细节在步骤3.2.1和3.2.2进行详细说明:
步骤3.2.1:构建项目表示学习模块。门控图卷积网络(GGNN)已经被广泛应用于基于会话的推荐中,并取得了显著效果。因此,使用GGNN来学习会话序列的项目转导关系,对于图上的节点vi,其更新函数如下所示:
Figure FDA0003827149200000051
Figure FDA0003827149200000052
Figure FDA0003827149200000053
Figure FDA0003827149200000054
Figure FDA0003827149200000055
H∈Rd×2d是权重系数,zs,i和rs,i分别是更新门和重置门,
Figure FDA0003827149200000056
是会话S中加入位置编码后的节点嵌入列表,⊙表示元素乘积,σ表示sigmoid激活函数。As∈Rn×2n是图的邻接矩阵,As,i:∈R1×2n是节点vs,i在邻接矩阵As中对应的两列。
对于每个会话图,门控图神经网络同时处理节点。在矩阵As的约束下,进行不同节点间的信息传播。具体来说,它提取邻域的潜在向量,并将它们作为输入,输入到图神经网络。然后由更新门和重置门两个门分别决定哪些信息需要保留,哪些信息需要丢弃。更新门用于控制前一时刻的状态信息被带入到当前状态的程度。重置门决定如何将新的信息与之前的记忆相结合,从而捕捉时间序列中的短期依赖关系。在此之后,根据前一个状态、当前状态和复位门构造候选状态。最后利用更新门来将前一时刻的状态和候选状态结合起来得到最终状态。更新会话图中的所有节点直到收敛,就可以得到最终的节点向量。
步骤3.2.2:构建生成会话表示模块。不同于之前的利用会话序列最后一项作为用户的当前兴趣并使用软注意力机制生成会话嵌入方法,直接采用均值聚合的方式来形成会话嵌入。
Figure FDA0003827149200000061
步骤3.3:构建预测层。在步骤3.1和步骤3.2的计算得到的会话表示的基础上,根据每个候选条目的初始嵌入和当前会话表示,首先使用点积,然后应用softmax函数得到输出
Figure FDA0003827149200000062
Figure FDA0003827149200000063
Figure FDA0003827149200000064
式中
Figure FDA0003827149200000065
表示项目vi在当前会话中作为下一次点击的概率,
Figure FDA0003827149200000066
是所有项目在下一次被点击的概率。通过将会话嵌入Sg和St输入到预测层,可以得到两个概率向量
Figure FDA0003827149200000067
Figure FDA0003827149200000068
之后使用一个超参数k将两个概率向量相加:
Figure FDA0003827149200000069
损失函数被定义为预测结果
Figure FDA00038271492000000610
的交叉熵:
Figure FDA00038271492000000611
式中y表示项目真实值的one-hot编码向量。
步骤4:项目推荐。根据会话推荐模型得到的最终预测概率来进行top-k项目推荐。
CN202211064385.9A 2022-09-01 2022-09-01 一种基于双通道信息融合的图神经网络会话推荐方法 Pending CN115470406A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211064385.9A CN115470406A (zh) 2022-09-01 2022-09-01 一种基于双通道信息融合的图神经网络会话推荐方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211064385.9A CN115470406A (zh) 2022-09-01 2022-09-01 一种基于双通道信息融合的图神经网络会话推荐方法

Publications (1)

Publication Number Publication Date
CN115470406A true CN115470406A (zh) 2022-12-13

Family

ID=84369756

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211064385.9A Pending CN115470406A (zh) 2022-09-01 2022-09-01 一种基于双通道信息融合的图神经网络会话推荐方法

Country Status (1)

Country Link
CN (1) CN115470406A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116311003A (zh) * 2023-05-23 2023-06-23 澳克多普有限公司 一种基于双通道加载机制的视频检测方法及系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116311003A (zh) * 2023-05-23 2023-06-23 澳克多普有限公司 一种基于双通道加载机制的视频检测方法及系统

Similar Documents

Publication Publication Date Title
Wu et al. Session-based recommendation with graph neural networks
CN110119467B (zh) 一种基于会话的项目推荐方法、装置、设备及存储介质
CN112989064B (zh) 一种聚合知识图神经网络和自适应注意力的推荐方法
CN112035746A (zh) 一种基于时空序列图卷积网络的会话推荐方法
Zhu et al. Personalized image aesthetics assessment via meta-learning with bilevel gradient optimization
CN108876044B (zh) 一种基于知识增强神经网络的线上内容流行度预测方法
CN111523047A (zh) 基于图神经网络的多关系协同过滤算法
CN113918832B (zh) 基于社交关系的图卷积协同过滤推荐系统
Deng et al. G^ 3SR: global graph guided Session-based recommendation
CN111581520A (zh) 基于会话中物品重要性的物品推荐方法和系统
Chen et al. A survey on heterogeneous one-class collaborative filtering
CN112765461A (zh) 一种基于多兴趣胶囊网络的会话推荐方法
CN113487018A (zh) 一种基于会话推荐的全局上下文增强图神经网络方法
CN114595383A (zh) 一种基于会话序列的海洋环境数据推荐方法及系统
CN113918833A (zh) 通过社交网络关系的图卷积协同过滤实现的产品推荐方法
CN114925270A (zh) 一种会话推荐方法和模型
CN115470406A (zh) 一种基于双通道信息融合的图神经网络会话推荐方法
CN113590976A (zh) 一种空间自适应图卷积网络的推荐方法
CN116304289A (zh) 基于图神经网络的供应链的信息链推荐方法及装置
CN112559905B (zh) 一种基于双模式注意力机制和社交相似度的会话推荐方法
CN114547276A (zh) 基于三通道图神经网络的会话推荐方法
Chen et al. Combine temporal information in session-based recommendation with graph neural networks
Li et al. A multi-task service recommendation model considering dynamic and static QoS
CN114971784B (zh) 一种融合自注意力机制基于图神经网络的会话推荐方法与系统
Yao et al. Session-Based Recommendation Model Based on Multiple Neural Networks Hybrid Extraction Feature

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination