CN113297487A - 一种基于注意力机制增强门控循环单元的序列推荐系统及方法 - Google Patents

一种基于注意力机制增强门控循环单元的序列推荐系统及方法 Download PDF

Info

Publication number
CN113297487A
CN113297487A CN202110568453.4A CN202110568453A CN113297487A CN 113297487 A CN113297487 A CN 113297487A CN 202110568453 A CN202110568453 A CN 202110568453A CN 113297487 A CN113297487 A CN 113297487A
Authority
CN
China
Prior art keywords
user
information
sequence
preference
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110568453.4A
Other languages
English (en)
Inventor
裘嵘
陈天凯
茹丹蕾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Central South University
Original Assignee
Central South University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Central South University filed Critical Central South University
Priority to CN202110568453.4A priority Critical patent/CN113297487A/zh
Publication of CN113297487A publication Critical patent/CN113297487A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Business, Economics & Management (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明提供一种基于注意力机制增强门控循环单元的序列推荐系统及方法,目的是解决用户的长期偏好和短期偏好难以同时捕获的问题。本发明提供的方法模型采用门控循环单元捕获用户的兴趣偏好信息,使用门控循环单元每一时间刻的输出当作用户当时的偏好,并使用一种对数据敏感的注意力结构增强用户的偏好信息,以此使用用户的历史行为序列信息充分捕获其在不同时间的偏好,使模型能够更好的理解用户的意图。

Description

一种基于注意力机制增强门控循环单元的序列推荐系统及 方法
技术领域
本发明涉及个性化推荐系统领域,尤其涉及一种基于注意力机制增强门控循环单元的序列推荐系统及方法。
背景技术
随着互联网的发展,各类在线服务与应用软件逐渐普及,人们享受信息量增长所带来便利的同时,信息量的爆炸式增长引起了严重的信息过载。推荐系统可以通过对用户历史行为如浏览记录、购买记录等进行分析,推测用户的偏好和需求,并以此为依据为用户推荐合适的项目。在许多实际应用中,用户的当前兴趣受其历史行为的影响。例如,在购买智能手机后,可以购买手机壳或耳机等配件;而且人们可能会继续购买他们以前有过良好体验的同一品牌的衣服。序列推荐系统利用用户和项目的交互序列,利用各种方法对嵌入在序列中的复杂顺序依赖关系进行建模,以此来预测在不久的将来,用户后续可能与哪些项目产生交互。
传统推荐算法如协同过滤和基于内容的推荐都是以静态的方式构造用户和项目的交互行为序列,忽略了用户-项目交互序列中的顺序模式。近年来RNN、CNN和自注意力机制等神经模型是解决当前问题的热门选择。RNN是一种递归处理序列数据的神经网络。它根据历史状态和当前输入信息递归地确定新的状态,从而捕捉当前数据和历史数据之间的依赖关系。CNN使用一定大小的窗口来提取序列数据中相邻时间步长之间的信息。自我注意力机制用每个时间步的数据和整体数据之间的相关性来重新编码序列数据。Caser模型利用CNN提取每个窗口中项目之间的依赖关系。GRU4Rec模型利用RNN学习整个序列中行为之间的顺序依赖关系。STAMP模型利用自注意力机制对序列数据进行建模。
然而,基于卷积神经网络的序列推荐系统往往受其滤波器尺寸的限制,可能会过渡学习用户行为序列中连续行为之间的相互影响,且学习行为之间的长期依赖关系。循环神经网络是最适合捕获顺序关系的结构,然而受记忆单元容量限制,捕获长期和短期顺序依赖关系的能力都有限。注意力机制虽然通过无视行为间的距离并忽略历史行为序列中不相关的信息,能够对任意距离的相关行为进行重点关注,但注意力机制本身放弃了捕获行为间任何的时序信息,其只能借助位置编码技术捕获较为有限的顺序依赖关系。
发明内容
针对现有技术难以同时捕获用户长短期偏好的不足,本发明提出一种基于注意力机制增强门控循环单元的序列推荐系统及方法,首次在序列推荐场景下使用一种对数据敏感的注意力结构充分挖掘历史行为中的重要信息,增强用户的长期偏好信息和短期偏好信息,提升序列推荐系统的准确率。
一方面,本发明提供一种基于注意力机制增强门控循环单元的序列推荐系统,包括数据预处理模块、输入序列嵌入模块、信息抽取模块、信息增强模块、推荐模块;
所述数据预处理模块用于构建模型的输入样本,所述输入样本为用户的行为序列信息,所述模块将用户的行为信息按照发生时间的顺序确定用户行为序列的先后顺序。
所述输入序列嵌入模块用来将独热变量转换为稠密向量,所述独热变量为所述数据预处理模块的输出;
所述信息抽取模块从嵌入向量中抽取用户偏好信息,所述偏好信息包括长期偏好和短期偏好信息并由门控循环单元结构获取,所述门控循环单元每个时间刻都会输出当前的偏好信息,使用最后一个时间刻信息作为所述短期偏好信息,使用偏好的算术平均作为所述长期偏好信息;
所述信息增强模块将所述信息抽取模块的输出信息进行增强,捕获更多关于用户偏好信息;
所述推荐模块在测试集上将所述信息增强模块的输出与候选推荐项目进行匹配,并对模型的推荐性能进行评估,同时按照匹配得分排序,取得分最高若干项目,并将其推荐给用户。
另一方面,本发明提供一种基于注意力机制增强门控循环单元的序列推荐方法,包括以下步骤:
步骤1:根据用户的行为序列数据进行划分,将最近的一次交互行为用来测试,最近第二次的交互行为当作验证集,所有其他行为当作训练集;
步骤2:根据用户的行为序列数据构建序列的嵌入矩阵,使用项目矩阵将输入序列进行转换,具体方法为:
对于每个V中的项目i,模型学习其对应的d维的嵌入
Figure BDA0003079787400000021
创建项目的嵌入矩阵
Figure BDA0003079787400000022
其中d表示每个项目嵌入向量对应的隐维度,通过使用嵌入层,序列中项目的独热编码被相应地转换成d维的稠密向量,然后将项目序列转换为项目向量序列
Figure BDA0003079787400000023
其中
Figure BDA0003079787400000024
其中0向量用来作为嵌入矩阵中的项目的填充;
步骤3:根据用户行为序列的嵌入矩阵,利用门控循环单元计算用户的长期偏好信息和短期偏好信息;
步骤3.1:基于门控循环单元结构捕获用户的偏好信息,门控循环单元的具体计算步骤为:
步骤3.1.1:计算重置门:rt=σ(Wrxt+Urht-1+br);
步骤3.1.2:计算更新门:zt=σ(Wzxt+Uzht-1+bz);
步骤3.1.3:计算输入信息的候选状态:
Figure BDA0003079787400000025
步骤3.1.4:计算时间刻t时的记忆单元状态:
Figure BDA0003079787400000026
其中rt,zt门控单元,这些门控单元都属于软门,能够只让一部分数据通过,即用来控制信息通过的比例,
Figure BDA0003079787400000038
表示候选状态。
使用flgru表示门控循环单元的计算过程:
H=[h1,h2,…hn]T=flgru(X)
步骤3.2:使用ml和ms代表用户的长期偏好和短期偏好,短期偏好ms可以看作用户最近的偏好,使用于门控循环单元的最后一个输出表示:
ms=hn
步骤3.3:使用平均操作将H转化为ml,对于长期偏好ml,具体计算如下:
Figure BDA0003079787400000031
其中ml为用户长期偏好的抽象表示。
步骤4:根据用户偏好信息,利用一种对数据较为敏感的注意力结构对其进行信息的增强,具体方法为:
步骤4.1:使用全连接神经网络计算用户历史行为中的项目的注意力权重,计算方式为:
αi=W0σ(W1xi+W2ml+W3ms+ba)
其中
Figure BDA0003079787400000032
代表第i个项目,W1,W2,W3,
Figure BDA0003079787400000033
是权重矩阵,
Figure BDA0003079787400000034
是权重向量,
Figure BDA0003079787400000035
是偏置向量,σ(·)是逻辑回归函数,αi代表了每个项目i在用户行为序列中的注意力系数;
步骤4.2:在获得当前用户行为序列X的注意力系数向量α=(α12,…αn)后,使用如下公式计算增强后的用户兴趣表示ma
Figure BDA0003079787400000036
注意力结构比其他注意力结构对用户兴趣随时间的变化更敏感,通常注意力机制会使用softmax函数将注意力权重放缩到0到1之间,但这容易造成注意力机制被少数和查询向量相关的历史行为过多影响,因此我们摒弃了softmax变换模块,使模型能从历史行为序列中捕获到更多信息
步骤4.3:使用全连接网络层对ma与ms做一个简单的非线性变换,增强其表达能力:
zu=f(Wnma+Unms+bn)
步骤5:根据用户偏好信息,模型的预测层计算候选项目在用户下一次与其交互的匹配得分,并将候选项目按得分进行排序,为用户推荐得分最高的若干项目。具体方法为:
步骤5.1:使用hu计算候选项目嵌入向量的得分,即对于给定的候选项目xi∈V,得分函数可以被定义为:
Figure BDA0003079787400000037
运算符
Figure BDA0003079787400000041
表示向量的内积运算,
Figure BDA0003079787400000042
且每个
Figure BDA0003079787400000043
表示用户的表征向量hu与候选向量xi的未归一化的余弦相似度;
步骤5.2:使用softmax函数进行处理所有候选项目,这样就能得到输出
Figure BDA0003079787400000044
计算方式为:
Figure BDA0003079787400000045
步骤5.3:使用sampled_softmax技术较少训练时间,即对每个正样本随机抽取100个负样本,然后通过最小化log损失函数进行优化:
Figure BDA0003079787400000046
其中yu,pos表示正样本的输出值,negs表示负样本集合。
附图说明
图1为本发明提供的基于注意力机制增强门控循环单元的序列推荐系统结构示意图。
图2为本发明提供的基于注意力机制增强门控循环单元的序列推荐方法的模型结构图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。
本实例以MovieLens使用为例,使用基于注意力机制增强门控循环单元的序列推荐系统进行个性化推荐。
如图1所述,一种基于注意力机制增强门控循环单元的序列推荐系统,主要包括数据预处理模块、输入序列嵌入模块、信息抽取模块、信息增强模块、推荐模块。
步骤1:数据预处理模块用于构建模型的输入样本,所述输入样本为用户的行为序列信息,所述模块将用户的行为信息按照发生时间的顺序确定用户行为序列的先后顺序。
步骤2:输入序列嵌入模块对应图2中方法模型的嵌入层,用来将独热变量转换为稠密向量,所述独热变量为所述数据预处理模块的输出,创建项目的嵌入矩阵
Figure BDA0003079787400000047
其中d表示每个项目嵌入向量对应的隐维度,通过使用嵌入层,序列中项目的独热编码被相应地转换成d维的稠密向量,然后将项目序列转换为项目向量序列
Figure BDA0003079787400000048
其中
Figure BDA0003079787400000049
其中0向量用来作为嵌入矩阵中的项目的填充;
步骤3:信息抽取模块从嵌入向量中抽取用户偏好信息,对应于图2中方法模型的偏好抽取层,所述偏好信息包括长期偏好和短期偏好信息并由门控循环单元结构获取,所述门控循环单元每个时间刻都会输出当前的偏好信息,使用最后一个时间刻信息作为所述短期偏好信息,使用偏好的算术平均作为所述长期偏好信息;
步骤3.1:使用flgru表示门控循环单元的计算结果,其过程为:
步骤3.1.1:计算重置门:rt=σ(Wrxt+Urht-1+br);
步骤3.1.2:计算更新门:zt=σ(Wzxt+Uzht-1+bz);
步骤3.1.3:计算输入信息的候选状态:
Figure BDA0003079787400000051
步骤3.1.4:计算时间刻t时的记忆单元状态:
Figure BDA0003079787400000052
H=[h1,h2,…hn]T=flgru(X)
步骤3.2:使用ml和ms代表用户的长期偏好和短期偏好,短期偏好ms可以看作用户最近的偏好,使用于门控循环单元的最后一个输出表示:
ms=hn
步骤3.3:使用平均操作将H转化为ml,对于长期偏好ml,具体计算如下:
Figure BDA0003079787400000053
其中ml为用户长期偏好的抽象表示。
步骤4:信息增强模块将所述信息抽取模块的输出信息进行增强,对应与图2方法模型中的偏好增强层,以捕获更多关于用户偏好信息;
步骤4.1:使用全连接神经网络计算用户历史行为中的项目的注意力权重,计算方式为:
αi=W0σ(W1xi+W2ml+W3ms+ba)
步骤4.2:在获得当前用户行为序列X的注意力系数向量α=(α12,…αn)后,使用如下公式计算增强后的用户兴趣表示ma
Figure BDA0003079787400000054
步骤4.3:使用全连接网络层对ma与ms做一个简单的非线性变换,增强其表达能力:
zu=f(Wnma+Unms+bn)
步骤5:推荐模块在测试集上将所述信息增强模块的输出与候选推荐项目进行匹配,对应与图2中的预测层,对模型的推荐性能进行评估,同时按照匹配得分排序,取得分最高若干项目,并将其推荐给用户。
步骤5.1:使用hu计算候选项目嵌入向量的得分,即对于给定的候选项目xi∈V,得分函数可以被定义为:
Figure BDA0003079787400000055
注意力结构比其他注意力结构对用户兴趣随时间的变化更敏感,通常注意力机制会使用softmax函数将注意力权重放缩到0到1之间,但这容易造成注意力机制被少数和查询向量相关的历史行为过多影响,因此我们摒弃了softmax变换模块,使模型能从历史行为序列中捕获到更多信息。
步骤5.2:使用softmax函数进行处理所有候选项目,这样就能得到输出
Figure BDA0003079787400000061
计算方式为:
Figure BDA0003079787400000062
步骤5.3:使用sampled_softmax技术较少训练时间,即对每个正样本随机抽取100个负样本,然后通过最小化log损失函数进行优化:
Figure BDA0003079787400000063
其中yu,pos表示正样本的输出值,negs表示负样本集合。
然后我们使用Adam(以SGD为基础的一种自适应矩估计方法)来最优化网络参数,使损失函数值达到最小化。
预测时将候选项目按得分进行排序,为用户推荐得分最高的若干项目。
在发明中,我们使用U={u1,u2,…,u|U|}来表示用户集合,使用V={v1,v2,…,v|V|}来表示项目集合。其中|U|和|V|分别代表用户数和项目集的大小,即用户数和项目数。我们将得到用户的行为序列
Figure BDA0003079787400000064
以预测用户的下一次交互的项目为目标。在训练过程中,对于时间刻t,模型使用前t个项目预测接下来用户将交互的项目。即我们输入
Figure BDA0003079787400000065
我们期望的输出序列是
Figure BDA0003079787400000066
在本实例中,基于注意力机制增强门控循环单元的序列推荐方法与BPR、GRU4Rec、AttRec和Caser模型在MovieLens上做对比,比较结果如表1所示,其中,在所有数据集中我们过滤掉相关行为数少于5的用户和项目,各模型采用以下相同的设置:批训练大小和网络中的隐藏层大小分别被设置为256和50;学习率设置为0.002,并选择Adam优化器。l2正则系数从{0.000001,0.00001,0.0001,0.001}中选择,ML-1M的丢弃率被设置为0.2。ML-1M的序列最大长度n我们设置为200。并使用击中率Hit@10和归一化折损累计增益NDCG@10作为评价标准,对于每个用户u,我们随机采样100个负样本,将其与正样本一起进行排序,基于这101个样本,我们计算Hit@10和NDCG@10。与对比模型中最优的模型相比,本发明提供的方法模型的Hit@10平和DCG@10均有较好的推荐效果。当隐式维度d为30时,Hit@10和NDCG@1已经优于次优模型,一种可能的理由是我们的模型能够更好的捕获用户行为序列中的长短期顺序依赖关系,因此能捕获到更多关于用户偏好的信息,以此提升推荐的准确性。
表1为本发明的序列推荐方法与现有其他方法在MovieLens数据集上的比较结果
Figure BDA0003079787400000071
本发明提高的方法模型中,使用门控单元学习行为之间的顺序依赖关系,以捕获用户的长期偏好和短期偏好。但其捕获用户偏好的受记忆单元大小的限制,为此,本发明使用一种对数据十分敏感的注意力机制对门控单元的记忆信息进行增强,以此充分挖掘历史行为中的重要信息。从而提升模型推荐的准确性。
以上所述实施例对方法的细节描述较为具体和详细,但不能因此将其作为本发明专利的限制,在此模型构思基础上还可以进行多种改进和变形,这些都不能因此而理解为对发明专利范围的限制。

Claims (6)

1.一种基于注意力机制增强门控循环单元的序列推荐系统,其特征在于,包括数据预处理模块、输入序列嵌入模块、信息抽取模块、信息增强模块、推荐模块;
所述数据预处理模块用于构建模型的输入样本,所述输入样本为用户的行为序列信息,所述模块将用户的行为信息按照发生时间的顺序确定用户行为序列的先后顺序;
所述输入序列嵌入模块用来将独热变量转换为稠密向量,所述独热变量为所述数据预处理模块的输出;
所述信息抽取模块从嵌入向量中抽取用户偏好信息,所述偏好信息包括长期偏好和短期偏好信息并由门控循环单元结构获取,所述门控循环单元每个时间刻都会输出当前的偏好信息,使用最后一个时间刻信息作为所述短期偏好信息,使用偏好的算术平均作为所述长期偏好信息;
所述信息增强模块将所述信息抽取模块的输出信息进行增强,捕获更多关于用户偏好信息;
所述推荐模块在测试集上将所述信息增强模块的输出与候选推荐项目进行匹配,并对模型的推荐性能进行评估,同时按照匹配得分排序,取得分最高若干项目,并将其推荐给用户。
2.采用权利要求1所述的基于注意力机制增强门控循环单元的序列推荐方法,其特征在于,包括以下步骤:
步骤1:根据用户的行为序列数据进行划分,将最近的一次交互行为用来测试,最近第二次的交互行为当作验证集,所有其他行为当作训练集;
步骤2:根据用户的行为序列数据使用嵌入层构建序列的嵌入矩阵,使用项目矩阵将输入序列进行转换;
步骤3:根据用户行为序列的嵌入矩阵,模型的偏好抽取层利用门控循环单元计算用户的长期偏好信息和短期偏好信息;
步骤4:根据用户偏好信息,模型的偏好增强层利用一种对数据较为敏感的注意力结构对其进行信息的增强;
步骤5:根据用户偏好信息,模型的预测层计算候选项目在用户下一次与其交互的匹配得分,并将候选项目按得分进行排序,为用户推荐得分最高的若干项目。
3.根据权利要求2所述的基于注意力机制增强门控循环单元的序列推荐方法,其特征在于,所述步骤3的具体方法为:
步骤3.1:基于门控循环单元结构捕获用户的偏好信息,所述门控循环单元保留全部时间刻的输出:对于输入的序列X=(x1,x2,…,xn),在每个时间刻t,隐藏单元表示为ht,使用flgru表示门控循环单元的计算过程:
H=[h1,h2,…hn]T=flgru(X)
其中,输出
Figure FDA0003079787390000021
步骤3.2:我们使用ml和ms代表用户的长期偏好和短期偏好,短期偏好ms可以看作用户最近的偏好,使用于门控循环单元的最后一个输出表示:
ms=hn
步骤3.3:使用平均操作将H转化为ml,对于长期偏好ml,具体计算如下:
Figure FDA0003079787390000022
其中ml为用户长期偏好的抽象表示。
4.根据权利要求2所述的基于注意力机制增强门控循环单元的序列推荐方法,其特征在于,所述步骤3.1的门控循环单元的具体计算方式为:
步骤3.1.1:计算重置门:rt=σ(Wrxt+Urht-1+br);
步骤3.1.2:计算更新门:zt=σ(Wzxt+Uzht-1+bz);
步骤3.1.3:计算输入信息的候选状态:
Figure FDA0003079787390000023
步骤3.1.4:计算时间刻t时的记忆单元状态:
Figure FDA0003079787390000024
其中zr,zt门控单元,这些门控单元都属于软门,能够只让一部分数据通过,即用来控制信息通过的比例,
Figure FDA0003079787390000025
表示候选状态。
5.根据权利要求2所述的基于注意力机制增强门控循环单元的序列推荐方法,其特征在于,所述步骤4的注意力结构的具体步骤为:
步骤4.1:使用全连接神经网络计算用户历史行为中的项目的注意力权重,计算方式为:
αi=W0σ(W1xi+W2ml+W3ms+ba)
其中
Figure FDA0003079787390000026
代表第i个项目,W1,W2,
Figure FDA0003079787390000027
是权重矩阵,
Figure FDA0003079787390000028
是权重向量,
Figure FDA0003079787390000029
Figure FDA00030797873900000210
是偏置向量,σ(·)是逻辑回归函数,αi代表了每个项目i在用户行为序列中的注意力系数;
步骤4.2:在获得当前用户行为序列X的注意力系数向量α=(α12,…αn)后,我们使用如下公式计算增强后的用户兴趣表示ma
Figure FDA00030797873900000211
步骤4.3:使用全连接网络层对ma与ms做一个简单的非线性变换,增强其表达能力:
zu=f(Wnma+Unms+bn)。
6.根据权利要求2所述的基于注意力机制增强门控循环单元的序列推荐方法,其特征在于,所述步骤5中匹配得分的方法为:
步骤5.1:使用hu计算候选项目嵌入向量的得分,即对于给定的候选项目xi∈V,得分函数可以被定义为:
Figure FDA0003079787390000031
运算符
Figure FDA0003079787390000032
表示向量的内积运算,
Figure FDA0003079787390000033
且每个
Figure FDA0003079787390000034
表示用户的表征向量hu与候选向量xi的未归一化的余弦相似度;
步骤5.2:使用softmax函数进行处理所有候选项目,这样就能得到输出
Figure FDA0003079787390000035
计算方式为:
Figure FDA0003079787390000036
步骤5.3:使用sampled_softmax技术较少训练时间,即对每个正样本随机抽取100个负样本,然后通过最小化log损失函数进行优化:
Figure FDA0003079787390000037
其中yu,pos表示正样本的输出值,negs表示负样本集合。
CN202110568453.4A 2021-05-24 2021-05-24 一种基于注意力机制增强门控循环单元的序列推荐系统及方法 Pending CN113297487A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110568453.4A CN113297487A (zh) 2021-05-24 2021-05-24 一种基于注意力机制增强门控循环单元的序列推荐系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110568453.4A CN113297487A (zh) 2021-05-24 2021-05-24 一种基于注意力机制增强门控循环单元的序列推荐系统及方法

Publications (1)

Publication Number Publication Date
CN113297487A true CN113297487A (zh) 2021-08-24

Family

ID=77324521

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110568453.4A Pending CN113297487A (zh) 2021-05-24 2021-05-24 一种基于注意力机制增强门控循环单元的序列推荐系统及方法

Country Status (1)

Country Link
CN (1) CN113297487A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114036380A (zh) * 2021-11-08 2022-02-11 重庆邮电大学 一种基于时间门控循环单元的跨领域序列智能推荐方法
CN114154071A (zh) * 2021-12-09 2022-03-08 电子科技大学 一种基于注意力机制的情感时序推荐方法
CN115858942A (zh) * 2023-02-27 2023-03-28 西安电子科技大学 面向用户输入的序列化推荐方法及装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114036380A (zh) * 2021-11-08 2022-02-11 重庆邮电大学 一种基于时间门控循环单元的跨领域序列智能推荐方法
CN114154071A (zh) * 2021-12-09 2022-03-08 电子科技大学 一种基于注意力机制的情感时序推荐方法
CN114154071B (zh) * 2021-12-09 2023-05-09 电子科技大学 一种基于注意力机制的情感时序推荐方法
CN115858942A (zh) * 2023-02-27 2023-03-28 西安电子科技大学 面向用户输入的序列化推荐方法及装置

Similar Documents

Publication Publication Date Title
CN113297487A (zh) 一种基于注意力机制增强门控循环单元的序列推荐系统及方法
CN109508584B (zh) 视频分类的方法、信息处理的方法以及服务器
CN111797321B (zh) 一种面向不同场景的个性化知识推荐方法及系统
CN110717099B (zh) 一种推荐影片的方法及终端
CN112733018B (zh) 一种基于图神经网络gnn和多任务学习的会话推荐方法
CN111400603A (zh) 一种信息推送方法、装置、设备及计算机可读存储介质
CN110738314B (zh) 一种基于深度迁移网络的点击率预测方法及装置
CN115048586B (zh) 一种融合多特征的新闻推荐方法及系统
CN109492129A (zh) 一种基于双流神经网络的相似视频搜索方法和系统
CN114519145A (zh) 一种基于图神经网络挖掘用户长短期兴趣的序列推荐方法
WO2023185925A1 (zh) 一种数据处理方法及相关装置
CN112396492A (zh) 基于图注意力网络和双向长短期记忆网络的会话推荐方法
CN114529077A (zh) 一种基于会话内异构行为的点击率预测方法
CN114691995A (zh) 一种基于信息传播和注意力机制的序列推荐方法
CN111159242A (zh) 一种基于边缘计算的客户端重排序方法及系统
CN113297936A (zh) 一种基于局部图卷积网络的排球群体行为识别方法
CN115809374B (zh) 纠正推荐系统主流偏差的方法、系统、设备及存储介质
CN114528490A (zh) 一种基于用户长短期兴趣的自监督序列推荐方法
CN115618101A (zh) 基于负反馈的流媒体内容推荐方法、装置及电子设备
CN114625969A (zh) 一种基于交互近邻会话的推荐方法
CN115293812A (zh) 一种基于长短期兴趣的电商平台会话感知推荐预测方法
CN115470406A (zh) 一种基于双通道信息融合的图神经网络会话推荐方法
CN114637920A (zh) 对象推荐方法以及装置
CN113704439A (zh) 一种基于多来源信息异构图的会话推荐方法
CN115545738A (zh) 一种推荐方法及相关装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination