CN111259243B - 基于会话的并行推荐方法及系统 - Google Patents
基于会话的并行推荐方法及系统 Download PDFInfo
- Publication number
- CN111259243B CN111259243B CN202010038437.XA CN202010038437A CN111259243B CN 111259243 B CN111259243 B CN 111259243B CN 202010038437 A CN202010038437 A CN 202010038437A CN 111259243 B CN111259243 B CN 111259243B
- Authority
- CN
- China
- Prior art keywords
- user
- item
- clicked
- sequence
- embedded vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000013528 artificial neural network Methods 0.000 claims abstract description 45
- 230000007246 mechanism Effects 0.000 claims abstract description 40
- 230000007774 longterm Effects 0.000 claims abstract description 34
- 239000013598 vector Substances 0.000 claims description 85
- 230000006399 behavior Effects 0.000 claims description 33
- 239000010410 layer Substances 0.000 claims description 33
- 238000004590 computer program Methods 0.000 claims description 21
- 230000006870 function Effects 0.000 claims description 11
- 230000000306 recurrent effect Effects 0.000 claims description 11
- 239000002356 single layer Substances 0.000 claims description 9
- 239000011159 matrix material Substances 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 7
- 230000008447 perception Effects 0.000 claims description 7
- 238000003062 neural network model Methods 0.000 claims description 5
- 238000003860 storage Methods 0.000 claims description 5
- 238000005520 cutting process Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 abstract description 5
- 125000004122 cyclic group Chemical group 0.000 description 8
- 238000010586 diagram Methods 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请公开了一种基于会话的并行推荐方法及系统,所述方法包括:将用户在当前会话中的已点击项目序列输入可并行处理序列的切片神经网络并将输出的隐藏状态作为用户序列行为特征;利用注意力机制计算用户对已点击项目的注意力权重,由此计算用户的长期兴趣,进而结合用户的短期兴趣获取其主要意图;计算每个项目与用户的主要意图之间的相似度从而获得用户对每个项目的下一次点击概率,据此进行推荐。本申请通过并行处理序列大量减少系统的运行时间,并提升推荐准确性。
Description
技术领域
本申请涉及信息处理及推荐领域,具体涉及一种基于会话的并行推荐方法及系统。
背景技术
基于会话的推荐系统是现代推荐系统的重要组成部分,基于会话的推荐是指在用户个人信息与历史信息未知的情况下,仅基于当前会话中被点击的项目序列的隐式反馈,预测用户下一步将点击哪个项目。近年来,随着机器学习的迅猛发展,在基于会话的推荐系统领域,“Sessionbasedrecommendations with recurrent neural networks.”CoRR,abs/1511.06939,2015.、“Improved recurrent neural networks for session-basedrecommendations.”In Proceedings of the 1st Workshop onDLRS@RecSys 2016.、“Neural attentivesession-basedrecommendation.”In Proceedings of the2017 ACMon CIKM 2017.、“STAMP:short-term attention/memory prioritymodel forsession-based recommendation.”In Proceedingsof the 24th ACM SIGKDD InternationalConferenceon KDD 2018.等现有文献对基于神经网络的方法进行了广泛的研究,其中,循环神经网络因其在基于用户点击序列的用户序列行为建模方面的能力而受到极大关注。
然而,由于循环结构,现有方法在并行化方面有困难,因此,需要大量时间训练,不利于在现实场景中实时应用。
发明内容
本申请的目的是提供一种基于会话的并行推荐方法及系统,用以提升基于会话的推荐结果的准确性。
为了实现上述任务,本申请采用以下技术方案:
第一方面,本申请提供了一种基于会话的并行推荐方法,包括:
接收用户在当前会话中的已点击项目序列;
将所述已点击项目序列的嵌入向量输入切片神经网络中,通过切片神经网络将所述嵌入向量分割成多个长度相等的子序列来实现并行化,并将切片神经网络最后输出的隐藏状态作为用户序列行为特征;
结合用户序列行为特征、各个已点击项目的点击频率和各个已点击项目的嵌入向量,利用注意力机制来计算用户对在各个时间戳点击的项目的注意力权重,并基于注意力权重和已点击项目序列的嵌入向量计算用户的长期兴趣;
将用户最后一次点击的项目的嵌入向量作为用户的短期兴趣;
结合用户的长期兴趣和短期兴趣,利用多层感知机制来获取用户的主要意图;
计算项目字典里每个项目的嵌入向量与用户的主要意图之间的相似度,对所有相似度进行归一化后获得用户对于项目字典里每个项目的下一次点击概率;对点击概率列表进行排序,并根据点击概率列表向用户推荐项目。
进一步地,所述通过切片神经网络将所述嵌入向量分割成多个长度相等的子序列来实现并行化,包括:
对于已点击项目序列的嵌入向量XT=[x1,x2,…,xT],令每次切割的切片数量为n,共切割k次,则首先XT被切割成n个长度相等的子序列:XT=[N1,N2,…,Nn],其中第i(1≤i≤n)个子序列T表示时间戳;再如此切割k-1次,直到得到第0层的最小子序列,则最小子序列的长度/>数量为nk个;从第1层开始,每一层的子序列都由下一层每n个子序列通过带有GRU的标准循环神经网络后的最后一个输出的隐藏状态构成的序列组成。
进一步地,所述结合用户序列行为特征、各个已点击项目的点击频率和各个已点击项目的嵌入向量,利用注意力机制来计算用户对在各个时间戳点击的项目的注意力权重,包括:
所述注意力机制为单层神经网络模型,在注意力机制中通过以下计算获得注意力权重:
进一步地,所述基于注意力权重和已点击项目序列计算用户的长期兴趣,表示为:
其中,xi∈XT,XT=[x1,x2,…,xT]表示已点击项目序列的嵌入向量。
进一步地,所述结合用户的长期兴趣和短期兴趣,利用多层感知机制来获取用户的主要意图,包括:
所述多层感知机制由单层神经网络构成,在多层感知机制中通过以下计算获得用户的主要意图:
进一步地,所述计算项目字典里每个项目的嵌入向量与用户的主要意图之间的相似度,表示为:
ci=ei·I
其中,ei∈E,E表示项目字典,ei表示目字典里每个项目的嵌入向量。
第二方面,本申请提供了一种基于会话的并行推荐系统,包括:
已点击项目序列输入模块,用于接收用户在当前会话中的已点击项目序列;
用户序列行为特征生成模块,用于将所述已点击项目序列的嵌入向量输入切片神经网络中,通过切片神经网络将所述嵌入向量分割成多个长度相等的子序列来实现并行化,并将切片神经网络最后输出的隐藏状态作为用户序列行为特征;
长期兴趣生成模块,包括注意力机制和长期兴趣生成器,其中注意力机制通过结合用户序列行为特征、各个已点击项目的点击频率和各个已点击项目的嵌入向量来计算用户对在各个时间戳点击的项目的注意力权重;长期兴趣生成器基于注意力权重和已点击项目序列的嵌入向量计算用户的长期兴趣;
短期兴趣生成模块,用于将用户最后一次点击的项目的嵌入向量作为用户的短期兴趣;
主要意图生成模块,用于结合用户的长期兴趣和短期兴趣,利用多层感知机制来获取用户的主要意图;
点击概率生成模块,用于计算项目字典里每个项目的嵌入向量与用户的主要意图之间的相似度,对所有相似度进行归一化后获得用户对于项目字典里每个项目的下一次点击概率;对点击概率列表进行排序,并根据排序结果向用户推荐项目。
第三方面,本申请提供了一种终端设备,包括包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,处理器执行计算机程序时实现前述第一方面的基于会话的并行推荐方法的步骤。
第四方面,本申请提供了一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序被处理器执行时实现前述第一方面的基于会话的并行推荐方法的步骤。
本申请具有以下技术特点:
本申请通过使用切片神经网络对用户的当前会话序列实现并行处理,在获取序列中重要顺序信息的同时,加速获得用户序列行为特征的时间,从而大量减少系统的运行时间,并通过获取用户的长期兴趣与短期兴趣来捕获用户的主要意图,提升推荐结果的准确性。
附图说明
图1为本申请的一个实施例提供的基于会话的并行推荐方法的流程示意图;
图2为本申请的一个实施例提供的基于会话的并行推荐系统的结构示意图;
图3为本申请基于会话的并行推荐系统的总体网络示意图;
图4为本申请基于会话的并行推荐系统在序列长度为8时所使用的切片循环神经网络示意图;
图5为本申请的一个实施例提供的终端设备的结构示意图。
具体实施方式
参见图1,本申请的一个实施例公开了一种基于会话的并行推荐方法,该方法包括:
S1,接收用户在当前会话中的已点击项目序列。
其中,所述会话是指从某用户打开某个网站开始,在一段时间内与该网站的交互记录,即点击项目序列。其中,所述的项目是一个广义概念,例如可以为商品、新闻、视频等信息。
用V=[v1,v2,…,v|V|]表示本实施例中所有的独立项目的集合,简称项目字典,其中,|V|表示项目字典中独立项目的数量,每个会话用S=[s1,s2,…,sN]表示,其中sj表示在第j(j=1,2,...,N)个时间戳点击的项目在项目字典中的索引,N表示时间戳的个数。用ST=[s1,s2,…,sT]表示用户在第T个时间戳的已点击项目序列。那么,本申请的任务就是在给定ST时,预测用户在下一时间戳最有可能点击项目字典V里的哪个项目。令E=[e1,e2,…,e|V|]表示项目字典V对应的嵌入向量表示,ST=[s1,s2,…,sT]对应的嵌入向量表示为XT=[x1,x2,…,xT],其中xi(i=1,2,...,T)表示已点击项目si的嵌入向量表示。
如图3所示,令已点击项目序列的嵌入向量XT作为本申请的输入,最终推荐目标是获得点击概率列表其中/>表示用户在下一时间戳点击项目vi(i=1,2,...,|V|)的概率。最终本申请推荐/>中对应的top-k个项目。
S2,将所述已点击项目序列的嵌入向量输入切片神经网络中,通过切片神经网络将所述嵌入向量分割成多个长度相等的子序列来实现并行化,并将切片神经网络最后输出的隐藏状态作为用户序列行为特征。该特征是指对用户的序列行为建模而得到的行为特征。
该步骤中,用户已点击的项目序列的嵌入向量输入切片循环神经网络后,通过切片循环神经网络获得最后一个时间戳的隐藏状态,该隐藏状态可提取用户在当前序列中的行为特征,所以将该隐藏状态作为用户序列行为特征h。
其中,切片循环神经网络是在标准循环神经网络的基础上,通过将序列分割成多个长度相等的子序列来实现并行化,门控循环单元GRU(gated recurrent unit,GRU)在每层同时处理每个子序列,并且处理信息可以逐层传递,这样既可以对序列顺序建模,又可以获取比标准RNN更快的速度。
对于本申请的已点击项目序列的嵌入向量XT=[x1,x2,…,xT],令每次切割的切片数量为n,共切割k次,则首先XT被切割成n个长度相等的子序列:XT=[N1,N2,…,Nn],其中第i(1≤i≤n)个子序列T表示时间戳;再如此切割k-1次,直到得到第0层的最小子序列。则最小子序列的长度/>数量为nk个;从第1层开始,每一层的子序列都由下一层每n个子序列通过带有GRU的标准循环神经网络后的最后一个输出的隐藏状态构成的序列组成,所以第p(p>0)层的子序列长度为n,子序列数量为nk-p个。图4为在当前会话长度为8,切割k=2次,每个切片数量n=2时的切片循环神经网络。
与传统的用标准循环神经网络的基于会话的推荐系统相比,在获得用户序列行为特征时,由于切片循环神经网络可并行处理每个子序列,并多层传递重要信息,可加速计算速度。假设在每个循环单元花费的时间是r,那么在标准循环神经网络中花费的时间是t1=T×r,在切片循环神经网络上花费的时间是则速度优势为:所以可通过指定切片数量n和切割次数k来获得想要的速度优势。
S3,结合用户序列行为特征、各个已点击项目的点击频率和各个已点击项目的嵌入向量,利用注意力机制来计算用户对在各个时间戳点击的项目的注意力权重,并基于注意力权重和已点击项目序列的嵌入向量计算用户的长期兴趣。长期兴趣是指用户随着时间不轻易改变的兴趣。
本申请中的注意力机制由单层神经网络构成,通过用户序列行为特征生成模块获得的用户序列行为特征h被送入注意力机制,另外注意力机制也会考虑已点击项目序列ST=[s1,s2,…,sT]中各个已点击项目在当前会话中的点击频率FT=[f1,f2,…,fT]和已点击项目序列的嵌入向量XT=[x1,x2,…,xT],通过注意力机制可获得用户当前对各已点击项目的注意力权重αT=[α1T,α2T,…,αTT]。
所述注意力机制为单层神经网络模型,在注意力机制中通过以下公式获得注意力权重:
其中是sigmoid函数,h是由用户序列行为特征生成模块得到的用户序列行为特征;Wα0∈R1×d是权重向量,Wα1,Wα2∈Rd×d是权重矩阵,bα,Wα3∈Rd是偏置向量,d是已点击项目的嵌入向量维度;所述权重向量、权重矩阵、偏置向量均通过对注意力机制的单层神经网络模型训练得到。长期兴趣生成器可通过注意力权重αT选择性地挑选重要的已点击项目来计算用户的长期兴趣表示Il:/>其中,xi∈XT,XT=[x1,x2,…,xT]表示已点击项目序列的嵌入向量。
S4,将用户最后一次点击的项目的嵌入向量作为用户的短期兴趣。
由于短期兴趣是指随着时间用户不断改版的新兴趣,所以将用户最后一次点击的项目的嵌入向量作为用户的短期兴趣;短期兴趣是指用户随着时间不断改变的新兴趣,表示为Is:Is=xT。xT为已点击项目序列的嵌入向量XT=[x1,x2,…,xT]的最后一个嵌入向量。
S5,结合用户的长期兴趣和短期兴趣,利用多层感知机制来获取用户的主要意图。该主要意图是指用户在当前时刻的综合兴趣。
所述多层感知机制由单层神经网络构成,在多层感知机制中通过以下计算获得用户的主要意图:
S6,计算项目字典里每个项目的嵌入向量与用户的主要意图之间的相似度,对所有相似度进行归一化后获得用户对于项目字典里每个项目的下一次点击概率;对点击概率列表进行排序,并根据点击概率列表向用户推荐top-k个项目。
其中,项目字典里每个候选项目的嵌入向量为ei∈E,用户的主要意图表示为I,则相似度表示为:ci=ei·I。将所有相似度c1,c2,…,c|V|构成集合C=[c1,c2,…,c|V|],通过一个softmax函数来处理C以进行归一化,从而获得点击概率列表
根据本申请的另一方面,提供了一种基于会话的并行推荐系统1,如图2所示,包括:
已点击项目序列输入模块11,用于接收用户在当前会话中的已点击项目序列。
用户序列行为特征生成模块12,用于将所述已点击项目序列的嵌入向量输入切片神经网络中,通过切片神经网络将所述嵌入向量分割成多个长度相等的子序列来实现并行化,并将切片神经网络最后输出的隐藏状态作为用户序列行为特征。
长期兴趣生成模块13,包括注意力机制和长期兴趣生成器,其中注意力机制通过结合用户序列行为特征、各个已点击项目的点击频率和各个已点击项目的嵌入向量来计算用户对在各个时间戳点击的项目的注意力权重;长期兴趣生成器基于注意力权重和已点击项目序列的嵌入向量计算用户的长期兴趣。
短期兴趣生成模块14,用于将用户最后一次点击的项目的嵌入向量作为用户的短期兴趣。
主要意图生成模块15,用于结合用户的长期兴趣和短期兴趣,利用多层感知机制来获取用户的主要意图。
点击概率生成模块16,用于计算项目字典里每个项目的嵌入向量与用户的主要意图之间的相似度,对所有相似度进行归一化后获得用户对于项目字典里每个项目的下一次点击概率;对点击概率列表进行排序,并根据排序结果向用户推荐项目。
需要说明的是,上述各模块的具体执行过程及相关内容解释对应于前述第一方面的S1至S6,在此不赘述。
值得一提的是,在训练本推荐系统时,每个会话S=[s1,s2,…,sN]都被处理成子序列和相应的标签([s1],s2),…,([s1,s2,…,sN-1],sN),损失函数由预测的点击概率列表的交叉熵定义:/>其中Y=[y1,y2,…,y|V|]是一个独热编码向量,表示用户在下一时间戳真正的点击。例如,用户在下一时间戳真正点击的项目st+1是项目字典V里的第i个项目vi,则yi=1,yk=0(k≠i)。最后采用迭代随机梯度下降优化法对交叉熵损失进行优化。
请参阅图5,本申请实施例进一步提供一种终端设备2,该终端设备2可以为计算机、服务器;包括存储器22、处理器21以及存储在存储器22中并可在处理器上运行的计算机程序23,处理器21执行计算机程序23时实现上述基于会话的并行推荐方法的步骤,例如,前述的S1至S6。
计算机程序23也可以被分割成一个或多个模块/单元,一个或者多个模块/单元被存储在存储器22中,并由处理器21执行,以完成本申请。一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述计算机程序23在终端设备2中的执行过程,例如,计算机程序23可以被分割为已点击项目序列输入模块、用户序列行为特征生成模块、长期兴趣生成模块、短期兴趣生成模块、主要意图生成模块、点击概率生成模块,各模块的功能参见前述装置中的描述,不再赘述。
本申请的实施提供了一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序被处理器执行时实现上述基于会话的并行推荐方法的步骤,例如,前述的S1至S6。
集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,计算机程序包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。
Claims (8)
1.一种基于会话的并行推荐方法,其特征在于,包括:
接收用户在当前会话中的已点击项目序列;
将所述已点击项目序列的嵌入向量输入切片神经网络中,通过切片神经网络将所述嵌入向量分割成多个长度相等的子序列来实现并行化,并将切片神经网络最后输出的隐藏状态作为用户序列行为特征;
结合用户序列行为特征、各个已点击项目的点击频率和各个已点击项目的嵌入向量,利用注意力机制来计算用户对在各个时间戳点击的项目的注意力权重,并基于注意力权重和已点击项目序列的嵌入向量计算用户的长期兴趣;
将用户最后一次点击的项目的嵌入向量作为用户的短期兴趣;
结合用户的长期兴趣和短期兴趣,利用多层感知机制来获取用户的主要意图;
计算项目字典里每个项目的嵌入向量与用户的主要意图之间的相似度,对所有相似度进行归一化后获得用户对于项目字典里每个项目的下一次点击概率;对点击概率列表进行排序,并根据点击概率列表向用户推荐项目;
所述通过切片神经网络将所述嵌入向量分割成多个长度相等的子序列来实现并行化,包括:
对于已点击项目序列的嵌入向量XT=[x1,x2,…,xT],令每次切割的切片数量为n,共切割k次,则首先XT被切割成n个长度相等的子序列:XT=[N1,N2,…,Nn],其中第i(1≤i≤n)个子序列T表示时间戳;再如此切割k-1次,直到得到第0层的最小子序列,则最小子序列的长度/>数量为nk个;从第1层开始,每一层的子序列都由下一层每n个子序列通过带有GRU的标准循环神经网络后的最后一个输出的隐藏状态构成的序列组成;
所述结合用户序列行为特征、各个已点击项目的点击频率和各个已点击项目的嵌入向量,利用注意力机制来计算用户对在各个时间戳点击的项目的注意力权重,包括:
所述注意力机制为单层神经网络模型,在注意力机制中通过以下计算获得注意力权重:
4.根据权利要求3所述的基于会话的并行推荐方法,其特征在于,所述计算项目字典里每个项目的嵌入向量与用户的主要意图之间的相似度,表示为:
ci=ei·I
其中,ei∈E,E表示项目字典,ei表示目字典里每个项目的嵌入向量。
5.一种基于会话的并行推荐系统,其特征在于,包括:
已点击项目序列输入模块,用于接收用户在当前会话中的已点击项目序列;
用户序列行为特征生成模块,用于将所述已点击项目序列的嵌入向量输入切片神经网络中,通过切片神经网络将所述嵌入向量分割成多个长度相等的子序列来实现并行化,并将切片神经网络最后输出的隐藏状态作为用户序列行为特征;
长期兴趣生成模块,包括注意力机制和长期兴趣生成器,其中注意力机制通过结合用户序列行为特征、各个已点击项目的点击频率和各个已点击项目的嵌入向量来计算用户对在各个时间戳点击的项目的注意力权重;长期兴趣生成器基于注意力权重和已点击项目序列的嵌入向量计算用户的长期兴趣;
短期兴趣生成模块,用于将用户最后一次点击的项目的嵌入向量作为用户的短期兴趣;
主要意图生成模块,用于结合用户的长期兴趣和短期兴趣,利用多层感知机制来获取用户的主要意图;
点击概率生成模块,用于计算项目字典里每个项目的嵌入向量与用户的主要意图之间的相似度,对所有相似度进行归一化后获得用户对于项目字典里每个项目的下一次点击概率;对点击概率列表进行排序,并根据点击概率列表向用户推荐项目;
所述通过切片神经网络将所述嵌入向量分割成多个长度相等的子序列来实现并行化,包括:
对于已点击项目序列的嵌入向量XT=[x1,x2,…,xT],令每次切割的切片数量为n,共切割k次,则首先XT被切割成n个长度相等的子序列:XT=[N1,N2,…,Nn],其中第i(1≤i≤n)个子序列T表示时间戳;再如此切割k-1次,直到得到第0层的最小子序列,则最小子序列的长度/>数量为nk个;从第1层开始,每一层的子序列都由下一层每n个子序列通过带有GRU的标准循环神经网络后的最后一个输出的隐藏状态构成的序列组成;
所述结合用户序列行为特征、各个已点击项目的点击频率和各个已点击项目的嵌入向量,利用注意力机制来计算用户对在各个时间戳点击的项目的注意力权重,包括:
所述注意力机制为单层神经网络模型,在注意力机制中通过以下计算获得注意力权重:
7.一种终端设备,包括包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,处理器执行计算机程序时实现根据权利要求1至4中任一权利要求所述方法的步骤。
8.一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,其特征在于,计算机程序被处理器执行时实现根据权利要求1至4中任一权利要求所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010038437.XA CN111259243B (zh) | 2020-01-14 | 2020-01-14 | 基于会话的并行推荐方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010038437.XA CN111259243B (zh) | 2020-01-14 | 2020-01-14 | 基于会话的并行推荐方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111259243A CN111259243A (zh) | 2020-06-09 |
CN111259243B true CN111259243B (zh) | 2023-06-06 |
Family
ID=70950493
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010038437.XA Active CN111259243B (zh) | 2020-01-14 | 2020-01-14 | 基于会话的并行推荐方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111259243B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112258262B (zh) * | 2020-09-15 | 2023-09-26 | 浙江大学 | 一种基于卷积自注意力网络的会话推荐方法 |
CN112948709B (zh) * | 2021-03-05 | 2022-03-25 | 桂林电子科技大学 | 一种影响力感知驱动的连续兴趣点实时推荐方法 |
CN113222700B (zh) * | 2021-05-17 | 2023-04-18 | 中国人民解放军国防科技大学 | 基于会话的推荐方法及装置 |
CN113076414A (zh) * | 2021-06-07 | 2021-07-06 | 北京明略软件系统有限公司 | 会话推荐方法、装置、计算机设备和存储介质 |
CN113343097B (zh) * | 2021-06-24 | 2023-01-13 | 中山大学 | 基于片段和自注意力机制的序列推荐方法及系统 |
CN114461906A (zh) * | 2022-01-06 | 2022-05-10 | 中国科学院信息工程研究所 | 一种聚焦于用户核心兴趣的序列推荐方法及装置 |
CN116521972B (zh) * | 2022-01-19 | 2024-07-12 | 腾讯科技(深圳)有限公司 | 信息预测方法、装置、电子设备和存储介质 |
CN116777567A (zh) * | 2023-08-17 | 2023-09-19 | 山东恒诺尚诚信息科技有限公司 | 一种基于人工智能的订单生成方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105701683A (zh) * | 2016-01-05 | 2016-06-22 | 广州爱九游信息技术有限公司 | 应用投放管理方法和装置 |
CN109359140A (zh) * | 2018-11-30 | 2019-02-19 | 苏州大学 | 一种基于自适应注意力的序列推荐方法及装置 |
CN110008408A (zh) * | 2019-04-12 | 2019-07-12 | 山东大学 | 一种会话推荐方法、系统、设备及介质 |
CN110334245A (zh) * | 2019-05-20 | 2019-10-15 | 山东大学 | 一种基于时序属性的图神经网络的短视频推荐方法及装置 |
-
2020
- 2020-01-14 CN CN202010038437.XA patent/CN111259243B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105701683A (zh) * | 2016-01-05 | 2016-06-22 | 广州爱九游信息技术有限公司 | 应用投放管理方法和装置 |
CN109359140A (zh) * | 2018-11-30 | 2019-02-19 | 苏州大学 | 一种基于自适应注意力的序列推荐方法及装置 |
CN110008408A (zh) * | 2019-04-12 | 2019-07-12 | 山东大学 | 一种会话推荐方法、系统、设备及介质 |
CN110334245A (zh) * | 2019-05-20 | 2019-10-15 | 山东大学 | 一种基于时序属性的图神经网络的短视频推荐方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111259243A (zh) | 2020-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111259243B (zh) | 基于会话的并行推荐方法及系统 | |
US20200356851A1 (en) | Systems and methods for large scale semantic indexing with deep level-wise extreme multi-label learning | |
CN114238573B (zh) | 基于文本对抗样例的信息推送方法及装置 | |
Zheng et al. | $\mathcal {L} _p $-Norm IDF for Scalable Image Retrieval | |
Bhuyan et al. | Explainable machine learning for data extraction across computational social system | |
US20110313844A1 (en) | Real-time-ready behavioral targeting in a large-scale advertisement system | |
Zheng et al. | Model compression based on differentiable network channel pruning | |
RU2693324C2 (ru) | Способ и сервер преобразования значения категориального фактора в его числовое представление | |
CN113343078B (zh) | 基于主题模型聚类的Web API推荐方法 | |
CN112235327A (zh) | 异常日志检测方法、装置、设备和计算机可读存储介质 | |
EP2774061A1 (en) | Method and apparatus of ranking search results, and search method and apparatus | |
Mueen et al. | AWarp: Fast warping distance for sparse time series | |
CN111460251A (zh) | 数据内容个性化推送冷启动方法、装置、设备和存储介质 | |
Cheng et al. | Feedback-driven multiclass active learning for data streams | |
Su et al. | Semi-supervised knowledge distillation for cross-modal hashing | |
Zhou et al. | Jump: A joint predictor for user click and dwell time | |
CN116822651A (zh) | 基于增量学习的大模型参数微调方法、装置、设备及介质 | |
CN116383096A (zh) | 基于多指标时序预测的微服务系统异常检测方法及装置 | |
CN108446333B (zh) | 一种大数据文本挖掘处理系统及其方法 | |
CN117575275A (zh) | 一种基于mpr的物料需求云计算分析系统、方法及介质 | |
US20120221574A1 (en) | High-accuracy similarity search system | |
CN111079011A (zh) | 一种基于深度学习的信息推荐方法 | |
CN112765966B (zh) | 联想词去重方法及装置、计算机可读存储介质和电子设备 | |
JPWO2019167240A1 (ja) | 情報処理装置、制御方法、及びプログラム | |
CN115730139A (zh) | 基于异质多兴趣建模的短视频推荐方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |