CN110399553A - 一种基于对抗学习的会话推荐列表生成方法 - Google Patents
一种基于对抗学习的会话推荐列表生成方法 Download PDFInfo
- Publication number
- CN110399553A CN110399553A CN201910574578.0A CN201910574578A CN110399553A CN 110399553 A CN110399553 A CN 110399553A CN 201910574578 A CN201910574578 A CN 201910574578A CN 110399553 A CN110399553 A CN 110399553A
- Authority
- CN
- China
- Prior art keywords
- model
- session
- training
- indicate
- data set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 238000012549 training Methods 0.000 claims abstract description 51
- 238000012360 testing method Methods 0.000 claims abstract description 14
- 230000000750 progressive effect Effects 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 9
- 238000005070 sampling Methods 0.000 claims description 7
- 238000004088 simulation Methods 0.000 claims description 7
- 238000004422 calculation algorithm Methods 0.000 claims description 6
- 238000010845 search algorithm Methods 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 3
- 230000007774 longterm Effects 0.000 abstract description 4
- 230000008901 benefit Effects 0.000 abstract description 3
- 230000009286 beneficial effect Effects 0.000 abstract description 2
- 238000007781 pre-processing Methods 0.000 abstract 1
- 238000011156 evaluation Methods 0.000 description 4
- 238000009825 accumulation Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000013480 data collection Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000002203 pretreatment Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/958—Organisation or management of web site content, e.g. publishing, maintaining pages or automatic linking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0207—Discounts or incentives, e.g. coupons or rebates
- G06Q30/0226—Incentive systems for frequent usage, e.g. frequent flyer miles programs or point systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0631—Item recommendations
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- Accounting & Taxation (AREA)
- Finance (AREA)
- Strategic Management (AREA)
- Development Economics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Economics (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Entrepreneurship & Innovation (AREA)
- Game Theory and Decision Science (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提出了一种基于对抗学习的会话推荐列表生成方法,包括以下步骤:获取数据集,所述数据集包括若干会话,对数据集进行预处理,获得训练数据集和测试数据集;用预处理过的数据集预训练生成模型;生成模型生成负样本,用负样本和从训练数据集采样的正样本预训练判别模型;生成模型和判别模型相互对抗,迭代更新,直至生成模型收敛至最佳;将测试数据集放入训练好的生成模型生成会话推荐列表。本发明在满足推荐准确性与公平性的前提下,考虑当前推荐对未来的影响,有利于增加推荐系统的长期效益。
Description
技术领域
本发明涉及数据分析、深度学习领域,具体涉及一种基于对抗学习的会话推荐列表生成方法。
背景技术
电子商务网站的用户经常被大量可供销售的商品所淹没,通过为每个用户提供个性化和有用的推荐,推荐系统可用于增强用户体验。会话型推荐,即基于会话的推荐系统是机器学习和推荐系统社区中相对未被重视的问题,但是这类方法的现实应用却非常广泛。基于会话的推荐系统通常用于根据浏览器会话中编码的用户行为提出建议来改善用户体验,推荐的任务是根据当前会话中的动作序列预测用户下一步将点击的项目。
一般情况下,传统的推荐系统算法假设用户的历史记录和兴趣偏好都是可获取的,例如用户的身份信息、用户所点击的项目信息以及用户在网站上的浏览行为等等.可是在现实生活中,情况并不总是这样,很多情况下推荐系统算法不能捕获用户的身份信息,许多电子商务推荐系统(特别是小型零售商的推荐系统)和大多数新闻和媒体网站通常不会长时间跟踪访问其网站的用户ID,比如一些小型电子商务网站,用户不用登录就能购买他所需要的商品;或者网站的大部分顾客都是临时用户,登录一次购买后就不会再返回该网站,因此网站投资者不会浪费资源去保留用户的身份信息。即使用户的身份信息可以跟踪和保留,但许多用户在较小的电子商务站点上仅有一个或两个会话,并且在某些领域中,用户的行为通常显示基于会话的特征。因此,应该独立处理同一用户的后续会话。针对一些历史记录和用户偏好不可获取的电子商务场景,提出了基于会话的推荐方法,从短会话中生成推荐结果。现实生活中的推荐系统经常面临这样的问题:必须仅基于会话的短数据(例如小型体育用品网站)而不是长期用户历史。在这种情况下,广泛使用的矩阵分解方法并不准确。在实践中通常通过借助项目到项目的推荐来克服该问题,即推荐类似项目。最近针对基于会话的推荐任务提出了许多基于递归神经网络(RNN)的方法,通过对整个会话进行建模,可以提供更准确的推荐。但是,大多数现有基于会话的推荐方法只是尝试优化当前奖励,因此忽略了当前推荐可能给未来带来的影响,即对于一个部分产生的会话,一旦整个会话产生,平衡它的当前分数和未来分数是不平凡的。
发明内容
为解决上述问题,本发明提出了一种基于对抗学习的会话推荐列表生成方法,包括以下步骤:
获取数据集,所述数据集包括若干会话,对数据集进行预处理,获得训练数据集和测试数据集;
用训练数据集预训练生成模型;
生成模型生成负样本,用负样本和从训练数据集采样的正样本预训练判别模型;
生成模型和判别模型相互对抗,迭代更新,直至生成模型收敛至最佳;
将测试数据集放入训练好的生成模型生成会话推荐列表。
进一步地,所述用训练数据集预训练生成模型具体包括以下步骤:
将训练数据集批量输入到生成模型,得到归一化输出的向量的对应分量;通过最小化交叉熵损失预训练生成模型。
进一步地,所述正样本的数量和负样本的数量相同;通过最小化交叉熵损失预训练判别模型。
进一步地,所述生成模型和判别模型相互对抗,迭代更新,直至生成模型收敛至最佳,具体包括以下步骤:
生成模型Gθ生成会话序列,计算期望累积奖励;
计算生成模型的目标函数J(θ);
利用随机梯度下降算法更新生成模型Gθ的参数θ,从而更新生成模型Gθ;
更新后的生成模型Gθ生成负样本,从训练集S采样正样本,训练判别模型
重复上述步骤,对生成模型和判别模型交替训练,直到生成模型收敛至最佳,即生成模型的目标函数J(θ)达到最大。
进一步地,所述生成模型Gθ生成会话序列,计算期望累积奖励,具体为:生成模型Gθ生成会话序列X1:T=[x1,x2,…,xt,…,xT],计算期望累积奖励 的计算公式为:
其中,t表示时间步骤,X1:t-1表示当前的会话序列[x1,x2,…,xt-1];xt表示会话序列X1:T中的第t个项目,即下一个要点击的项目;当t<T时,表示当前会话不完整,需对当前会话尚未生成的项目进行采样,以得到完整的会话;表示对当前的会话序列X1:t-1通过采用第m次蒙特卡洛搜索算法遵循模拟策略Gβ(Gβ和Gθ参数共享)采样的会话序列;表示对会话子序列采用M次蒙特卡洛搜索,从模拟策略Gβ(Gβ和Gθ参数共享)中采样尚未生成的最后T-t个项目后得到的M条完整会话的集合,表示判别模型对生成会话的输出,表示M条会话的平均奖励;
当t=T时,表示当前会话为完整会话,表示判别模型对生成会话X1:t(t=T)的输出值。
进一步地,所述计算生成模型Gθ的目标函数J(θ)的具体公式为:
其中,t表示时间步骤,X1:t-1表示当前点击的所有项目[x1,x2,…,xt-1]组成的当前的会话序列;xt表示下一个要点击的项目;Gθ(xt|s)表示在当前的会话序列X1:t-1下,xt被选择的概率,表示从当前的会话序列X1:t-1开始,遵循生成模型Gθ点击项目xt的期望累积奖励。
进一步地,所述更新生成模型Gθ的参数θ的具体公式为:
其中,α表示学习速率,表示J(θ)关于生成模型的参数θ的梯度,具体计算公式为:
其中,E表示数学期望,X1:t-1~Gθ表示会话序列X1:t-1来自生成模型Gθ,表示Gθ(xt|X1:t-1)关于参数θ的梯度。
进一步地,所述训练判别模型的训练目标是最小化以下公式:
其中,E表示数学期望,pd(X)表示训练数据集的真实数据分布,X~pd(X)表示会话序列X来自训练数据集的真实数据分布pd(X),表示判别模型对会话序列X的输出值;X′~Gθ表示会话序列X′来自生成模型Gθ,表示判别模型对会话序列X′的输出值。
本发明与现有技术相比,有益效果在于:
本发明的方法关心的是长期的奖励(即期望累积奖励),所以在每个时间点上,不仅考虑了以前生成的项目恰当与否,还考虑了已生成序列中前缀子序列对生成后续项目的影响。
本发明在满足推荐准确性与公平性的前提下,考虑当前推荐对未来的影响,有利于增加推荐系统的长期效益。
附图说明
图1是本发明的流程示意图。
具体实施方式
下面结合附图对本发明作进一步详细描述。
在本公开中参照附图来描述本发明的各方面,附图中示出了许多说明的实施例。本公开的实施例不必定意在包括本发明的所有方面。应当理解,上面介绍的多种构思和实施例,以及下面更加详细地描述的那些构思和实施方式可以以很多方式中任意一种来实施,这是因为本发明所公开的构思和实施例并不限于任何实施方式。另外,本发明公开的一些方面可以单独使用,或者与本发明公开的其他方面的任何适当组合来使用。
下面以数据集Yoochoose为本发明的一实施例并结合图1对本发明进行进一步描述,具体描述如下。
本发明公开了一种基于对抗学习的会话推荐列表生成方法,包括以下步骤:
S1:获取数据集,所述数据集包括若干个会话;对数据集进行预处理,并将其分为训练数据集和测试数据集,预处理步骤具体包括:
S11:从网站https://2015.recsyschallenge.com/challenge.html下载数据集Yoochoose;
S12:过滤掉数据集中长度为1和点击次数小于5次的会话,并将数据集按时间顺序分成训练集和测试集;
S13:将会话长度设为19,长度超过设定值的被截断,短于19的用零填充。
S2:用训练数据集预训练生成模型:
将训练集批量输入到生成模型,得到归一化输出的向量的对应分量;
通过最小化交叉熵损失预训练生成模型。
S3:从生成模型生成会话负样本,联合从训练数据集采样的正样本预训练判别模型,具体包括以下步骤:
根据预训练好的生成模型Gθ生成一些长度为19的会话序列,作为负样本;
从训练数据集采样和负样本等量的正样本;
将正样本和负样本输入判别模型,通过最小化交叉熵损失预训练。
S4:生成模型和判别模型相互对抗,迭代更新,具体包括以下步骤:
S41:生成模型Gθ生成会话序列X1:T=[x1,x2,…,xt,…,xT],计算期望累积的最终奖励当会话序列X1:T为不完整会话时,采用蒙特卡洛搜索算法遵循模拟策略Gβ,对还未生成的最后T-t个项目进行采样,直到生成完整会话,计算期望累积的最终奖励的具体公式为:
其中,t表示时间步骤,X1:t-1表示当前的会话序列[x1,x2,…,xt-1],xt表示下一个要点击的项目,T表示完整会话中最后一个项目的标号;当t<T时,表示当前会话不完整,表示对当前的会话序列X1:t-1通过采用第m次蒙特卡洛搜索算法遵循模拟策略Gβ(Gβ和Gθ参数共享)采样的会话序列;表示对会话子序列采用M次蒙特卡洛搜索,从模拟策略Gβ中采样尚未生成的最后T-t个项目后得到的M条完整会话的集合;表示判别模型对生成的会话序列的输出值,
表示M条会话的平均奖励值;当t=T时,表示当前会话为完整会话,将判别模型对生成会话X1:T的输出值的直接作为期望累积的最终奖励。
S42:计算生成模型Gθ的目标函数J(θ):
其中,t表示时间步骤,X1:t-1表示当前点击的所有项目[x1,x2,…,xt-1]组成的当前的会话序列;xt表示下一个要点击的项目;Gθ(xt|X1:t-1)表示在当前的会话序列X1:t-1下,xt被选择的概率;表示从当前的会话序列X1:t-1开始,遵循生成模型Gθ点击项目xt的期望累积奖励。
S43:利用随机梯度下降算法更新生成模型Gθ的参数θ,具体公式为:
其中,α表示学习速率,表示J(θ)关于生成模型的参数θ的梯度,具体计算公式为:
其中,E表示数学期望,X1:t-1~Gθ表示会话序列X1:t-1来自生成模型Gθ,表示Gθ(xt|X1:t-1)关于参数θ的梯度。
S44:更新后的生成模型Gθ生成负样本,从训练集数据集采样正样本,训练判别模型判别模型的目标是最小化以下公式:
其中,E表示数学期望,pd(X)表示训练数据集的真实数据分布,X~pd(X)表示会话序列X来自训练数据集的真实数据分布pd(X),表示判别模型对会话序列X的输出值;X′~Gθ表示会话序列X′来自生成模型Gθ,表示判别模型对会话序列X′的输出值。
重复上述步骤,对生成模型和判别模型交替训练,直到生成模型收敛至最佳,即生成模型的目标函数J(θ)达到最大。
S5:将测试集放入训练好的生成模型生成推荐列表,利用召回率(Recall)、平均倒数排名(MRR)作为算法性能的评价指标。
将测试集中的会话序列逐项输入到训练好的生成模型Gθ中,计算生成模型Gθ对会话序列中下一个项目的排名。由于推荐系统一次只能推荐几个项目,用户可能选择的实际项目应该是列表的前几个项目,因此,将推荐列表长度截断为20;
使用评估指标Recall@20和MRR@20对推荐结果进行评估。
Recall@20,该指标统计测试集中用户真实点击的项目k在推荐列表前20位中出现的概率,具体公式为:
其中,N表示SRS系统(基于会话的推荐系统)中的测试数据的数量,nhit表示在前20位排名列表中用户真实点击的项目的数量,当真实点击的项目出现在排名列表的前20位置时发生命中。
MRR@20表示平均倒数排名,即所期望项目的倒数排名的平均值,如果排名高于20,则将倒数排名设置为零。
MRR@20的具体公式为:
其中,N表示SRS系统(基于会话的推荐系统)中的测试数据的数量,k为真实点击的项目;Rank(k)表示真实点击的项目k在推荐列表中的排名;
MRR是范围[0,1]的归一化分数,其值的增加反映了大多数“命中”将在推荐列表的排名位置中更高,这表明推荐系统的性能更好。
Recall@20和MRR@20的值越大,表明相应推荐系统的性能更好。
评价结果如表1所示,以Recall@20和MRR@20为评价指标,本发明的方法相比现有方法在Yoochoose数据集上实现了最先进的性能。
表1
其中,POP:流行度预测方法的原理是始终推荐训练集中最受欢迎的项目。
S-POP:该方法推荐当前会话中最受欢迎的项目。推荐列表会随着会话的增长而不断改变。使用全局流行度值来分解关系,该基线在具有高重复性的领域中很强。
Item-KNN:该方法推荐与实际项目类似的项目,相似性被定义为会话向量之间的余弦相似性,即它是会话中两个项目的共现次数除以出现单个项目的会话数量的乘积的平方根。还包括正则化以避免出现一些很少被点击的项目之间却有高相似性的这种情况。此基准是实际系统中最常见的项目到项目解决方案之一,它在“查看此项目的其他人也查看过这些项目”设置中提供了推荐。尽管它很简单,但它通常是一个强大的基线[8,16]。
BPR-MF:是常用的矩阵分解方法之一。它通过SGD优化成对排名目标函数。矩阵分解不能直接应用于基于会话的推荐,因为新会话没有预先计算好的特征向量。但是,我们可以通过使用到目前为止在会话中出现的项目的特征向量的平均值作为用户特征向量来克服这一点。换句话说,我们计算出推荐项目和到目前为止会话中的项目之间的特征向量的相似度,然后求相似度的平均值作为候选项目最后的推荐分值。
GRU4Rec:基于RNN的深度学习模型用于基于会话的推荐,由GRU单元组成,它利用会话并行和mini-batch的训练方式学习模型参数,并在训练期间采用基于排名的损失函数。
GRU4Rec+:基于GRU4Rec的改进模型,采用两种技术来提高GRU4Rec的性能,一是数据增强方法,二是考虑输入数据分布变化的方法。
本发明在满足推荐准确性与公平性的前提下,考虑当前推荐对未来的影响,有利于增加推荐系统的长期效益。本发明在召回率、平均倒数排名等推荐性能指标方面有着良好的表现。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种基于对抗学习的会话推荐列表生成方法,其特征在于,包括以下步骤:
获取数据集,所述数据集包括若干会话;对数据集进行预处理,获得训练数据集和测试数据集;
用训练数据集预训练生成模型;
生成模型生成负样本,用负样本和从训练数据集采样的正样本预训练判别模型;
生成模型和判别模型相互对抗,迭代更新,直至生成模型收敛至最佳;
将测试数据集放入训练好的生成模型生成会话推荐列表。
2.根据权利要求1所述的基于对抗学习的会话推荐列表生成方法,其特征在于,所述用训练数据集预训练生成模型具体包括以下步骤:
将训练数据集批量输入到生成模型,得到归一化输出的向量的对应分量;通过最小化交叉熵损失预训练生成模型。
3.根据权利要求1所述的基于对抗学习的会话推荐列表生成方法,其特征在于,所述正样本的数量和负样本的数量相同;通过最小化交叉熵损失预训练判别模型。
4.根据权利要求1-3中任一所述的基于对抗学习的会话推荐列表生成方法,其特征在于,所述生成模型和判别模型相互对抗,迭代更新,直至生成模型收敛至最佳,具体包括以下步骤:
生成模型Gθ生成会话序列,计算期望累积奖励;
计算生成模型的目标函数J(θ);
利用随机梯度下降算法更新生成模型Gθ的参数θ,从而更新生成模型Gθ;
更新后的生成模型Gθ生成负样本,从训练集S采样正样本,训练判别模型
重复上述步骤,对生成模型和判别模型交替训练,直到生成模型收敛至最佳,即生成模型的目标函数J(θ)达到最大。
5.根据权利要求4所述的基于对抗学习的会话推荐列表生成方法,其特征在于,所述生成模型Gθ生成会话序列,计算期望累积奖励,具体为:生成模型Gθ生成会话序列X1:T=[x1,x2,...,xt,...,xT],计算期望累积奖励的计算公式为:
其中,t表示时间步骤,X1:t-1表示当前的会话序列[x1,x2,…,xt-1];xt表示会话序列X1:T中的第t个项目,即下一个要点击的项目;当t<T时,表示当前会话不完整,需对当前会话尚未生成的项目进行采样,以得到完整的会话;表示对当前的会话序列X1:t-1通过采用第m次蒙特卡洛搜索算法遵循模拟策略Gβ采样的会话序列,Gβ和Gθ参数共享;表示对会话子序列采用M次蒙特卡洛搜索,从模拟策略Gβ中采样尚未生成的最后T-t个项目后得到的M条完整会话的集合,表示判别模型对生成会话的输出,表示M条会话的平均奖励;
当t=T时,表示当前会话为完整会话,表示判别模型对生成会话X1:t(t=T)的输出值。
6.根据权利要求5所述的基于对抗学习的会话推荐列表生成方法,其特征在于,所述计算生成模型Gθ的目标函数J(θ)的具体公式为:
其中,t表示时间步骤,X1:t-1表示当前点击的所有项目[x1,x2,…,xt-1]组成的当前的会话序列;xt表示下一个要点击的项目;Gθ(xt|X1:t-1)表示在当前的会话序列X1:t-1下,xt被选择的概率,表示从当前的会话序列X1:t-1开始,遵循生成模型Gθ点击项目xt的期望累积奖励。
7.根据权利要求6所述的基于对抗学习的会话推荐列表生成方法,其特征在于,所述更新生成模型Gθ的参数θ的具体公式为:
其中,α表示学习速率,表示J(θ)关于生成模型的参数θ的梯度,具体计算公式为:
其中,E表示数学期望,X1:t-1~Gθ表示会话序列X1:t-1来自生成模型Gθ,表示Gθ(xt|X1:t-1)关于参数θ的梯度。
8.根据权利要求7所述的基于对抗学习的会话推荐列表生成方法,其特征在于,所述训练判别模型的训练目标是最小化以下公式:
其中,E表示数学期望,pd(X)表示训练数据集的真实数据分布,X~pd(X)表示会话序列X来自训练数据集的真实数据分布pd(X),表示判别模型对会话序列X的输出值;X′~Gθ表示会话序列X′来自生成模型Gθ,表示判别模型对会话序列X′的输出值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910574578.0A CN110399553A (zh) | 2019-06-28 | 2019-06-28 | 一种基于对抗学习的会话推荐列表生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910574578.0A CN110399553A (zh) | 2019-06-28 | 2019-06-28 | 一种基于对抗学习的会话推荐列表生成方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110399553A true CN110399553A (zh) | 2019-11-01 |
Family
ID=68323642
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910574578.0A Pending CN110399553A (zh) | 2019-06-28 | 2019-06-28 | 一种基于对抗学习的会话推荐列表生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110399553A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111080400A (zh) * | 2019-11-25 | 2020-04-28 | 中山大学 | 一种基于门控图卷积网络的商品推荐方法及系统、存储介质 |
CN112115243A (zh) * | 2020-08-11 | 2020-12-22 | 南京理工大学 | 通过对时序时间相关性建模的会话表示学习方法 |
CN112203152A (zh) * | 2020-11-30 | 2021-01-08 | 华东交通大学 | 多模态对抗学习型视频推荐方法和系统 |
CN113076414A (zh) * | 2021-06-07 | 2021-07-06 | 北京明略软件系统有限公司 | 会话推荐方法、装置、计算机设备和存储介质 |
CN113221717A (zh) * | 2021-05-06 | 2021-08-06 | 支付宝(杭州)信息技术有限公司 | 一种基于隐私保护的模型构建方法、装置及设备 |
WO2021233209A1 (zh) * | 2020-05-20 | 2021-11-25 | 华为技术有限公司 | 歧视性样本生成方法和电子设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170031920A1 (en) * | 2015-07-31 | 2017-02-02 | RCRDCLUB Corporation | Evaluating performance of recommender system |
CN109360069A (zh) * | 2018-10-29 | 2019-02-19 | 郑州大学 | 一种基于成对对抗训练的推荐模型 |
-
2019
- 2019-06-28 CN CN201910574578.0A patent/CN110399553A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170031920A1 (en) * | 2015-07-31 | 2017-02-02 | RCRDCLUB Corporation | Evaluating performance of recommender system |
CN109360069A (zh) * | 2018-10-29 | 2019-02-19 | 郑州大学 | 一种基于成对对抗训练的推荐模型 |
Non-Patent Citations (1)
Title |
---|
JONAS FALKNER: "Designing a Recommender System based on Generative Adversarial Networks", 《INOVEX.DE》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111080400A (zh) * | 2019-11-25 | 2020-04-28 | 中山大学 | 一种基于门控图卷积网络的商品推荐方法及系统、存储介质 |
CN111080400B (zh) * | 2019-11-25 | 2023-04-18 | 中山大学 | 一种基于门控图卷积网络的商品推荐方法及系统、存储介质 |
WO2021233209A1 (zh) * | 2020-05-20 | 2021-11-25 | 华为技术有限公司 | 歧视性样本生成方法和电子设备 |
CN112115243A (zh) * | 2020-08-11 | 2020-12-22 | 南京理工大学 | 通过对时序时间相关性建模的会话表示学习方法 |
CN112115243B (zh) * | 2020-08-11 | 2023-06-16 | 南京理工大学 | 通过对时序时间相关性建模的会话表示学习方法 |
CN112203152A (zh) * | 2020-11-30 | 2021-01-08 | 华东交通大学 | 多模态对抗学习型视频推荐方法和系统 |
CN113221717A (zh) * | 2021-05-06 | 2021-08-06 | 支付宝(杭州)信息技术有限公司 | 一种基于隐私保护的模型构建方法、装置及设备 |
CN113076414A (zh) * | 2021-06-07 | 2021-07-06 | 北京明略软件系统有限公司 | 会话推荐方法、装置、计算机设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110399553A (zh) | 一种基于对抗学习的会话推荐列表生成方法 | |
Dahan et al. | Securities trading of concepts (STOC) | |
US8364627B2 (en) | Method and system for generating a linear machine learning model for predicting online user input actions | |
Chemin | The benefits and costs of microfinance: evidence from Bangladesh | |
Haaijer et al. | Response latencies in the analysis of conjoint choice experiments | |
US12112653B2 (en) | Systems and methods for providing tailored educational materials | |
CN109509033A (zh) | 一种消费金融场景下的用户购买行为大数据预测方法 | |
US20140143332A1 (en) | Discovering signature of electronic social networks | |
JP2002529823A (ja) | 完全サービス調査事務局および試験センターの方法および装置 | |
Xu et al. | Entrepreneurial learning and disincentives in crowdfunding markets | |
CN113535991B (zh) | 一种多媒体资源推荐方法、装置、电子设备及存储介质 | |
Chen et al. | Common pitfalls in training and evaluating recommender systems | |
Yankov et al. | Evaluation of explore-exploit policies in multi-result ranking systems | |
Phi et al. | Distributed representation based recommender systems in e-commerce | |
KR102223640B1 (ko) | 클라우드 기반 개인화 콘텐츠 구독 서비스 제공 시스템 및 방법 | |
CN110502639B (zh) | 基于问题贡献度的信息推荐方法、装置、及计算机设备 | |
Li et al. | Profit earning and monetary loss bidding in online entertainment shopping: the impacts of bidding patterns and characteristics | |
Decroos | Soccer analytics meets artificial intelligence: learning value and style from soccer event stream data | |
Casner | Learning while shopping: an experimental investigation into the effect of learning on consumer search | |
US20130030832A1 (en) | Method for On-line Prediction of Medical Diagnosis | |
Huntington-Klein | The search: The effect of the college scorecard on interest in colleges | |
US20100125520A1 (en) | Method and apparatus for on-line prediction of product concept success | |
Bae et al. | A recommending system for mobile games using the dynamic nonparametric model | |
Aljrees et al. | Contradiction in text review and apps rating: prediction using textual features and transfer learning | |
KR102234068B1 (ko) | 복권 구매 지원 장치 및 그 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191101 |
|
RJ01 | Rejection of invention patent application after publication |