CN113570154A - 融合用户动态兴趣的多粒度交互推荐方法及系统 - Google Patents
融合用户动态兴趣的多粒度交互推荐方法及系统 Download PDFInfo
- Publication number
- CN113570154A CN113570154A CN202110909719.7A CN202110909719A CN113570154A CN 113570154 A CN113570154 A CN 113570154A CN 202110909719 A CN202110909719 A CN 202110909719A CN 113570154 A CN113570154 A CN 113570154A
- Authority
- CN
- China
- Prior art keywords
- user
- comment
- representation
- item
- granularity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 63
- 230000002452 interceptive effect Effects 0.000 title claims abstract description 28
- 230000003993 interaction Effects 0.000 claims abstract description 95
- 239000013598 vector Substances 0.000 claims description 66
- 230000015654 memory Effects 0.000 claims description 32
- 238000012552 review Methods 0.000 claims description 32
- 239000011159 matrix material Substances 0.000 claims description 26
- 210000002569 neuron Anatomy 0.000 claims description 25
- 230000007246 mechanism Effects 0.000 claims description 17
- 238000011176 pooling Methods 0.000 claims description 9
- 230000006399 behavior Effects 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 8
- 238000003475 lamination Methods 0.000 claims description 6
- 238000013136 deep learning model Methods 0.000 claims description 4
- 230000002441 reversible effect Effects 0.000 claims description 4
- 235000019580 granularity Nutrition 0.000 description 17
- 238000013528 artificial neural network Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 7
- 238000013461 design Methods 0.000 description 7
- 238000003058 natural language processing Methods 0.000 description 7
- 238000013135 deep learning Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000004913 activation Effects 0.000 description 5
- 230000010339 dilation Effects 0.000 description 5
- 238000011160 research Methods 0.000 description 5
- 238000001914 filtration Methods 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 230000007774 longterm Effects 0.000 description 3
- 230000002829 reductive effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 230000004931 aggregating effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 239000002775 capsule Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- BULVZWIRKLYCBC-UHFFFAOYSA-N phorate Chemical compound CCOP(=S)(OCC)SCSCC BULVZWIRKLYCBC-UHFFFAOYSA-N 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0639—Performance analysis of employees; Performance analysis of enterprise or organisation operations
- G06Q10/06393—Score-carding, benchmarking or key performance indicator [KPI] analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0623—Item investigation
- G06Q30/0625—Directed, with specific intent or strategy
- G06Q30/0629—Directed, with specific intent or strategy for generating comparisons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0631—Item recommendations
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Human Resources & Organizations (AREA)
- General Physics & Mathematics (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- Development Economics (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Accounting & Taxation (AREA)
- Finance (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Entrepreneurship & Innovation (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Game Theory and Decision Science (AREA)
- Tourism & Hospitality (AREA)
- Quality & Reliability (AREA)
- Operations Research (AREA)
- Educational Administration (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了融合用户动态兴趣的多粒度交互推荐方法及系统,获取物品评论集和用户评论集;基于物品评论集和用户评论集,获取基于物品评论的多粒度表示和用户评论的多粒度表示;基于物品评论的多粒度表示和用户评论的多粒度表示,获取基于评论特征交互的预测得分;基于物品评论的多粒度表示和用户评论的多粒度表示,获取用户动态兴趣与物品的相似性得分;将基于评论特征交互的预测得分,和用户动态兴趣与物品的相似性得分,输入到门控单元中,得到目标用户给物品的预测得分;按照预测得分由高到低对物品进行排序,排序后的物品进行推荐。本发明利用用户的动态兴趣个性化建模物品的表示,最终得到用户与物品的兴趣度匹配。
Description
技术领域
本发明涉及物品推荐技术领域,特别是涉及融合用户动态兴趣的多粒度交互推荐方法及系统。
背景技术
本部分的陈述仅仅是提到了与本发明相关的背景技术,并不必然构成现有技术。
评分预测始终是推荐系统的热点研究问题,在大多数的电子商务平台,如亚马逊和Yelp,用户可以根据自己实际体验为物品进行打分和评价。评论文本中通常包含有物品的特征信息(如材质,质量等),有用的评论对用户有很大的参考价值。同时评论文本也在一定程度上反映出用户的喜好,这为系统建模用户偏好提供了有用信息。
早期的一些研究工作包括:Probabilistic matrix factorization(PMF)、Collaborative Deep Learning(CDL)等协同过滤模型,通过用户历史(点击,消费,评级等)对用户进行建模,取得了不错的效果。随着基于人工神经网络的深度学习和学习代表性词向量(如Glove、Bert等)取得了巨大的进步,引发了深度学习技术应用于自然语言处理的热潮。利用这些有意义的词向量,几乎可以将所有的深度学习框架应用到自然语言处理中。因此,人们开始使用深度学习技术从文本中学习潜在的特征信息。
使用较为广泛的神经网络包括,卷积神经网络(CNN),循环神经网络(RNN)等,这些网络已经在自然语言处理领域取得了很好的效果。近年来,自然语言处理被应用到推荐领域,Kim D和Zheng L采用CNN来建模用户和商品;Tay Y利用一个类似RNN的门控机制,预期能够捕捉文本的重要信息来表示评论特征。这些模型都尝试利用神经网络精确的捕捉评论文本的重要特征信息,取得了不错的效果。
神经网络得到了推荐系统的广泛应用,但因其黑盒属性,大大降低了其可信度。因此,人们提出了注意力机制,并用它来区分潜在特征的重要性,以提高推荐的可解释性。注意力机制自从被提出用以解决机器翻译问题以来,现已经成为神经网络研究中的一个非常重要的研究领域。注意力模型被广泛的应用到自然语言处理、推荐系统和计算机视觉等人工智能相关领域。
Seo S在Zheng L的基础上引入了词级注意力,为不同的词赋予不同的权重,将加权后的文本送入CNN,以获得更精确的用户和物品表示;Wu L利用注意力机制来实现评论的上下文感知表示;Chen C认为不同的评论对建模用户和商品的重要性不同,因此引入注意力机制来刻画每一条评论的权重。这些模型都试图利用注意力机制从评论信息中提取有用信息,取得了不错的效果,并且提高了评分预测的可解释性;Li C和Yang Z利用类似于多注意力机制的胶囊网络来提取文本中不同方面的重要信息。这些模型都试图利用注意力机制从评论文本中提取有用信息,取得了不错的效果,并且提高了评分预测的可解释性。
在早期工作中,基于用户物品交互的协同过滤方法十分流行,但是协同过滤方法有两大问题,首先,在数据稀疏时模型的预测精度会明显下降;其次,协同过滤算法的可扩展性不强,无法适应系统规模的不断扩大。
然而,即便是现有的深度学习方法,他们也仅仅是为用户评论或文档生成一个单一的向量表示,并在此基础上做用户和物品的相似度匹配。从空间层面考虑,用户的偏好信息会隐藏在评论文本的不同粒度中,例如用户表达对一个物品的喜爱可能的通过一个单词(great),一个词组(I enjoy it)或一个完整的句子。这就导致模型为评论聚合单一特征的过程中难免会丢失文本的重要信息。简单来说,他们没有考虑评论的多粒度信息,且不同粒度信息对构建用户偏好的有用性也是不同的。
就时间层面而言,当前的模型大多不考虑用户偏好或是只考虑用户的静态偏好,只是以静态和独立的方式从评论中提取用户和物品的潜在特征。他们只为用户和物品分配一个静态特征向量,最后通过静态的特征交互得到预测分数。事实证明,用户的兴趣是随时间不断变化的,用户兴趣变化会反映在不同阶段的评论文本中。图1显示了用户在四个时间段给出的评论文本,通过用户前两个阶段评论中的“磨砂机”、“锯”、“钉枪”等等可以猜测出用户可能正在施工,更倾向于购买工具类商品;一段时间后,通过后两个阶段评论中的“灯光”、“最喜欢的颜色”等,可以看出,用户已经更倾向于购买家具装饰类商品。
综上所述,现有技术的物品推荐没有考虑多个特征,尤其是没有考虑用户的动态兴趣特征,导致目前的物品推荐结果不够精确。
发明内容
为了解决现有技术的不足,本发明提供了融合用户动态兴趣的多粒度交互推荐方法及系统;
第一方面,本发明提供了融合用户动态兴趣的多粒度交互推荐方法;
融合用户动态兴趣的多粒度交互推荐方法,包括:
获取物品评论集和用户评论集;基于物品评论集和用户评论集,获取基于物品评论的多粒度表示和用户评论的多粒度表示;
基于物品评论的多粒度表示和用户评论的多粒度表示,获取基于评论特征交互的预测得分;
基于物品评论的多粒度表示和用户评论的多粒度表示,获取用户动态兴趣与物品的相似性得分;
将基于评论特征交互的预测得分,和用户动态兴趣与物品的相似性得分,输入到门控单元中,得到目标用户给物品的预测得分;按照预测得分由高到低对物品进行排序,排序后的物品进行推荐。
第二方面,本发明提供了融合用户动态兴趣的多粒度交互推荐系统;
融合用户动态兴趣的多粒度交互推荐系统,包括:
多粒度表示获取模块,其被配置为:获取物品评论集和用户评论集;基于物品评论集和用户评论集,获取基于物品评论的多粒度表示和用户评论的多粒度表示;
基于评论特征交互的预测得分获取模块,其被配置为:基于物品评论的多粒度表示和用户评论的多粒度表示,获取基于评论特征交互的预测得分;
用户动态兴趣与物品的相似性得分获取模块,其被配置为:基于物品评论的多粒度表示和用户评论的多粒度表示,获取用户动态兴趣与物品的相似性得分;
推荐模块,其被配置为:将基于评论特征交互的预测得分,和用户动态兴趣与物品的相似性得分,输入到门控单元中,得到目标用户给物品的预测得分;按照预测得分由高到低对物品进行排序,排序后的物品进行推荐。
第三方面,本发明还提供了一种电子设备,包括:
存储器,用于非暂时性存储计算机可读指令;以及
处理器,用于运行所述计算机可读指令,
其中,所述计算机可读指令被所述处理器运行时,执行上述第一方面所述的方法。
第四方面,本发明还提供了一种存储介质,非暂时性地存储计算机可读指令,其中,当所述非暂时性计算机可读指令由计算机执行时,执行第一方面所述方法的指令。
与现有技术相比,本发明的有益效果是:
本发明提出了一种融合用户动态兴趣的基于多粒度文本交互的神经网络模型。与先前工作将评论单粒度建模然后做文本匹配不同,本发明的模型从多个粒度对文本进行建模,充分挖掘评论文本中蕴含的偏好信息,并为用户和物品做多粒度下的个性化匹配;同时,本发明意识到用户不同阶段的评论文本中可以体现用户的兴趣变化,于是学习序列建模工作从历史评论中捕获用户的动态兴趣,并利用用户的动态兴趣个性化建模物品的表示,最终得到用户与物品的兴趣度匹配。此外,本发明还设计了一种门控融合机制,使模型可以自适应的将两个模块得分进行融合,有效分配两个模块得分的权重,提高了模型的精度。实验结果表明,在五个标准数据集上本发明的模型都获得了较先进的性能。此外,实验证明,本发明融合用户的动态兴趣后不仅提高了模型的性能,还增强了评分预测的鲁棒性和可解释性。
本发明附加方面的优点将在下面的描述中部分给出,或通过本发明的实践了解到。
附图说明
构成本发明的一部分的说明书附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。
图1为第一个实施例的用户物品评论兴趣转移示意图;
图2为第一个实施例的物品推荐模型示意图;
图3(a)~图3(c)为第一个实施例的扩张卷积的原理图;
图4为第一个实施例的具有有序神经元的长短期记忆人工神经网络原理图;
图5为第一个实施例的门控单元原理示意图。
具体实施方式
应该指出,以下详细说明都是示例性的,旨在对本发明提供进一步的说明。除非另有指明,本发明使用的所有技术和科学术语具有与本发明所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本发明的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
本实施例所有数据的获取都在符合法律法规和用户同意的基础上,对数据的合法应用。
实施例一
本实施例提供了融合用户动态兴趣的多粒度交互推荐方法;
融合用户动态兴趣的多粒度交互推荐方法,包括:
S1:获取物品评论集和用户评论集;基于物品评论集和用户评论集,获取基于物品评论的多粒度表示和用户评论的多粒度表示;
S2:基于物品评论的多粒度表示和用户评论的多粒度表示,获取基于评论特征交互的预测得分;
S3:基于物品评论的多粒度表示和用户评论的多粒度表示,获取用户动态兴趣与物品的相似性得分;
S4:将基于评论特征交互的预测得分,和用户动态兴趣与物品的相似性得分,输入到门控单元中,得到目标用户给物品的预测得分;按照预测得分由高到低对物品进行排序,排序后的物品进行推荐。
进一步地,所述S1:获取物品评论集和用户评论集;基于物品评论集和用户评论集,获取基于物品评论的多粒度表示和用户评论的多粒度表示;具体包括:
S11:获取物品评论集和用户评论集;其中,物品评论集,是指多个用户对指定物品的评论文本的集合;用户评论集,是指目标用户在不同时间点对不同物品的评论文本的集合;
S12:将物品评论集的物品评论文本输入到词嵌入层中,得到物品评论向量;将用户评论集中的用户评论文本输入到词嵌入层中,得到用户评论向量;
S13:将物品评论向量输入到第一扩张卷积层中,得到物品评论的多粒度表示;将用户评论向量输入到第二扩张卷积层中,得到用户评论的多粒度表示。
进一步地,所述物品评论的多粒度表示,包括:物品评论的若干个单词级表示、物品评论的若干个短语级表示和物品评论的若干个句子级表示。
进一步地,所述用户评论的多粒度表示,包括:用户评论的若干个单词级表示、用户评论的若干个短语级表示和用户评论的若干个句子级表示。
示例性的,本发明提出了一个融合用户动态兴趣的多粒度文本交互模型来处理评分预测任务,该模型融合了文本的多粒度特征信息和用户的动态偏好信息,名为动态多粒度交互推荐模型(dynamic multigranular interaction recommendation,DMIR)。
DMIR由两个独立的特征学习模块组成:基于评论的特征交互模块和基于兴趣的用户-物品交互模块。在基于评论的特征交互中,DMIR没有像以往工作一样选用普通的卷积神经网络,而是使用多维扩张卷积神经网络来捕获隐藏在不同粒度的文本片段中的偏好信息。同时,模型为不同粒度的偏好信息编码基于用户个性化的特征表示,然后通过用户和物品的特征交互构造用户-物品的交互得分。本发明认为,仅仅依据从评论中捕获的偏好信息不足以获得用户物品对的最终得分。因此,在基于兴趣的用户-物品交互模块中,DMIR还从用户不同阶段的评论文本中提取用户的动态偏好,并以此获得用户-物品交互的另一种交互得分。综上,本发明的模型是一个多任务的评分预测模型,最后模型会得到两个基于不同逻辑的得分,本发明将两个得分通过门控机制进行动态融合,以获得最后的预测得分。
本发明的结构由两个重要部分组成,本发明将其分为:基于评论的特征交互模块和基于兴趣的用户-物品交互模块,其中基于评论的特征交互模块致力于从评论的多粒度文本中捕获用户的偏好信息,基于兴趣的用户-物品交互模块致力于提取用户和物品的动态特征表示。两个交互模块经过门控自适应融合得到最终的评分预测。如图2所示。
基于评论文本的评分预测任务认为,用户所写的评论包含了丰富的语义信息。本发明认为用户的偏好信息隐藏在不同粒度的文本片段中,且对构建用户的偏好表示有不同的价值。此外,物品的评论文本由众多用户的评论组成其质量更是有很大差距。因此,本发明选择将评论建模为独立文本,而非将所有的评论组成一个单一的评论文档。于是有和其中,Du表示数量为n的用户评论集,Di表示数量为m的物品评论集。
基于评论的特征交互任务主要是为用户-物品的评论文档推断出潜在的特征向量。卷积已经成功运用到自然语言处理的众多领域,并被广泛用于文档的表示学习。与先前工作一样,本发明在词嵌入层使用词袋模型Glove为单词提取更精确的向量表示。不同的是,本发明并没有将用户评论聚合成一个单一向量,而是使用多维扩张卷积从评论的多粒度文本中捕获重要语义信息。
然后,本发明利用多头注意力机制使评论文本中不同粒度的重要信息得到了更多的重视,帮助本发明获得了重要的用户意图。最后,根据用户和物品特征信息得到基于评论的特征交互预测。由于用户和物品评论的多粒度表示学习过程相似,因此本节中仅介绍单个的评论文本编码过程,也即Du和Di统一用D来表示,假设评论的长度为T。
评论的重要语义信息被隐含在不同粒度的文本片段中,因此本发明采用扩张卷积神经网络来学习评论的多粒度表示。对于一个评论文本D=[w1,w2,...,wT],词嵌入层首先将每个单词映射到对应的嵌入wi∈Rd,其中,d表示嵌入的维度。然后,将D输入到扩张卷积层,捕获文本中的多粒度语义特征信息。
与标准卷积每一步都对连续子序列进行卷积不同,扩张卷积通过每次跳过δ个输入来使卷积获得更大的感受野,其中,δ就是扩张率,对于上下文中心单词xt和大小为2w+1的卷积核W,扩张卷积的原理如图3(a)、图3(b)、图3(c)所示,同样为3×3的卷积核,通过改变扩张率,卷积核的感受野变为7×7、15×15。
扩张卷积的公式可以表示为:
为了学习评论文本的多粒度表示,本发明设计了三个不同的卷积核,他们采用不同的扩张率,以确保卷积层在覆盖不同长度语义特征的同时又不会遗漏原始输入序列中的每个元素。扩张卷积层通过较小的扩张率,可以获得单词和短语粒度的语义特征;通过较大的扩张率,可以捕获句子层次的长期依赖关系,这种编码方式提高了模型的并行能力,一定程度上优于循环神经网络。
与大多数自然语言处理方法一样,本发明认为用户和项目的评论文本中可能涉及一些无关方面,为避免引入太多的噪声信息,以及为了防止最大池化因缩减像素采样特性而忽略重要特征,只保留最重要的特征,本发明选用mean-pooling作为卷积的输出。经过扩张卷积层,用户评论的多粒度(单词,短语,句子)表示分别可被表述为:物品评论的多粒度(单词,短语,句子)表示分别可被表述为:其中,n是用户评论的个数,m是物品评论的个数,f为卷积层滤波器的数量。
进一步地,所述S2:基于物品评论的多粒度表示和用户评论的多粒度表示,获取基于评论特征交互的预测得分;具体包括:
S21:物品评论的多粒度表示,采用第一多头注意力层进行处理,得到物品评论的个性化表示;基于用户评论的多粒度表示,采用第二多头注意力层进行处理,得到用户评论的个性化表示;
S22:将物品评论的个性化表示与用户评论的个性化表示相乘得到交互矩阵,对交互矩阵列项相加,得到交互向量;
S23:基于交互向量,得到基于评论特征交互的预测得分。
进一步地,所述S21:基于物品评论的多粒度表示,采用第一多头注意力层进行处理,得到物品评论的个性化表示;基于用户评论的多粒度表示,采用第二多头注意力层进行处理,得到用户评论的个性化表示;具体包括:
S211:物品评论的若干个单词级表示,利用第一多头注意力层进行加权求和,得到物品评论的单词级个性化表示;
S212:物品评论的若干个短语级表示,利用第一多头注意力层进行加权求和,得到物品评论的短语级个性化单词级表示;
S213:物品评论的若干个句子级表示,利用第一多头注意力层进行加权求和,得到物品评论的句子级个性化表示;
S214:用户评论的若干个单词级表示,利用第二多头注意力层进行加权求和,得到用户评论的单词级个性化表示;
S215:用户评论的若干个短语级表示,利用第二多头注意力层进行加权求和,得到用户评论的短语级个性化单词级表示;
S216:用户评论的若干个句子级表示,利用第二多头注意力层进行加权求和,得到用户评论的句子级个性化表示。
示例性的,本发明认为,用户对不同的项目评论有很大的个性化差异,同时同一项目的不同评价对用户的参考价值也是不同的。简单来说,对于用户而言不同的评论对于推测用户-项目的评级分数有着不同的重要性。此外,为了兼顾不同粒度的评论文本特征,本发明设计了一个多头注意力层来学习评论文本对于用户的个性化表示。
本发明使用用户id作为用户的唯一标识,本发明希望使用用户id来编码用户的长期偏好以及行为特征。用户id经嵌入层被编码为Eu∈Rd。其中,d为嵌入的维度。
依照上文所述,依旧以用户评论文档Du为例,本发明利用这种多头注意力机制,让评论文本中不同粒度的重要信息得到了更多的重视,帮助本发明获得了很重要的用户意图,使得本发明在推荐的过程中,通过不断的学习不同阶段的用户评论更好的捕捉到了用户的动态偏好。评论文本集中第j个文本的词级注意力权重计算为:
其中,Vw和vw为投影参数。词粒度下的用户评论文本集的最终表示是单一评论文本的加权总和,表述如下:
进一步地,所述S22:将物品评论的个性化表示与用户评论的个性化表示相乘得到交互矩阵,对交互矩阵列项相加,得到交互向量;具体包括:
S221:将用户评论的单词级个性化表示,与物品评论的单词级个性化表示相乘,得到单词级交互矩阵,对单词级交互矩阵列项相加,得到单词级交互向量;
S222:将用户评论的短语级个性化表示,与物品评论的短语级个性化表示相乘,得到短语级交互矩阵,对短语级交互矩阵列项相加,得到短语级交互向量;
S223:将用户评论的句子级个性化表示,与物品评论的句子级个性化表示相乘,得到句子级交互矩阵,对句子级交互矩阵列项相加,得到句子级交互向量。
示例性的,点积操作常被用于评分预测任务。然而,点积操作有一个很大的弊端,即向量间各元素是独立交互的。也就是说,用户向量中每个维度只能与项目向量的对应维度进行交互,这就导致了模型不能很好的学习用户-物品的复杂交互行为。因此,本发明对点积操作做了优化,本发明称之为逆点积操作,这使得向量各维度元素在融合其他维度元素信息的同时又不失特异性。首先,本发明将用户和物品对应维度的特征向量相乘得到交互矩阵,然后对矩阵列项相加,上述操作可被公式为:
进一步地,所述S23:基于交互向量,得到基于评论特征交互的预测得分;具体包括:
将单词级交互向量、短语级交互向量和句子级交互向量,送入全连接层中,得到基于评论特征交互的预测得分。
示例性的,将各粒度的交互向量送入全连接层来获得预测分数。本发明将基于评论特征交互的预测得分定义如下:
其中,α为relu激活函数,W1、W2和b1、b2是要学习的参数。
实验证明本发明的逆点积操作优于点积操作、回归以及MLP等常规操作。
进一步地,所述S3:基于物品评论的多粒度表示和用户评论的多粒度表示,获取用户动态兴趣与物品的相似性得分;具体包括:
S31:将物品评论的多粒度表示和每条评论发出者的用户ID向量表示进行拼接,将拼接后的向量表示输入到第一具有有序神经元的长短期记忆网络ON-LSTM(OrderedNeurons Long short-term memory),得到融合用户兴趣和物品评论中层级关系的物品表示;所述每条评论发出者的用户ID向量表示,是将每条评论发出者的用户ID输入到用户嵌入层embedding后得到的;用户ID向量表示学习了用户的行为特征;
S32:将用户评论的多粒度表示进行拼接,将拼接结果与目标用户ID向量表示,输入到第二具有有序神经元的长短期记忆网络ON-LSTM,目标用户ID向量表示作为ON-LSTM的初始化隐藏状态;
将第二具有有序神经元的长短期记忆网络ON-LSTM的输出值再输入到平均池化层中,得到用户动态兴趣偏好表示;
S33:将融合用户兴趣与物品评论中层级关系的物品表示,和用户动态兴趣偏好表示,输入到多层感知器中,得到用户动态兴趣与物品的相似性得分。
示例性的,S32:通常,评论文本中不仅包含了丰富的语义信息,同时还包含了大量的用户偏好信息,而用户的偏好往往会随时间发生变化。本发明认为,从用户不同阶段的评论文本中捕捉这种偏好的动态变化可以得到用户最真实的兴趣表示,当前的评分预测任务都忽略了这一点。在这里,本发明将介绍如何根据用户的历史行为对用户偏好进行建模,以及如何根据用户偏好对物品进行编码。
受序列推荐的启发,本发明认为不同阶段的评论文本可以反应用户的动态兴趣变化。在现实生活中,用户的某些兴趣可能转移的很快,有些兴趣则变化的很慢甚至不变。因此,用户随时间变化的兴趣因子有着复杂的强弱关系,强偏好信息不易发生改变,弱偏好信息很容易发生改变。
对比普通长短期记忆人工神经网络(LSTM)中各个神经元相互独立的特点,具有有序神经元的长短期记忆人工神经网络(ON-LSTM)则试图将神经元排序,并在顺序中嵌入特定的结构信息模型图如图3(a)~图3(c)所示。该模型已经在语言建模和逻辑推断等多个任务上取得了极好的性能。ON-LSTM的特性使得它能够区分高低层次信息,帮助本发明从用户不同时期的评论行为里学习用户层次化的偏好信息。原理如图4所示。
高层级的信息不容易被遗忘门过滤,可以在高层级编码区保留更久,而低层级信息则更容易被更新或遗忘。ON-LSTM增加了两个门控来实现这个功能,分别为主遗忘门和主输入门。它们使用了新的计算函数(cs),根据在此状态之前的神经元的状态控制要存储和遗忘的信息。这样的特性能够使模型在编码用户不同时期的评论文本的过程中将无用、冗余的信息进行过滤和更新,而对重要的信息进行保留。因此,用户的长期偏好可以长期保留在神经元中,而用户的短期偏好则被很快的更新掉。对于多层扩张卷积输出的多粒度评论表示,本发明将其拼接为Tu,作为本层的输入。使用以下式子来表示该网络结构:
ft=σ(WfTt u+Ufht-1+bf) (10)
it=σ(WiTt u+Uiht-1+bi) (11)
ot=σ(WoTt u+Uoht-1+bo) (12)
此外,为了在用户兴趣动态建模的过程中利用不随时间变化的兴趣因子,与先前工作一样,本发明选择使用学习来的用户嵌入Eu来初始化ON-LSTM的隐藏状态hu,0=WEu+b。
平均池化操作被很自然的用于处理文本信息,这样可以保留更多的语义信息。受此启发,本发明采用平均池化操作来编码每一时刻的隐藏状态,这样可以最大限度的保留用户在不同时间段的重要偏好信息,具体公式为:
示例性的,S31:在这里,本发明将介绍如何根据用户动态兴趣偏好对物品进行个性化编码。与用户的评论特征处理方法相似,本发明将多粒度的评论特征向量进行拼接。考虑到物品的评论由众多用户评论组成,其参考价值差距极大,有人喜欢提供详细的优质评论,有人只是简单的表达满意程度。
因此,本发明将用户嵌入Eu(学习了用户的行为特征)拼接到评论中,作为评论的置信度标识。这一步可用公式表达为:
其中,’;’表示向量拼接,值得注意的是Eu对应的是每条评论的用户嵌入而并非是将要预测的用户嵌入。
与用户动态兴趣建模类似,本发明仍然采用ON-LSTM来捕捉一个物品评论之间复杂的层级关系。其隐藏状态更新可被简单公式为:
hi,t=on-lstm(hi,t-1,Tt i) (23)
其中,hi,t-1表示模型上一时刻输出的隐藏状态,Tt i表示物品t时刻的评论表示。
其中,Vw和vw为投影参数。
最后,本发明计算所有评论文本的加权和,得到融合了用户兴趣和物品评论中复杂层级关系的物品表示:
示例性的,S33:为了预测用户u是否会对物品i产生兴趣,本发明计算了u的动态兴趣与物品i的评论内容和交互风格的相似程度。
本发明采用MLP机制来度量用户兴趣和物品的相似性:
其中,α为relu激活函数,W1、W2和b1、b2是要学习的参数。
进一步地,如图2所示,所述融合用户动态兴趣的多粒度交互推荐方法,采用深度学习模型来实现,深度学习模型的具体结构包括:
词嵌入层,所述词嵌入层的输入端用于输入物品评论和用户评论;所述词嵌入层的输出端分别与第一扩张卷积层的输入端和第二扩张卷积层的输入端连接;第一扩张卷积层的输出端与第一多头注意力层的输入端连接;第二扩展卷积层的输出端与第二多头注意力层的输入端连接;第一多头注意力层的输出端与逆点积层的输入端连接,第二多头注意力层的输出端与逆点积层的输入端连接;逆点积层的输出端与第一预测层连接;所述预测层通过全连接层来实现;
第一扩张卷积层的输出端与第一具有有序神经元的长短期记忆网络ON-LSTM的输入端连接;第二扩张卷积层的输出端与第二具有有序神经元的长短期记忆网络ON-LSTM的输入端连接;
第一具有有序神经元的长短期记忆网络ON-LSTM的输出端与注意力机制层的输入端连接;注意力层的输出端与第二预测层连接;
第二具有有序神经元的长短期记忆网络ON-LSTM的输出端与平均池化层的输入端连接,平均池化层的输出端与注意力层的输入端连接;
第一具有有序神经元的长短期记忆网络ON-LSTM的输入端还与用户嵌入层embedding的输出端连接;
第二具有有序神经元的长短期记忆网络ON-LSTM的输入端也与用户嵌入层embedding的输出端连接;
第一多头注意力层的输入端和第二多头注意力层的输入端,均与用户嵌入层embedding的输出端连接。
词嵌入层是一种将文本中的词转换成数字向量的方法,目的是为了使用标准机器学习算法来对它们进行分析,本发明使用的是Glove。它可以将单词转化为对应的向量表示,提高模型精度。第一多头注意力层是通过多头注意力机制网络得到的。与常用的点积操作是将两个向量内积后元素加和得到的是一个标量不同的是:逆点积是将两个向量相乘得到一个向量各元素交互矩阵,后将矩阵的列元素相加得到一个向量,送到预测层。
示例性的,S4:将基于评论特征交互的预测得分,和用户动态兴趣与物品的相似性得分,输入到门控单元中,得到目标用户给物品的预测得分;按照预测得分由高到低对物品进行排序,排序后的物品进行推荐;具体包括:
通过学习文本多粒度特征交互以及捕捉用户动态兴趣分别获得相应的匹配分数。本发明期望两种匹配分数可以互相补充,以使得模型能够获得更好的预测性能。但通常情况下,本发明无法确定一个用户的行为是取决于自己的兴趣还是更倾向于听取其他用户的评论建议。简单来说,本发明无法确定用户更倾向于哪一种匹配。因此,本发明设计了一个门控单元,来自适应的平衡两种匹配得分,如图5所示。两种预测结果被更新如下:
其中,α是门控权重,可被公式为:
其中,σ是sigmoid激活函数,W,b是要学习的参数矩阵。
最终,本发明将综合得分定义为:
由于本发明研究的重点是评分预测问题,因此本发明选择较为常用的均方差损失作为目标函数,获得模型损失:
其中,τ是训练集,y是用户u给物品i的真实评分。
本发明公开了一种新颖的动态多粒度交互推荐模型,该模型可以用于解决评分预测任务。首先,模型并没有将评论聚合成一个单一向量,而是通过扩张卷积从每条评论的多粒度片段中提取特征表示;其次,模型利用不同粒度的特征表示构建用户和物品的个性化细粒度交互;同时,模型根据用户在不同时期与物品的交互行为分配用户的动态兴趣表示,并获得基于动态兴趣的用户和物品交互;最后,本发明设计了一种门控机制来融合两种交互,用于最终的评分预测。本发明在五个标准数据集上进行了大量的实验,结果表明与最近提出的先进模型相比,提出的DMIR模型在评分预测方面取得了实质性的提高。同时,融合用户的动态兴趣和文本的多粒度交互不仅提高了模型的性能,还增强了评分预测的鲁棒性和可解释性。
实施例二
本实施例提供了融合用户动态兴趣的多粒度交互推荐系统;
融合用户动态兴趣的多粒度交互推荐系统,包括:
多粒度表示获取模块,其被配置为:获取物品评论集和用户评论集;基于物品评论集和用户评论集,获取基于物品评论的多粒度表示和用户评论的多粒度表示;
基于评论特征交互的预测得分获取模块,其被配置为:基于物品评论的多粒度表示和用户评论的多粒度表示,获取基于评论特征交互的预测得分;
用户动态兴趣与物品的相似性得分获取模块,其被配置为:基于物品评论的多粒度表示和用户评论的多粒度表示,获取用户动态兴趣与物品的相似性得分;
推荐模块,其被配置为:将基于评论特征交互的预测得分,和用户动态兴趣与物品的相似性得分,输入到门控单元中,得到目标用户给物品的预测得分;按照预测得分由高到低对物品进行排序,排序后的物品进行推荐。
此处需要说明的是,上述多粒度表示获取模块、基于评论特征交互的预测得分获取模块/用户动态兴趣与物品的相似性得分获取模块和推荐模块对应于实施例一中的步骤S1至S4,上述模块与对应的步骤所实现的示例和应用场景相同,但不限于上述实施例一所公开的内容。需要说明的是,上述模块作为系统的一部分可以在诸如一组计算机可执行指令的计算机系统中执行。
上述实施例中对各个实施例的描述各有侧重,某个实施例中没有详述的部分可以参见其他实施例的相关描述。
所提出的系统,可以通过其他的方式实现。例如以上所描述的系统实施例仅仅是示意性的,例如上述模块的划分,仅仅为一种逻辑功能划分,实际实现时,可以有另外的划分方式,例如多个模块可以结合或者可以集成到另外一个系统,或一些特征可以忽略,或不执行。
实施例三
本实施例还提供了一种电子设备,包括:一个或多个处理器、一个或多个存储器、以及一个或多个计算机程序;其中,处理器与存储器连接,上述一个或多个计算机程序被存储在存储器中,当电子设备运行时,该处理器执行该存储器存储的一个或多个计算机程序,以使电子设备执行上述实施例一所述的方法。
应理解,本实施例中,处理器可以是中央处理单元CPU,处理器还可以是其他通用处理器、数字信号处理器DSP、专用集成电路ASIC,现成可编程门阵列FPGA或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器可以包括只读存储器和随机存取存储器,并向处理器提供指令和数据、存储器的一部分还可以包括非易失性随机存储器。例如,存储器还可以存储设备类型的信息。
在实现过程中,上述方法的各步骤可以通过处理器中的硬件的集成逻辑电路或者软件形式的指令完成。
实施例一中的方法可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器、闪存、只读存储器、可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法的步骤。为避免重复,这里不再详细描述。
本领域普通技术人员可以意识到,结合本实施例描述的各示例的单元及算法步骤,能够以电子硬件或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
实施例四
本实施例还提供了一种计算机可读存储介质,用于存储计算机指令,所述计算机指令被处理器执行时,完成实施例一所述的方法。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.融合用户动态兴趣的多粒度交互推荐方法,其特征是,包括:
获取物品评论集和用户评论集;基于物品评论集和用户评论集,获取基于物品评论的多粒度表示和用户评论的多粒度表示;
基于物品评论的多粒度表示和用户评论的多粒度表示,获取基于评论特征交互的预测得分;
基于物品评论的多粒度表示和用户评论的多粒度表示,获取用户动态兴趣与物品的相似性得分;
将基于评论特征交互的预测得分,和用户动态兴趣与物品的相似性得分,输入到门控单元中,得到目标用户给物品的预测得分;按照预测得分由高到低对物品进行排序,排序后的物品进行推荐。
2.如权利要求1所述的融合用户动态兴趣的多粒度交互推荐方法,其特征是,获取物品评论集和用户评论集;基于物品评论集和用户评论集,获取基于物品评论的多粒度表示和用户评论的多粒度表示;具体包括:
获取物品评论集和用户评论集;其中,物品评论集,是指多个用户对指定物品的评论文本的集合;用户评论集,是指目标用户在不同时间点对不同物品的评论文本的集合;
将物品评论集的物品评论文本输入到词嵌入层中,得到物品评论向量;将用户评论集中的用户评论文本输入到词嵌入层中,得到用户评论向量;
将物品评论向量输入到第一扩张卷积层中,得到物品评论的多粒度表示;将用户评论向量输入到第二扩张卷积层中,得到用户评论的多粒度表示;
所述物品评论的多粒度表示,包括:物品评论的若干个单词级表示、物品评论的若干个短语级表示和物品评论的若干个句子级表示;
所述用户评论的多粒度表示,包括:用户评论的若干个单词级表示、用户评论的若干个短语级表示和用户评论的若干个句子级表示。
3.如权利要求1所述的融合用户动态兴趣的多粒度交互推荐方法,其特征是,基于物品评论的多粒度表示和用户评论的多粒度表示,获取基于评论特征交互的预测得分;具体包括:
物品评论的多粒度表示,采用第一多头注意力层进行处理,得到物品评论的个性化表示;基于用户评论的多粒度表示,采用第二多头注意力层进行处理,得到用户评论的个性化表示;
将物品评论的个性化表示与用户评论的个性化表示相乘得到交互矩阵,对交互矩阵列项相加,得到交互向量;
基于交互向量,得到基于评论特征交互的预测得分。
4.如权利要求3所述的融合用户动态兴趣的多粒度交互推荐方法,其特征是,所述物品评论的多粒度表示,采用第一多头注意力层进行处理,得到物品评论的个性化表示;基于用户评论的多粒度表示,采用第二多头注意力层进行处理,得到用户评论的个性化表示;具体包括:
物品评论的若干个单词级表示,利用第一多头注意力层进行加权求和,得到物品评论的单词级个性化表示;
物品评论的若干个短语级表示,利用第一多头注意力层进行加权求和,得到物品评论的短语级个性化单词级表示;
物品评论的若干个句子级表示,利用第一多头注意力层进行加权求和,得到物品评论的句子级个性化表示;
用户评论的若干个单词级表示,利用第二多头注意力层进行加权求和,得到用户评论的单词级个性化表示;
用户评论的若干个短语级表示,利用第二多头注意力层进行加权求和,得到用户评论的短语级个性化单词级表示;
用户评论的若干个句子级表示,利用第二多头注意力层进行加权求和,得到用户评论的句子级个性化表示。
5.如权利要求3所述的融合用户动态兴趣的多粒度交互推荐方法,其特征是,所述将物品评论的个性化表示与用户评论的个性化表示相乘得到交互矩阵,对交互矩阵列项相加,得到交互向量;具体包括:
将用户评论的单词级个性化表示,与物品评论的单词级个性化表示相乘,得到单词级交互矩阵,对单词级交互矩阵列项相加,得到单词级交互向量;
将用户评论的短语级个性化表示,与物品评论的短语级个性化表示相乘,得到短语级交互矩阵,对短语级交互矩阵列项相加,得到短语级交互向量;
将用户评论的句子级个性化表示,与物品评论的句子级个性化表示相乘,得到句子级交互矩阵,对句子级交互矩阵列项相加,得到句子级交互向量;
所述基于交互向量,得到基于评论特征交互的预测得分;具体包括:
将单词级交互向量、短语级交互向量和句子级交互向量,送入全连接层中,得到基于评论特征交互的预测得分。
6.如权利要求1所述的融合用户动态兴趣的多粒度交互推荐方法,其特征是,所述基于物品评论的多粒度表示和用户评论的多粒度表示,获取用户动态兴趣与物品的相似性得分;具体包括:
将物品评论的多粒度表示和每条评论发出者的用户ID向量表示进行拼接,将拼接后的向量表示输入到第一具有有序神经元的长短期记忆网络ON-LSTM,得到融合用户兴趣和物品评论中层级关系的物品表示;所述每条评论发出者的用户ID向量表示,是将每条评论发出者的用户ID输入到用户嵌入层embedding后得到的;用户ID向量表示学习了用户的行为特征;
将用户评论的多粒度表示进行拼接,将拼接结果与目标用户ID向量表示,输入到第二具有有序神经元的长短期记忆网络ON-LSTM,目标用户ID向量表示作为ON-LSTM的初始化隐藏状态;
将第二具有有序神经元的长短期记忆网络ON-LSTM的输出值再输入到平均池化层中,得到用户动态兴趣偏好表示;
将融合用户兴趣与物品评论中层级关系的物品表示,和用户动态兴趣偏好表示,输入到多层感知器中,得到用户动态兴趣与物品的相似性得分。
7.如权利要求1所述的融合用户动态兴趣的多粒度交互推荐方法,其特征是,所述方法,采用深度学习模型来实现,深度学习模型的具体结构包括:
词嵌入层,所述词嵌入层的输入端用于输入物品评论和用户评论;所述词嵌入层的输出端分别与第一扩张卷积层的输入端和第二扩张卷积层的输入端连接;第一扩张卷积层的输出端与第一多头注意力层的输入端连接;第二扩展卷积层的输出端与第二多头注意力层的输入端连接;第一多头注意力层的输出端与逆点积层的输入端连接,第二多头注意力层的输出端与逆点积层的输入端连接;逆点积层的输出端与第一预测层连接;所述预测层通过全连接层来实现;
第一扩张卷积层的输出端与第一具有有序神经元的长短期记忆网络ON-LSTM的输入端连接;第二扩张卷积层的输出端与第二具有有序神经元的长短期记忆网络ON-LSTM的输入端连接;
第一具有有序神经元的长短期记忆网络ON-LSTM的输出端与注意力机制层的输入端连接;注意力层的输出端与第二预测层连接;
第二具有有序神经元的长短期记忆网络ON-LSTM的输出端与平均池化层的输入端连接,平均池化层的输出端与注意力层的输入端连接;
第一具有有序神经元的长短期记忆网络ON-LSTM的输入端还与用户嵌入层embedding的输出端连接;
第二具有有序神经元的长短期记忆网络ON-LSTM的输入端也与用户嵌入层embedding的输出端连接;
第一多头注意力层的输入端和第二多头注意力层的输入端,均与用户嵌入层embedding的输出端连接。
8.融合用户动态兴趣的多粒度交互推荐系统,其特征是,包括:
多粒度表示获取模块,其被配置为:获取物品评论集和用户评论集;基于物品评论集和用户评论集,获取基于物品评论的多粒度表示和用户评论的多粒度表示;
基于评论特征交互的预测得分获取模块,其被配置为:基于物品评论的多粒度表示和用户评论的多粒度表示,获取基于评论特征交互的预测得分;
用户动态兴趣与物品的相似性得分获取模块,其被配置为:基于物品评论的多粒度表示和用户评论的多粒度表示,获取用户动态兴趣与物品的相似性得分;
推荐模块,其被配置为:将基于评论特征交互的预测得分,和用户动态兴趣与物品的相似性得分,输入到门控单元中,得到目标用户给物品的预测得分;按照预测得分由高到低对物品进行排序,排序后的物品进行推荐。
9.一种电子设备,其特征是,包括:
存储器,用于非暂时性存储计算机可读指令;以及
处理器,用于运行所述计算机可读指令,
其中,所述计算机可读指令被所述处理器运行时,执行上述权利要求1-7任一项所述的方法。
10.一种存储介质,其特征是,非暂时性地存储计算机可读指令,其中,当所述非暂时性计算机可读指令由计算机执行时,执行权利要求1-7任一项所述方法的指令。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110909719.7A CN113570154B (zh) | 2021-08-09 | 2021-08-09 | 融合用户动态兴趣的多粒度交互推荐方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110909719.7A CN113570154B (zh) | 2021-08-09 | 2021-08-09 | 融合用户动态兴趣的多粒度交互推荐方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113570154A true CN113570154A (zh) | 2021-10-29 |
CN113570154B CN113570154B (zh) | 2024-07-05 |
Family
ID=78171090
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110909719.7A Active CN113570154B (zh) | 2021-08-09 | 2021-08-09 | 融合用户动态兴趣的多粒度交互推荐方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113570154B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114154071A (zh) * | 2021-12-09 | 2022-03-08 | 电子科技大学 | 一种基于注意力机制的情感时序推荐方法 |
CN114676315A (zh) * | 2022-01-28 | 2022-06-28 | 齐鲁工业大学 | 基于增强图卷积的属性融合交互推荐模型构建方法及系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110134868A (zh) * | 2019-05-14 | 2019-08-16 | 辽宁工程技术大学 | 一种基于用户偏好异构性分析的推荐方法 |
US20200097879A1 (en) * | 2018-09-25 | 2020-03-26 | Oracle International Corporation | Techniques for automatic opportunity evaluation and action recommendation engine |
CN111985247A (zh) * | 2020-08-31 | 2020-11-24 | 华侨大学 | 一种基于多粒度文本特征表示的微博用户兴趣识别方法和系统 |
CN112016002A (zh) * | 2020-08-17 | 2020-12-01 | 辽宁工程技术大学 | 融合评论文本层级注意力和时间因素的混合推荐方法 |
CN112100485A (zh) * | 2020-08-20 | 2020-12-18 | 齐鲁工业大学 | 一种基于评论的评分预测物品推荐方法及系统 |
CN112231577A (zh) * | 2020-11-06 | 2021-01-15 | 重庆理工大学 | 一种融合文本语义向量和神经协同过滤的推荐方法 |
CN113127604A (zh) * | 2021-05-10 | 2021-07-16 | 齐鲁工业大学 | 基于评论文本的细粒度物品推荐方法及系统 |
-
2021
- 2021-08-09 CN CN202110909719.7A patent/CN113570154B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200097879A1 (en) * | 2018-09-25 | 2020-03-26 | Oracle International Corporation | Techniques for automatic opportunity evaluation and action recommendation engine |
CN110134868A (zh) * | 2019-05-14 | 2019-08-16 | 辽宁工程技术大学 | 一种基于用户偏好异构性分析的推荐方法 |
CN112016002A (zh) * | 2020-08-17 | 2020-12-01 | 辽宁工程技术大学 | 融合评论文本层级注意力和时间因素的混合推荐方法 |
CN112100485A (zh) * | 2020-08-20 | 2020-12-18 | 齐鲁工业大学 | 一种基于评论的评分预测物品推荐方法及系统 |
CN111985247A (zh) * | 2020-08-31 | 2020-11-24 | 华侨大学 | 一种基于多粒度文本特征表示的微博用户兴趣识别方法和系统 |
CN112231577A (zh) * | 2020-11-06 | 2021-01-15 | 重庆理工大学 | 一种融合文本语义向量和神经协同过滤的推荐方法 |
CN113127604A (zh) * | 2021-05-10 | 2021-07-16 | 齐鲁工业大学 | 基于评论文本的细粒度物品推荐方法及系统 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114154071A (zh) * | 2021-12-09 | 2022-03-08 | 电子科技大学 | 一种基于注意力机制的情感时序推荐方法 |
CN114676315A (zh) * | 2022-01-28 | 2022-06-28 | 齐鲁工业大学 | 基于增强图卷积的属性融合交互推荐模型构建方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN113570154B (zh) | 2024-07-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111339415B (zh) | 一种基于多交互式注意力网络的点击率预测方法与装置 | |
TWI754033B (zh) | 關注點文案的生成 | |
CN112329474B (zh) | 融合注意力的方面级用户评论文本情感分析方法及系统 | |
CN109544306B (zh) | 一种基于用户行为序列特征的跨领域推荐方法及装置 | |
CN110119467A (zh) | 一种基于会话的项目推荐方法、装置、设备及存储介质 | |
CN109766557B (zh) | 一种情感分析方法、装置、存储介质及终端设备 | |
Haque et al. | Performance analysis of different neural networks for sentiment analysis on IMDb movie reviews | |
CN113570154B (zh) | 融合用户动态兴趣的多粒度交互推荐方法及系统 | |
Saha et al. | Towards sentiment aided dialogue policy learning for multi-intent conversations using hierarchical reinforcement learning | |
CN112699310A (zh) | 基于深度神经网络的冷启动跨域混合推荐的方法及系统 | |
WO2023231513A1 (zh) | 对话内容的生成方法及装置、存储介质、终端 | |
Hung | Integrating sentiment analysis in recommender systems | |
Chaudhuri | Visual and text sentiment analysis through hierarchical deep learning networks | |
Liu | Deep learning in marketing: a review and research agenda | |
CN114692624A (zh) | 一种基于多任务迁移的信息抽取方法、装置及电子设备 | |
Jha | Mastering PyTorch: build powerful neural network architectures using advanced PyTorch 1. x features | |
CN113779244B (zh) | 文档情感分类方法、装置、存储介质以及电子设备 | |
Gupta et al. | Development of human motion prediction strategy using inception residual block | |
Song | Distilling knowledge from user information for document level sentiment classification | |
Kumaran et al. | Recommender System for E-Commerce Application based on Deep Collaborative Conjunctive Model | |
CN111325027A (zh) | 一种面向稀疏数据的个性化情感分析方法与装置 | |
CN116628236B (zh) | 多媒体信息的投放方法、装置、电子设备及存储介质 | |
Rutledge-Taylor et al. | MALTA: Enhancing ACT-R with a holographic persistent knowledge store | |
Karim | Hands-On Deep Learning for IoT: Train neural network models to develop intelligent IoT applications | |
CN117093211A (zh) | 一种数据处理方法和相关装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP03 | Change of name, title or address |
Address after: 250353 University Road, Changqing District, Ji'nan, Shandong Province, No. 3501 Patentee after: Qilu University of Technology (Shandong Academy of Sciences) Country or region after: China Address before: 250353 University Road, Changqing District, Ji'nan, Shandong Province, No. 3501 Patentee before: Qilu University of Technology Country or region before: China |