CN111061951A - 一种基于双层自注意力评论建模的推荐模型 - Google Patents
一种基于双层自注意力评论建模的推荐模型 Download PDFInfo
- Publication number
- CN111061951A CN111061951A CN201911266072.XA CN201911266072A CN111061951A CN 111061951 A CN111061951 A CN 111061951A CN 201911266072 A CN201911266072 A CN 201911266072A CN 111061951 A CN111061951 A CN 111061951A
- Authority
- CN
- China
- Prior art keywords
- user
- phrase
- comment
- layer
- article
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9536—Search customisation based on social or collaborative filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种基于双层自注意力评论建模的推荐模型。该模型包括用户画像模块、物品画像模块和交互模块。用户画像模块和物品画像模块结构相同,首先在短语抽取层通过引入自注意力将句子内相隔任意距离的相关单词灵活组合,构成物品特征短语和情感短语。然后在短语关联层使用自注意力将物品特征短语和情感短语关联起来,得到用户对每个物品特征的情感极性,用于构建用户‑物品画像,最后将该模型在来自Amazon 5‑core的六个数据集上进行实验验证。本发明通过将自注意力网络引入到推荐系统的评论建模中,在深度学习框架下考虑了用户对“物品特征”的情感极性,并缓解了CNN抽取短语引入噪声和上下文丢失的问题,细粒度地建模用户‑物品画像,提升推荐性能。
Description
技术领域
本发明属于推荐系统领域,尤其涉及一种基于双层自注意力评论建模的推荐模型。
背景技术
在推荐系统中,传统的协同过滤方法从评分数据中推断出用户和物品的行为模式,至今仍是有竞争力的技术。但是当遇到数据稀疏和冷启动问题时,协同过滤方法的表现却大幅下降,因此许多研究者尝试引入评论文本作为补充,挖掘评论中的多种元素来建模用户-物品画像。评论中常见的七种元素是“高频词”、“评论主题”、“对于物品特征的情感”、“上下文情感”、“对比情感”和“情绪”,这些元素在传统机器学习时代得到了深入的研究。
然而现有深度学习方法只用物品特征代表用户兴趣,忽略了物品特征对应的情感(第三种评论元素)。这是因为CNN固定大小的卷积窗缺少建模单词变长范围内上下文的能力,难以将“物品特征”与“情感”直接关联。相对地,尽管传统方法利用了这一评论元素,却局限于将问题划分为“独立的三个阶段”(找物品特征、找情感、建模交互关系),每个阶段产生的模型偏差都传递到下一阶段形成噪声,影响了模型整体的性能。因此目前亟需一种在深度学习的框架下“端到端、层次化地”抽取第三种评论元素(对于物品特征的情感)的方法。
此外,对变长短语完整准确的抽取是进一步细粒度地建模用户-物品画像的基础。现有方法使用的CNN不能灵活地将相关单词组合为有意义的短语,卷积窗过大会引入噪声,卷积窗过小则会丢失信息,对于建模变长短语不利。即使将多个尺寸的卷积窗结合,模型也不容易明确地将窗口尺寸和某一类短语相关联,而且窗口尺寸的组合作为一个超参数需要调优。因此目前亟需一种灵活捕捉单词上下文的方法,以构成变长的情感短语和物品特征短语,为后续确定用户“对于物品特征的情感”建立基础。
发明内容
本发明的目的是针对现有技术的不足而提出了一种基于双层自注意力评论建模的推荐模型。本模型通过自注意力网络挖掘用户对物品不同方面特征的情感,构建细粒度的用户-物品画像;并解决变长短语的抽取问题,缓解CNN固定窗口引入噪声和上下文丢失的问题。
为达到上述目的,本发明提供如下技术方案:
一种基于双层自注意力评论建模的推荐模型,其特征在于,该模型包括:用户画像模块、物品画像模块、用户-物品交互模块。
用户画像模块从用户评论集合中抽取用户对每个物品特征的情感极性,构建用户画像;物品画像模块从物品评论集合中抽取用户对每个物品特征的情感极性,构建物品画像;用户画像模块和物品画像模块的结构相同;用户-物品交互模块基于用户画像和物品画像,使用分解机(FM)进行匹配,预测评分。
所述用户画像模块和物品画像模块结构相同,包含五个层:词嵌入层、短语抽取层、短语关联层、池化层及评论层;以用户画像模块为例,其中各个层次具体为:
①词嵌入层
该层将评论集合中的每个评论文本映射为词向量序列接受一个评论集合,包含多个评论{r1,r2…,rL},其中代表评论的最大数量;每个评论ri都是一个长度为的单词序列,其中每个单词是用独热编码表示的向量;每个单词都通过词嵌入矩阵Wd×|C|将独热编码映射到一个d维稠密向量,其中C是词汇表的大小;
②短语抽取层
该层使用“自注意力网络”编码评论中每个单词的上下文构成短语表示;这体现在两个方面:(1)只将语义相关的单词编码为一个短语;(2)远距离的单词也能建立关联;“自注意力网络”的输入是长度为l个词的词向量序列将X分别线性投影到三个不同的语义空间,形成三个序列输入到注意力函数中计算每个单词的上下文表示H:
Q=XWQ
K=XWK
V=XWV
H=attention(Q,K,V)=softmax(QKT)V
将单词本身V和上下文H相加,并通过一个全连接层转换语义空间,最后得到短语的表示Xphrase-1:
Xphrase-1=tanh((H+V)Wp+bp)
③短语关联层
该层使用“自注意力网络”将“情感短语”和“物品特征短语”相关联,得到用户对物品每个方面的情感极性,表示为其中每个物品特征短语中都编码了与之关联的情感极性;“自注意力网络”的结构与②中所述“自注意力网络”相同;
④池化层
该层基于注意力机制从整个评论的短语序列中选择有意义的短语聚合为单个评论的表示;注意力机制为序列中每个短语分配权重,然后根据权重大小将所有短语加权求和,计算了评论中每个短语的权重,通过softmax函数归一化后得到注意力权重分布对所有短语加权求和得到评论的最终表示
e=vTtanh(WuXphrase-2)
α=softmax(e)
⑤评论层
该层基于注意力机制将评论集合中的L个评论的表示U={u1,u2,…uL}聚合为d维向量p作为用户画像:
β=softmax(vTtanh(WuU))
所述用户-物品交互模块具体为:
最后用均方误差作为损失函数:
本发明的有益效果在于:
本发明通过将自注意力网络引入到推荐系统的评论建模中,在深度学习框架下考虑了用户对“物品特征”的情感极性,并缓解了CNN抽取短语引入噪声和上下文丢失的问题,细粒度地建模用户-物品画像,提升推荐性能。
附图说明
图1是本发明的模型整体架构图;
图2是本发明的模型分层结构图。
具体实施方式
下面结合附图对本发明的具体实施方法做进一步阐释,图1为模型整体架构图,共分为三部分:
(1)用户画像模块:从用户评论集合中抽取用户对每个物品特征的情感极性,构建用户画像;
(2)物品画像模块:从物品评论集合中抽取用户对每个物品特征的情感极性,构建物品画像;
(3)交互模块:基于用户画像和物品画像的特征向量,使用分解机(FM)进行匹配,预测评分。
图2是本发明的模型分层结构图,以下是对本发明中的预处理流程、三个模块的结构、实验验证的数据集和模型训练设定进行详细叙述:
1、预处理流程
将单词全部转化为小写,去除所有标点符号,词汇表中只保留出现超过5次的单词,未登录词用“[UNK]”代替。将单个评论文本的最大长度设置为30个单词,评论集合中最多包含20个评论,不足20个评论的使用内容全是“[PAD]”的评论补全。对于数据集,随机将数据集划分为训练集、测试集、验证集,其中使用“留一法”构造测试集和验证集,即保证集合中每个用户有且只有一个样本。为了避免数据泄漏,将测试集和验证集中出现过的评论文本从训练集中删除。同时,在计算用户u对物品i的预测评分时把用户撰写的真实评论文本reviewui从用户评论集合和物品评论集合中动态地删除,避免从一个推荐任务退化为一个带噪声的情感分类任务。
2、用户画像模块和物品画像模块
用户画像模块和物品画像模块结构相同,都包含五个层次:词嵌入层、短语抽取层、短语关联层、池化层、评论层。下面以用户画像模块为例,其中各个层次具体为:
①词嵌入层
该层将评论集合中的每个评论文本映射为词向量序列接受一个评论集合,包含多个评论{r1,r2…,rL},其中L代表评论的最大数量。每个评论ri都是一个长度为的单词序列,其中每个单词是用独热编码表示的向量。每个单词都通过词嵌入矩阵Wd×|C|将独热编码映射到一个d维稠密向量,其中C是词汇表的大小。
②短语抽取层
该层使用“自注意力网络”编码评论中每个单词的上下文构成短语表示。这体现在两个方面:(1)只将语义相关的单词编码为一个短语(2)远距离的单词也能建立关联。“自注意力网络”的输入是长度为l个词的词向量序列将X分别线性投影到三个不同的语义空间,形成三个序列输入到注意力函数中计算每个单词的上下文表示H:
Q=XWQ
K=XWK
V=XWV
H=attention(Q,K,V)=softmax(QKT)V
将单词本身V和上下文H相加,并通过一个全连接层转换语义空间,最后得到短语的表示Xphrase-1:
Xphrase-1=tanh((H+V)Wp+bp)
③短语关联层。
该层使用“自注意力网络”将“情感短语”和“物品特征短语”相关联,得到用户对物品特定方面的情感极性,表示为其中每个物品特征短语中都编码了与之关联的情感极性。“自注意力网络”的结构与②中所述“自注意力网络”相同。
④池化层。
该层基于注意力机制从整个评论的短语序列中选择有意义的短语聚合为单个评论的表示。注意力机制为序列中每个短语分配权重,然后根据权重大小将所有短语加权求和,计算了评论中每个短语的权重,通过softmax函数归一化后得到注意力权重分布对所有短语加权求和得到评论的最终表示
e=vTtanh(WuXphrase-2)
α=softmax(e)
⑤评论层;
该层基于注意力机制将评论集合中的L个评论的表示U={u1,u2,…uL}聚合为d维向量p作为用户画像:
β=softmax(vTtanh(WuU))
3、交互层模块
最后用均方误差作为损失函数:
4、实验验证的数据集
在实验中,本发明使用了来自不同领域的六个公开数据集来评估本模型。这些数据集来自Amazon 5-core的Digital Music,Toys and Games,Cell Phones andAccessories,Office Products,Clothing Shoes and Jewelry,Musical Instruments。
5、模型训练设定
使用均方误差计算预测评分和真实评分之间的训练误差,使用Adam进行优化,初始学习率设定为0.002。将所有模型训练至连续5轮验证集性能都不再提升,使用“早停”(early stopping)选择验证集上表现最佳的模型参数。
最后说明的是,以上优选实施例仅用以说明本发明的技术方案而非限制,尽管通过上述优选实施例已经对本发明进行了详细的描述,但本领域技术人员应当理解,可以在形式上和细节上对其作出各种各样的改变,而不偏离本发明权利要求书所限定的范围。
Claims (3)
1.一种基于双层自注意力评论建模的推荐模型,其特征在于,该模型包括:用户画像模块、物品画像模块及用户-物品交互模块,所述用户画像模块从用户评论集合中抽取用户对每个物品特征的情感极性,构建用户画像;物品画像模块从物品评论集合中抽取用户对每个物品特征的情感极性,构建物品画像;用户画像模块和物品画像模块的结构相同;用户-物品交互模块基于用户画像和物品画像,使用分解机进行匹配,预测评分。
2.如权利要求1所述的基于双层自注意力评论建模的推荐模型,其特征在于,所述用户画像模块和物品画像模块结构相同,包含五个层:词嵌入层、短语抽取层、短语关联层、池化层及评论层;用户画像模块各个层具体为:
①词嵌入层
该层将评论集合中的每个评论文本映射为词向量序列接受一个评论集合,包含多个评论{r1,r2…,rL},其中L代表评论的最大数量;每个评论ri都是一个长度为l的单词序列,其中每个单词是用独热编码表示的向量;每个单词都通过词嵌入矩阵Wd×|c|将独热编码映射到一个d维稠密向量,其中C是词汇表的大小;
②短语抽取层
该层使用“自注意力网络”编码评论中每个单词的上下文构成短语表示;这体现在两个方面:(1)只将语义相关的单词编码为一个短语;(2)远距离的单词也能建立关联;“自注意力网络”的输入是长度为l个词的词向量序列将X分别线性投影到三个不同的语义空间,形成三个序列Q,K,输入到注意力函数中计算每个单词的上下文表示H:
Q=XWQ
K=XWK
V=XWV
H=attention(Q,K,V)=softmax(QKT)V
将单词本身V和上下文H相加,并通过一个全连接层转换语义空间,最后得到短语的表示Xphrase-1:
Xphrase-1=tanh((H+V)Wp+bp)
③短语关联层
该层使用“自注意力网络”将“情感短语”和“物品特征短语”相关联,得到用户对物品每个方面的情感极性,表示为其中每个物品特征短语中都编码了与之关联的情感极性;“自注意力网络”的结构与②中所述“自注意力网络”相同;
④池化层
该层基于注意力机制从整个评论的短语序列中选择有意义的短语聚合为单个评论的表示;注意力机制为序列中每个短语分配权重,然后根据权重大小将所有短语加权求和,计算了评论中每个短语的权重,通过softmax函数归一化后得到注意力权重分布对所有短语加权求和得到评论的最终表示
e=vTtanh(WuXphrase-2)
α=softmax(e)
⑤评论层
该层基于注意力机制将评论集合中的L个评论的表示U={u1,u2,...uL}聚合为d维向量p作为用户画像:
β=softmax(vTtanh(WuU))
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911266072.XA CN111061951A (zh) | 2019-12-11 | 2019-12-11 | 一种基于双层自注意力评论建模的推荐模型 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911266072.XA CN111061951A (zh) | 2019-12-11 | 2019-12-11 | 一种基于双层自注意力评论建模的推荐模型 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111061951A true CN111061951A (zh) | 2020-04-24 |
Family
ID=70300593
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911266072.XA Pending CN111061951A (zh) | 2019-12-11 | 2019-12-11 | 一种基于双层自注意力评论建模的推荐模型 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111061951A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112597392A (zh) * | 2020-12-25 | 2021-04-02 | 厦门大学 | 一种基于动态注意力和分层强化学习的推荐系统 |
CN112784173A (zh) * | 2021-02-26 | 2021-05-11 | 电子科技大学 | 一种基于自注意力对抗神经网络的推荐系统评分预测方法 |
CN113127604A (zh) * | 2021-05-10 | 2021-07-16 | 齐鲁工业大学 | 基于评论文本的细粒度物品推荐方法及系统 |
CN113157899A (zh) * | 2021-05-27 | 2021-07-23 | 东莞心启航联贸网络科技有限公司 | 一种大数据画像分析方法、服务器及可读存储介质 |
CN115952360A (zh) * | 2023-03-14 | 2023-04-11 | 中国海洋大学 | 基于用户和物品共性建模的域自适应跨域推荐方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160321712A1 (en) * | 2015-05-01 | 2016-11-03 | Wadju Inc. | Crowd Sourced Networked Target Feedback |
CN108665308A (zh) * | 2018-05-07 | 2018-10-16 | 华东师范大学 | 评分预测方法和装置 |
CN109558530A (zh) * | 2018-10-23 | 2019-04-02 | 深圳壹账通智能科技有限公司 | 基于数据处理的用户画像自动生成方法和系统 |
CN109598586A (zh) * | 2018-11-30 | 2019-04-09 | 哈尔滨工程大学 | 一种基于注意力模型的推荐方法 |
US20190180872A1 (en) * | 2017-12-12 | 2019-06-13 | International Business Machines Corporation | Second Opinion Decision Support Using Patient Electronic Medical Records |
CN110377913A (zh) * | 2019-07-24 | 2019-10-25 | 腾讯科技(深圳)有限公司 | 一种情感分析方法及其装置、电子设备和存储介质 |
-
2019
- 2019-12-11 CN CN201911266072.XA patent/CN111061951A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160321712A1 (en) * | 2015-05-01 | 2016-11-03 | Wadju Inc. | Crowd Sourced Networked Target Feedback |
US20190180872A1 (en) * | 2017-12-12 | 2019-06-13 | International Business Machines Corporation | Second Opinion Decision Support Using Patient Electronic Medical Records |
CN108665308A (zh) * | 2018-05-07 | 2018-10-16 | 华东师范大学 | 评分预测方法和装置 |
CN109558530A (zh) * | 2018-10-23 | 2019-04-02 | 深圳壹账通智能科技有限公司 | 基于数据处理的用户画像自动生成方法和系统 |
CN109598586A (zh) * | 2018-11-30 | 2019-04-09 | 哈尔滨工程大学 | 一种基于注意力模型的推荐方法 |
CN110377913A (zh) * | 2019-07-24 | 2019-10-25 | 腾讯科技(深圳)有限公司 | 一种情感分析方法及其装置、电子设备和存储介质 |
Non-Patent Citations (2)
Title |
---|
SUNGYONG SEO等: "Interpretable Convoltional Neural Networks with Dual Local and Global Attention for Review Rating Predition", 《PROCEEDINGS OF THE 11TH ACM CONFERENCE ON RECOMMENDER SYSTEMS》 * |
郭望: "基于用户评论建模的推荐算法研究及应用", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112597392A (zh) * | 2020-12-25 | 2021-04-02 | 厦门大学 | 一种基于动态注意力和分层强化学习的推荐系统 |
CN112784173A (zh) * | 2021-02-26 | 2021-05-11 | 电子科技大学 | 一种基于自注意力对抗神经网络的推荐系统评分预测方法 |
CN113127604A (zh) * | 2021-05-10 | 2021-07-16 | 齐鲁工业大学 | 基于评论文本的细粒度物品推荐方法及系统 |
CN113127604B (zh) * | 2021-05-10 | 2022-10-04 | 齐鲁工业大学 | 基于评论文本的细粒度物品推荐方法及系统 |
CN113157899A (zh) * | 2021-05-27 | 2021-07-23 | 东莞心启航联贸网络科技有限公司 | 一种大数据画像分析方法、服务器及可读存储介质 |
CN115952360A (zh) * | 2023-03-14 | 2023-04-11 | 中国海洋大学 | 基于用户和物品共性建模的域自适应跨域推荐方法及系统 |
CN115952360B (zh) * | 2023-03-14 | 2023-06-20 | 中国海洋大学 | 基于用户和物品共性建模的域自适应跨域推荐方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108984745B (zh) | 一种融合多知识图谱的神经网络文本分类方法 | |
CN111061951A (zh) | 一种基于双层自注意力评论建模的推荐模型 | |
CN109508462B (zh) | 一种基于编码器-解码器的神经网络蒙汉机器翻译方法 | |
US20220147836A1 (en) | Method and device for text-enhanced knowledge graph joint representation learning | |
CN108062388A (zh) | 人机对话的回复生成方法和装置 | |
WO2021155699A1 (zh) | 面向中文长文本自动摘要的全局编码方法 | |
CN110232186A (zh) | 融合实体描述、层次化类型和文本关系信息的知识图谱表示学习方法 | |
CN110825881A (zh) | 一种建立电力知识图谱的方法 | |
CN114048350A (zh) | 一种基于细粒度跨模态对齐模型的文本-视频检索方法 | |
CN111858932A (zh) | 基于Transformer的多重特征中英文情感分类方法及系统 | |
CN111753207B (zh) | 一种基于评论的神经图协同过滤方法 | |
CN113283236B (zh) | 一种复杂中文文本中的实体消歧方法 | |
CN110347831A (zh) | 基于自注意力机制的情感分类方法 | |
CN113486667A (zh) | 一种基于实体类型信息的医疗实体关系联合抽取方法 | |
CN107679225A (zh) | 一种基于关键词的回复生成方法 | |
CN113255366B (zh) | 一种基于异构图神经网络的方面级文本情感分析方法 | |
CN112328859A (zh) | 一种基于知识感知注意力网络的虚假新闻检测方法 | |
CN115563314A (zh) | 多源信息融合增强的知识图谱表示学习方法 | |
CN115062139A (zh) | 一种对话文本摘要模型自动搜索方法 | |
Zhu et al. | Concept transfer learning for adaptive language understanding | |
CN113076744A (zh) | 一种基于卷积神经网络的文物知识关系抽取方法 | |
Yu et al. | Cross-Domain Slot Filling as Machine Reading Comprehension. | |
CN114662659B (zh) | 一种基于多阶段迁移学习策略综合的众包文本集成方法 | |
CN116629266A (zh) | 面向小样本的文本命名实体识别方法 | |
CN115455144A (zh) | 用于小样本意图识别的完型填空式的数据增强方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20200424 |