CN111061951A - 一种基于双层自注意力评论建模的推荐模型 - Google Patents

一种基于双层自注意力评论建模的推荐模型 Download PDF

Info

Publication number
CN111061951A
CN111061951A CN201911266072.XA CN201911266072A CN111061951A CN 111061951 A CN111061951 A CN 111061951A CN 201911266072 A CN201911266072 A CN 201911266072A CN 111061951 A CN111061951 A CN 111061951A
Authority
CN
China
Prior art keywords
user
phrase
comment
layer
article
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911266072.XA
Other languages
English (en)
Inventor
吴雯
郭望
施力业
贺樑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
East China Normal University
Original Assignee
East China Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by East China Normal University filed Critical East China Normal University
Priority to CN201911266072.XA priority Critical patent/CN111061951A/zh
Publication of CN111061951A publication Critical patent/CN111061951A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9536Search customisation based on social or collaborative filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting

Landscapes

  • Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种基于双层自注意力评论建模的推荐模型。该模型包括用户画像模块、物品画像模块和交互模块。用户画像模块和物品画像模块结构相同,首先在短语抽取层通过引入自注意力将句子内相隔任意距离的相关单词灵活组合,构成物品特征短语和情感短语。然后在短语关联层使用自注意力将物品特征短语和情感短语关联起来,得到用户对每个物品特征的情感极性,用于构建用户‑物品画像,最后将该模型在来自Amazon 5‑core的六个数据集上进行实验验证。本发明通过将自注意力网络引入到推荐系统的评论建模中,在深度学习框架下考虑了用户对“物品特征”的情感极性,并缓解了CNN抽取短语引入噪声和上下文丢失的问题,细粒度地建模用户‑物品画像,提升推荐性能。

Description

一种基于双层自注意力评论建模的推荐模型
技术领域
本发明属于推荐系统领域,尤其涉及一种基于双层自注意力评论建模的推荐模型。
背景技术
在推荐系统中,传统的协同过滤方法从评分数据中推断出用户和物品的行为模式,至今仍是有竞争力的技术。但是当遇到数据稀疏和冷启动问题时,协同过滤方法的表现却大幅下降,因此许多研究者尝试引入评论文本作为补充,挖掘评论中的多种元素来建模用户-物品画像。评论中常见的七种元素是“高频词”、“评论主题”、“对于物品特征的情感”、“上下文情感”、“对比情感”和“情绪”,这些元素在传统机器学习时代得到了深入的研究。
然而现有深度学习方法只用物品特征代表用户兴趣,忽略了物品特征对应的情感(第三种评论元素)。这是因为CNN固定大小的卷积窗缺少建模单词变长范围内上下文的能力,难以将“物品特征”与“情感”直接关联。相对地,尽管传统方法利用了这一评论元素,却局限于将问题划分为“独立的三个阶段”(找物品特征、找情感、建模交互关系),每个阶段产生的模型偏差都传递到下一阶段形成噪声,影响了模型整体的性能。因此目前亟需一种在深度学习的框架下“端到端、层次化地”抽取第三种评论元素(对于物品特征的情感)的方法。
此外,对变长短语完整准确的抽取是进一步细粒度地建模用户-物品画像的基础。现有方法使用的CNN不能灵活地将相关单词组合为有意义的短语,卷积窗过大会引入噪声,卷积窗过小则会丢失信息,对于建模变长短语不利。即使将多个尺寸的卷积窗结合,模型也不容易明确地将窗口尺寸和某一类短语相关联,而且窗口尺寸的组合作为一个超参数需要调优。因此目前亟需一种灵活捕捉单词上下文的方法,以构成变长的情感短语和物品特征短语,为后续确定用户“对于物品特征的情感”建立基础。
发明内容
本发明的目的是针对现有技术的不足而提出了一种基于双层自注意力评论建模的推荐模型。本模型通过自注意力网络挖掘用户对物品不同方面特征的情感,构建细粒度的用户-物品画像;并解决变长短语的抽取问题,缓解CNN固定窗口引入噪声和上下文丢失的问题。
为达到上述目的,本发明提供如下技术方案:
一种基于双层自注意力评论建模的推荐模型,其特征在于,该模型包括:用户画像模块、物品画像模块、用户-物品交互模块。
用户画像模块从用户评论集合中抽取用户对每个物品特征的情感极性,构建用户画像;物品画像模块从物品评论集合中抽取用户对每个物品特征的情感极性,构建物品画像;用户画像模块和物品画像模块的结构相同;用户-物品交互模块基于用户画像和物品画像,使用分解机(FM)进行匹配,预测评分。
所述用户画像模块和物品画像模块结构相同,包含五个层:词嵌入层、短语抽取层、短语关联层、池化层及评论层;以用户画像模块为例,其中各个层次具体为:
①词嵌入层
该层将评论集合中的每个评论文本映射为词向量序列
Figure BDA0002312879050000021
接受一个评论集合,包含多个评论{r1,r2…,rL},其中代表评论的最大数量;每个评论ri都是一个长度为的单词序列,其中每个单词是用独热编码表示的向量;每个单词都通过词嵌入矩阵Wd×|C|将独热编码映射到一个d维稠密向量,其中C是词汇表的大小;
②短语抽取层
该层使用“自注意力网络”编码评论中每个单词的上下文构成短语表示;这体现在两个方面:(1)只将语义相关的单词编码为一个短语;(2)远距离的单词也能建立关联;“自注意力网络”的输入是长度为l个词的词向量序列
Figure BDA0002312879050000022
将X分别线性投影到三个不同的语义空间,形成三个序列
Figure BDA0002312879050000023
输入到注意力函数中计算每个单词的上下文表示H:
Q=XWQ
K=XWK
V=XWV
H=attention(Q,K,V)=softmax(QKT)V
其中
Figure BDA0002312879050000024
为参数,
Figure BDA0002312879050000025
编码了评论中每个单词的上下文单词;
将单词本身V和上下文H相加,并通过一个全连接层转换语义空间,最后得到短语的表示Xphrase-1
Xphrase-1=tanh((H+V)Wp+bp)
其中
Figure BDA0002312879050000026
中每个词的语义不再是单个单词,而是以该单词为中心的短语;
Figure BDA0002312879050000027
为参数,
Figure BDA0002312879050000028
为偏置;
③短语关联层
该层使用“自注意力网络”将“情感短语”和“物品特征短语”相关联,得到用户对物品每个方面的情感极性,表示为
Figure BDA0002312879050000029
其中每个物品特征短语中都编码了与之关联的情感极性;“自注意力网络”的结构与②中所述“自注意力网络”相同;
④池化层
该层基于注意力机制从整个评论的短语序列
Figure BDA0002312879050000031
中选择有意义的短语聚合为单个评论的表示;注意力机制为序列中每个短语分配权重,然后根据权重大小将所有短语加权求和,
Figure BDA0002312879050000032
计算了评论中每个短语的权重,通过softmax函数归一化后得到注意力权重分布
Figure BDA0002312879050000033
对所有短语加权求和得到评论的最终表示
Figure BDA0002312879050000034
e=vTtanh(WuXphrase-2)
α=softmax(e)
Figure BDA0002312879050000035
其中
Figure BDA0002312879050000036
Figure BDA0002312879050000037
为参数;
⑤评论层
该层基于注意力机制将评论集合中的L个评论的表示U={u1,u2,…uL}聚合为d维向量p作为用户画像:
β=softmax(vTtanh(WuU))
Figure BDA0002312879050000038
其中β表示{u1,u2,…uL}中每个评论对应的权重,
Figure BDA0002312879050000039
为参数。
所述用户-物品交互模块具体为:
用户-物品交互模块将从评论集合中抽取得到用户画像
Figure BDA00023128790500000310
和物品画像
Figure BDA00023128790500000311
输入到分解机(FM)中将二者进行匹配,计算预测评分
Figure BDA00023128790500000312
分解机接受一个特征向量
Figure BDA00023128790500000313
并建模用户和物品之间的一阶和二阶关系:
Figure BDA00023128790500000314
其中w0是全局偏置,
Figure BDA00023128790500000315
用于捕捉用户和物品之间的一阶交互强度,wi用于捕捉用户和物品之间的二阶交互强度;
最后用均方误差作为损失函数:
Figure BDA00023128790500000316
其中
Figure BDA00023128790500000317
和rui为用户u对物品i的预测评分和真实评分,D为训练集。
本发明的有益效果在于:
本发明通过将自注意力网络引入到推荐系统的评论建模中,在深度学习框架下考虑了用户对“物品特征”的情感极性,并缓解了CNN抽取短语引入噪声和上下文丢失的问题,细粒度地建模用户-物品画像,提升推荐性能。
附图说明
图1是本发明的模型整体架构图;
图2是本发明的模型分层结构图。
具体实施方式
下面结合附图对本发明的具体实施方法做进一步阐释,图1为模型整体架构图,共分为三部分:
(1)用户画像模块:从用户评论集合中抽取用户对每个物品特征的情感极性,构建用户画像;
(2)物品画像模块:从物品评论集合中抽取用户对每个物品特征的情感极性,构建物品画像;
(3)交互模块:基于用户画像和物品画像的特征向量,使用分解机(FM)进行匹配,预测评分。
图2是本发明的模型分层结构图,以下是对本发明中的预处理流程、三个模块的结构、实验验证的数据集和模型训练设定进行详细叙述:
1、预处理流程
将单词全部转化为小写,去除所有标点符号,词汇表中只保留出现超过5次的单词,未登录词用“[UNK]”代替。将单个评论文本的最大长度设置为30个单词,评论集合中最多包含20个评论,不足20个评论的使用内容全是“[PAD]”的评论补全。对于数据集,随机将数据集划分为训练集、测试集、验证集,其中使用“留一法”构造测试集和验证集,即保证集合中每个用户有且只有一个样本。为了避免数据泄漏,将测试集和验证集中出现过的评论文本从训练集中删除。同时,在计算用户u对物品i的预测评分
Figure BDA0002312879050000041
时把用户撰写的真实评论文本reviewui从用户评论集合和物品评论集合中动态地删除,避免从一个推荐任务退化为一个带噪声的情感分类任务。
2、用户画像模块和物品画像模块
用户画像模块和物品画像模块结构相同,都包含五个层次:词嵌入层、短语抽取层、短语关联层、池化层、评论层。下面以用户画像模块为例,其中各个层次具体为:
①词嵌入层
该层将评论集合中的每个评论文本映射为词向量序列
Figure BDA0002312879050000051
接受一个评论集合,包含多个评论{r1,r2…,rL},其中L代表评论的最大数量。每个评论ri都是一个长度为的单词序列,其中每个单词是用独热编码表示的向量。每个单词都通过词嵌入矩阵Wd×|C|将独热编码映射到一个d维稠密向量,其中C是词汇表的大小。
②短语抽取层
该层使用“自注意力网络”编码评论中每个单词的上下文构成短语表示。这体现在两个方面:(1)只将语义相关的单词编码为一个短语(2)远距离的单词也能建立关联。“自注意力网络”的输入是长度为l个词的词向量序列
Figure BDA0002312879050000052
将X分别线性投影到三个不同的语义空间,形成三个序列
Figure BDA0002312879050000053
输入到注意力函数中计算每个单词的上下文表示H:
Q=XWQ
K=XWK
V=XWV
H=attention(Q,K,V)=softmax(QKT)V
其中
Figure BDA0002312879050000054
为参数,
Figure BDA0002312879050000055
编码了评论中每个单词的上下文单词。
将单词本身V和上下文H相加,并通过一个全连接层转换语义空间,最后得到短语的表示Xphrase-1
Xphrase-1=tanh((H+V)Wp+bp)
其中
Figure BDA0002312879050000056
中每个词的语义不再是单个单词,而是以该单词为中心的短语。
③短语关联层。
该层使用“自注意力网络”将“情感短语”和“物品特征短语”相关联,得到用户对物品特定方面的情感极性,表示为
Figure BDA0002312879050000057
其中每个物品特征短语中都编码了与之关联的情感极性。“自注意力网络”的结构与②中所述“自注意力网络”相同。
④池化层。
该层基于注意力机制从整个评论的短语序列
Figure BDA0002312879050000058
中选择有意义的短语聚合为单个评论的表示。注意力机制为序列中每个短语分配权重,然后根据权重大小将所有短语加权求和,
Figure BDA0002312879050000059
计算了评论中每个短语的权重,通过softmax函数归一化后得到注意力权重分布
Figure BDA0002312879050000061
对所有短语加权求和得到评论的最终表示
Figure BDA0002312879050000062
e=vTtanh(WuXphrase-2)
α=softmax(e)
Figure BDA0002312879050000063
其中
Figure BDA0002312879050000064
Figure BDA0002312879050000065
为参数。
⑤评论层;
该层基于注意力机制将评论集合中的L个评论的表示U={u1,u2,…uL}聚合为d维向量p作为用户画像:
β=softmax(vTtanh(WuU))
Figure BDA0002312879050000066
3、交互层模块
用户-物品交互模块将从评论集合中抽取得到用户画像
Figure BDA0002312879050000067
和物品画像
Figure BDA0002312879050000068
输入到分解机(FM)中将二者进行匹配,计算预测评分
Figure BDA0002312879050000069
分解机接受一个特征向量
Figure BDA00023128790500000610
并建模用户和物品之间的一阶和二阶关系:
Figure BDA00023128790500000611
其中w0是全局偏置,
Figure BDA00023128790500000612
用于捕捉用户和物品之间的一阶交互强度,wi用于捕捉用户和物品之间的二阶交互强度。
最后用均方误差作为损失函数:
Figure BDA00023128790500000613
其中
Figure BDA00023128790500000614
和rui为用户u对物品i的预测评分和真实评分,D为训练集。
4、实验验证的数据集
在实验中,本发明使用了来自不同领域的六个公开数据集来评估本模型。这些数据集来自Amazon 5-core的Digital Music,Toys and Games,Cell Phones andAccessories,Office Products,Clothing Shoes and Jewelry,Musical Instruments。
5、模型训练设定
使用均方误差计算预测评分和真实评分之间的训练误差,使用Adam进行优化,初始学习率设定为0.002。将所有模型训练至连续5轮验证集性能都不再提升,使用“早停”(early stopping)选择验证集上表现最佳的模型参数。
最后说明的是,以上优选实施例仅用以说明本发明的技术方案而非限制,尽管通过上述优选实施例已经对本发明进行了详细的描述,但本领域技术人员应当理解,可以在形式上和细节上对其作出各种各样的改变,而不偏离本发明权利要求书所限定的范围。

Claims (3)

1.一种基于双层自注意力评论建模的推荐模型,其特征在于,该模型包括:用户画像模块、物品画像模块及用户-物品交互模块,所述用户画像模块从用户评论集合中抽取用户对每个物品特征的情感极性,构建用户画像;物品画像模块从物品评论集合中抽取用户对每个物品特征的情感极性,构建物品画像;用户画像模块和物品画像模块的结构相同;用户-物品交互模块基于用户画像和物品画像,使用分解机进行匹配,预测评分。
2.如权利要求1所述的基于双层自注意力评论建模的推荐模型,其特征在于,所述用户画像模块和物品画像模块结构相同,包含五个层:词嵌入层、短语抽取层、短语关联层、池化层及评论层;用户画像模块各个层具体为:
①词嵌入层
该层将评论集合中的每个评论文本映射为词向量序列
Figure FDA0002312879040000011
接受一个评论集合,包含多个评论{r1,r2…,rL},其中L代表评论的最大数量;每个评论ri都是一个长度为l的单词序列,其中每个单词是用独热编码表示的向量;每个单词都通过词嵌入矩阵Wd×|c|将独热编码映射到一个d维稠密向量,其中C是词汇表的大小;
②短语抽取层
该层使用“自注意力网络”编码评论中每个单词的上下文构成短语表示;这体现在两个方面:(1)只将语义相关的单词编码为一个短语;(2)远距离的单词也能建立关联;“自注意力网络”的输入是长度为l个词的词向量序列
Figure FDA0002312879040000012
将X分别线性投影到三个不同的语义空间,形成三个序列Q,K,
Figure FDA0002312879040000013
输入到注意力函数中计算每个单词的上下文表示H:
Q=XWQ
K=XWK
V=XWV
H=attention(Q,K,V)=softmax(QKT)V
其中WQ,WK
Figure FDA0002312879040000014
为参数,
Figure FDA0002312879040000015
编码了评论中每个单词的上下文单词;
将单词本身V和上下文H相加,并通过一个全连接层转换语义空间,最后得到短语的表示Xphrase-1
Xphrase-1=tanh((H+V)Wp+bp)
其中
Figure FDA0002312879040000016
中每个词的语义不再是单个单词,而是以该单词为中心的短语;
Figure FDA0002312879040000017
为参数,
Figure FDA0002312879040000018
为偏置;
③短语关联层
该层使用“自注意力网络”将“情感短语”和“物品特征短语”相关联,得到用户对物品每个方面的情感极性,表示为
Figure FDA0002312879040000021
其中每个物品特征短语中都编码了与之关联的情感极性;“自注意力网络”的结构与②中所述“自注意力网络”相同;
④池化层
该层基于注意力机制从整个评论的短语序列
Figure FDA0002312879040000022
中选择有意义的短语聚合为单个评论的表示;注意力机制为序列中每个短语分配权重,然后根据权重大小将所有短语加权求和,
Figure FDA0002312879040000023
计算了评论中每个短语的权重,通过softmax函数归一化后得到注意力权重分布
Figure FDA0002312879040000024
对所有短语加权求和得到评论的最终表示
Figure FDA0002312879040000025
e=vTtanh(WuXphrase-2)
α=softmax(e)
Figure FDA0002312879040000026
其中
Figure FDA0002312879040000027
Figure FDA0002312879040000028
为参数;
⑤评论层
该层基于注意力机制将评论集合中的L个评论的表示U={u1,u2,...uL}聚合为d维向量p作为用户画像:
β=softmax(vTtanh(WuU))
Figure FDA0002312879040000029
其中βi表示{u1,u2,...uL}中每个评论对应的权重,
Figure FDA00023128790400000210
为参数。
3.如权利要求1所述的基于双层自注意力评论建模的推荐模型,其特征在于,所述用户-物品交互模块具体为:
用户-物品交互模块将从评论集合中抽取得到用户画像
Figure FDA00023128790400000211
和物品画像
Figure FDA00023128790400000212
输入到分解机中将二者进行匹配,计算预测评分
Figure FDA00023128790400000216
分解机接受一个特征向量
Figure FDA00023128790400000213
并建模用户和物品之间的一阶和二阶关系:
Figure FDA00023128790400000214
其中w0是全局偏置,
Figure FDA00023128790400000215
用于捕捉用户和物品之间的一阶交互强度,wi用于捕捉用户和物品之间的二阶交互强度;
最后用均方误差作为损失函数:
Figure FDA0002312879040000031
其中
Figure FDA0002312879040000032
和rui为用户u对物品i的预测评分和真实评分,D为训练集。
CN201911266072.XA 2019-12-11 2019-12-11 一种基于双层自注意力评论建模的推荐模型 Pending CN111061951A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911266072.XA CN111061951A (zh) 2019-12-11 2019-12-11 一种基于双层自注意力评论建模的推荐模型

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911266072.XA CN111061951A (zh) 2019-12-11 2019-12-11 一种基于双层自注意力评论建模的推荐模型

Publications (1)

Publication Number Publication Date
CN111061951A true CN111061951A (zh) 2020-04-24

Family

ID=70300593

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911266072.XA Pending CN111061951A (zh) 2019-12-11 2019-12-11 一种基于双层自注意力评论建模的推荐模型

Country Status (1)

Country Link
CN (1) CN111061951A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112597392A (zh) * 2020-12-25 2021-04-02 厦门大学 一种基于动态注意力和分层强化学习的推荐系统
CN112784173A (zh) * 2021-02-26 2021-05-11 电子科技大学 一种基于自注意力对抗神经网络的推荐系统评分预测方法
CN113127604A (zh) * 2021-05-10 2021-07-16 齐鲁工业大学 基于评论文本的细粒度物品推荐方法及系统
CN113157899A (zh) * 2021-05-27 2021-07-23 东莞心启航联贸网络科技有限公司 一种大数据画像分析方法、服务器及可读存储介质
CN115952360A (zh) * 2023-03-14 2023-04-11 中国海洋大学 基于用户和物品共性建模的域自适应跨域推荐方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160321712A1 (en) * 2015-05-01 2016-11-03 Wadju Inc. Crowd Sourced Networked Target Feedback
CN108665308A (zh) * 2018-05-07 2018-10-16 华东师范大学 评分预测方法和装置
CN109558530A (zh) * 2018-10-23 2019-04-02 深圳壹账通智能科技有限公司 基于数据处理的用户画像自动生成方法和系统
CN109598586A (zh) * 2018-11-30 2019-04-09 哈尔滨工程大学 一种基于注意力模型的推荐方法
US20190180872A1 (en) * 2017-12-12 2019-06-13 International Business Machines Corporation Second Opinion Decision Support Using Patient Electronic Medical Records
CN110377913A (zh) * 2019-07-24 2019-10-25 腾讯科技(深圳)有限公司 一种情感分析方法及其装置、电子设备和存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160321712A1 (en) * 2015-05-01 2016-11-03 Wadju Inc. Crowd Sourced Networked Target Feedback
US20190180872A1 (en) * 2017-12-12 2019-06-13 International Business Machines Corporation Second Opinion Decision Support Using Patient Electronic Medical Records
CN108665308A (zh) * 2018-05-07 2018-10-16 华东师范大学 评分预测方法和装置
CN109558530A (zh) * 2018-10-23 2019-04-02 深圳壹账通智能科技有限公司 基于数据处理的用户画像自动生成方法和系统
CN109598586A (zh) * 2018-11-30 2019-04-09 哈尔滨工程大学 一种基于注意力模型的推荐方法
CN110377913A (zh) * 2019-07-24 2019-10-25 腾讯科技(深圳)有限公司 一种情感分析方法及其装置、电子设备和存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
SUNGYONG SEO等: "Interpretable Convoltional Neural Networks with Dual Local and Global Attention for Review Rating Predition", 《PROCEEDINGS OF THE 11TH ACM CONFERENCE ON RECOMMENDER SYSTEMS》 *
郭望: "基于用户评论建模的推荐算法研究及应用", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112597392A (zh) * 2020-12-25 2021-04-02 厦门大学 一种基于动态注意力和分层强化学习的推荐系统
CN112784173A (zh) * 2021-02-26 2021-05-11 电子科技大学 一种基于自注意力对抗神经网络的推荐系统评分预测方法
CN113127604A (zh) * 2021-05-10 2021-07-16 齐鲁工业大学 基于评论文本的细粒度物品推荐方法及系统
CN113127604B (zh) * 2021-05-10 2022-10-04 齐鲁工业大学 基于评论文本的细粒度物品推荐方法及系统
CN113157899A (zh) * 2021-05-27 2021-07-23 东莞心启航联贸网络科技有限公司 一种大数据画像分析方法、服务器及可读存储介质
CN115952360A (zh) * 2023-03-14 2023-04-11 中国海洋大学 基于用户和物品共性建模的域自适应跨域推荐方法及系统
CN115952360B (zh) * 2023-03-14 2023-06-20 中国海洋大学 基于用户和物品共性建模的域自适应跨域推荐方法及系统

Similar Documents

Publication Publication Date Title
CN108984745B (zh) 一种融合多知识图谱的神经网络文本分类方法
CN111061951A (zh) 一种基于双层自注意力评论建模的推荐模型
CN109508462B (zh) 一种基于编码器-解码器的神经网络蒙汉机器翻译方法
US20220147836A1 (en) Method and device for text-enhanced knowledge graph joint representation learning
CN108062388A (zh) 人机对话的回复生成方法和装置
WO2021155699A1 (zh) 面向中文长文本自动摘要的全局编码方法
CN110232186A (zh) 融合实体描述、层次化类型和文本关系信息的知识图谱表示学习方法
CN110825881A (zh) 一种建立电力知识图谱的方法
CN114048350A (zh) 一种基于细粒度跨模态对齐模型的文本-视频检索方法
CN111858932A (zh) 基于Transformer的多重特征中英文情感分类方法及系统
CN111753207B (zh) 一种基于评论的神经图协同过滤方法
CN113283236B (zh) 一种复杂中文文本中的实体消歧方法
CN110347831A (zh) 基于自注意力机制的情感分类方法
CN113486667A (zh) 一种基于实体类型信息的医疗实体关系联合抽取方法
CN107679225A (zh) 一种基于关键词的回复生成方法
CN113255366B (zh) 一种基于异构图神经网络的方面级文本情感分析方法
CN112328859A (zh) 一种基于知识感知注意力网络的虚假新闻检测方法
CN115563314A (zh) 多源信息融合增强的知识图谱表示学习方法
CN115062139A (zh) 一种对话文本摘要模型自动搜索方法
Zhu et al. Concept transfer learning for adaptive language understanding
CN113076744A (zh) 一种基于卷积神经网络的文物知识关系抽取方法
Yu et al. Cross-Domain Slot Filling as Machine Reading Comprehension.
CN114662659B (zh) 一种基于多阶段迁移学习策略综合的众包文本集成方法
CN116629266A (zh) 面向小样本的文本命名实体识别方法
CN115455144A (zh) 用于小样本意图识别的完型填空式的数据增强方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20200424