CN111680151B - 一种基于层次化transformer的个性化商品评论摘要生成方法 - Google Patents

一种基于层次化transformer的个性化商品评论摘要生成方法 Download PDF

Info

Publication number
CN111680151B
CN111680151B CN202010374043.1A CN202010374043A CN111680151B CN 111680151 B CN111680151 B CN 111680151B CN 202010374043 A CN202010374043 A CN 202010374043A CN 111680151 B CN111680151 B CN 111680151B
Authority
CN
China
Prior art keywords
representation
commodity
abstract
user
comment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010374043.1A
Other languages
English (en)
Other versions
CN111680151A (zh
Inventor
张伟
刘雪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
East China Normal University
Original Assignee
East China Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by East China Normal University filed Critical East China Normal University
Priority to CN202010374043.1A priority Critical patent/CN111680151B/zh
Publication of CN111680151A publication Critical patent/CN111680151A/zh
Application granted granted Critical
Publication of CN111680151B publication Critical patent/CN111680151B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/34Browsing; Visualisation therefor
    • G06F16/345Summarisation for human users
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种基于层次化transformer的个性化商品评论摘要生成方法,商品评论摘要是文本摘要的一种特殊形式,其任务是对在线的商品评论生成一条简短的摘要。与传统的文本摘要所不同的是,商品评论摘要涉及了特定的商品信息,不同的评论关注了商品的不同方面,且不同的用户有不同的写作风格,因此在商品评论摘要任务中引入用户和商品的信息是十分必要的。本发明方法其核心在于引入商品表示、用户长期表示以及用户短期表示,利用层次化的transformer对其建模从而生成个性化的商品评论摘要。

Description

一种基于层次化transformer的个性化商品评论摘要生成 方法
技术领域
本发明涉及计算机科学技术领域,具体涉及是一种基于层次化transformer的个性化商品评论摘要生成方法。
背景技术
文本摘要一直是自然语言处理领域的一个热点问题。商品评论摘要是文本摘要的一种特殊形式,其任务是对在线的商品评论生成一条简短的摘要。传统的文本摘要方法通常只考虑文本本身,而对于商品评论来说,其包含了特定的商品信息,不同的评论可能关注了商品的不同方面,因此在摘要生成过程中引入商品的信息是十分重要的。除此之外,不同的用户有不同的写作风格,因而不同用户所书写的摘要也是因人而异的,在考虑用户信息时,不仅要考虑用户长期稳定的信息,还应该考虑用户近期的写作风格、状态等对于生成的摘要的影响。
发明内容
本发明首次创新提供了一种基于层次化transformer的个性化商品评论摘要生成方法,其核心在于引入商品表示、用户长期表示以及用户短期表示,利用层次化的transformer对其建模从而生成个性化的商品评论摘要。
本发明采用层次化的transformer对用户表示、商品表示及商品评论进行建模,考虑了不同层级的用户表示,能够有效地生成个性化的商品评论摘要。
本发明提出的基于transformer的个性化商品评论摘要生成方法,包括以下步骤:
步骤一:选取数据集,对数据进行预处理后切分数据为训练集、验证集和测试集;
步骤二:学习商品评论中每个单词的向量表示和位置表示,将这两者相加后作为商品评论中每个单词的表示,然后将这些表示拼接得到商品评论表示,同理可以得到商品摘要表示、商品历史摘要表示以及用户历史摘要表示,区别在于,用户历史摘要表示中还包含了时序表示;
步骤三:根据用户ID得到用户表示,同理,根据商品ID得到商品表示;
步骤四:利用transformer的编码器对商品摘要表示、商品历史摘要表示以及用户历史摘要表示进行建模,并针对用户历史摘要表示使用用户表示指导的注意力机制来获得用户的短期表示,同理,针对商品历史摘要表示使用商品表示指导的注意力机制获得商品的历史表示,然后利用另一个transformer编码器来建模用户表示、用户短期表示、商品表示、商品历史表示以及评论表示之间的相互作用,最后利用transformer解码器解码生成摘要;
步骤五:利用训练数据学习模型的参数并利用验证集进行参数调优;
步骤六:利用基于transformer的网络模型对测试数据生成相应的商品评论摘要。
本发明中,所述的用户历史摘要是书写当前评论的用户最近所写的评论对应的摘要,所述的商品历史摘要是当前评论所对应的商品的历史评论中与当前评论最相似的评论所对应的摘要。
本发明中,所述的数据集为Amazon评论数据集,是为本领域普遍采用的公开数据集。
所述步骤一中,所述的对数据进行预处理包括以下步骤:
a1.对其中用户和商品出现次数少于20次的数据进行过滤操作;
a2.对用户按照时间戳选取与当前评论所对应的时间间隔最短的k条历史评论所对应的摘要;对商品选取与当前评论的向量表示的余弦相似度分数最高的k条历史评论所对应的摘要;
所述的步骤一中,切分数据为训练集,验证集和测试集为:对预处理得到的数据按照8:1:1的比例划分为训练集、验证集和测试集。
所述的步骤二中,所述得到用户历史摘要表示包括以下步骤:
b1.生成词嵌入:利用嵌入矩阵得到每条摘要中的单词的词嵌入;
b2.生成位置嵌入:利用正弦和余弦函数来表示单词的位置信息,得到其位置嵌入;
b3.生成时序嵌入:将每条摘要的发布时间与当前评论发布时间的时间差离散化之后得到时序嵌入;
b4.对于每条摘要中的每个单词,将上述嵌入相加得到其表示,然后将单词表示拼接得到历史用户摘要表示U。
所述的步骤二中,所述得到商品评论表示R、商品摘要表示S和商品历史摘要表示P只包含词嵌入和位置嵌入。
所述的步骤三中,通过构造用户嵌入矩阵以及商品嵌入矩阵,根据用户ID和商品ID可分别得到用户表示u和商品表示p。
所述的步骤四中,利用transformer编码器对商品摘要表示、商品历史摘要表示以及用户历史摘要表示进行编码,以用户历史摘要表示U为例,其具体计算过程包括以下步骤:
c1.多头注意力机制:
Figure BDA0002479456760000031
MH(U)=MLP([H1(U);···;HM(U)]T)
c2.相加&层归一化:
U′=LN(U+MH(U))
c3.前馈神经网络:
FFN(U′)=ReLu(U′W1+b1)W2+b2
c4.相加&层归一化:
U1=LN(U+FFN(U′))
其中,M是多头的个数,m∈{1,...,M},MLP表示的是多层感知机,LN表示层归一化,
Figure BDA0002479456760000032
W1,W2,b1,b2都是模型可学习的参数。将transformer编码器堆叠L次之后可以得到用户历史摘要表示UL,同理可以得到商品评论表示RL、商品摘要表示SL和商品历史摘要表示PL
所述的步骤四中,针对用户历史摘要表示使用用户表示指导的注意力机制来获得用户的短期表示以及针对商品历史摘要表示使用商品表示指导的注意力机制获得商品的历史表示,以用户指导的注意力机制为例,其计算过程如下:
Figure BDA0002479456760000033
Figure BDA0002479456760000034
其中,n是用户历史摘要的长度,
Figure BDA0002479456760000035
是矩阵参数,ω,b是向量参数。同理可以得到商品的历史表示pH
所述的步骤四中,利用另一个transformer编码器来建模用户表示、用户短期表示、商品表示、商品历史表示以及评论表示之间的相互作用,包括以下步骤:
d1.将上述5种表示进行拼接:
E=[u;uH;p;pH;RL]
其中,[;]表示向量拼接。
d2.按照c1-c4的步骤进行计算得到E1,将transformer编码器堆叠L次之后得到EL
所述的步骤四中,利用transformer解码器解码生成摘要,以时间步t为例,包括以下步骤:
f1.掩蔽的多头注意力机制,其与c1的不同之处在于隐藏掉了未来的信息:
Figure BDA0002479456760000041
MH(St)=MLP([H1(St);···;HM(St)]Τ)
f2.相加&层归一化:
St=LN(St+MH(St))
f3.编码-解码注意力机制,其以编码器的输出作为K和V,以解码器输出作为Q:
Figure BDA0002479456760000042
MH(St)=MLP([H1(St);···;HM(St)]Τ)
f4.相加&层归一化:
S′t=LN(St+MH(St))
f5.前馈神经网络:
FFN(S′t)=ReLu(S′tW1+b1)W2+b2
f6.相加&层归一化:
St=LN(St+FFN(S′t))
f7.词汇概率分布:
Pvoc=soft max(WtSt+bt)
其中,
Figure BDA0002479456760000051
W1,W2,Wt,b1,b2,bt均为模型可学习的参数。
所述的步骤五中,训练过程的目标函数是:
Figure BDA0002479456760000052
其中z表示生成的摘要的长度,y1,...,yt-1表示在当前时间步之前生成的单词。
本发明提供了一种基于层次化transformer的个性化商品评论摘要生成方法,同时考虑了用户长期表示、用户短期表示以及商品表示对于摘要生成的影响,与现有技术相比,本发明具有有益效果包括:
(1)引入了用户ID以及用户近期所书写的评论的摘要,充分考虑了与用户相关的信息,有利于生成保持用户风格的摘要;
(2)引入了商品ID以及商品历史评论所对应的摘要,使得摘要生成的过程中充分关注了商品的不同方面,有助于生成更贴近商品的摘要。
附图说明
图1是本发明个性化商品评论摘要生成的流程示意图。
图2是本发明一实施例中整个网络模型的框架图。
具体实施方式
结合以下具体实施例和附图,对本发明作进一步的详细说明。实施本发明的过程、条件、实验方法等,除以下专门提及的内容之外,均为本领域的普遍知识和公知常识,本发明没有特别限制内容。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进。这些都属于本发明的保护范围。
商品评论摘要是文本摘要的一种特殊形式,其任务是对在线的商品评论生成一条简短的摘要。与传统的文本摘要所不同的是,商品评论摘要涉及了特定的商品信息,不同的评论关注了商品的不同方面,且不同的用户有不同的写作风格,因此在商品评论摘要任务中引入用户和商品的信息是十分必要的。因此本发明提出了一种基于层次化transformer的个性化商品评论摘要生成方法,以便于生成更适合用户的商品评论摘要。方法流程图如图1所示,该方法包括以下步骤:
步骤一:选取数据集,对数据进行预处理后切分数据为训练集、验证集和测试集;
步骤二:学习商品评论中每个单词的向量表示和位置表示,将这两者相加后作为商品评论中每个单词的表示,然后将这些表示拼接得到商品评论表示,同理可以得到商品摘要表示、商品历史摘要表示以及用户历史摘要表示,区别在于,历史用户摘要表示中还包含了时序表示;
步骤三:根据用户ID得到用户表示,同理,根据商品ID得到商品表示;
步骤四:利用transformer的编码器对商品摘要表示、商品历史摘要表示以及用户历史摘要表示进行建模,并针对用户历史摘要表示使用用户表示指导的注意力机制来获得用户的短期表示,同理,针对商品历史摘要表示使用商品表示指导的注意力机制获得商品的历史表示,然后利用另一个transformer编码器来建模用户表示、用户短期表示、商品表示、商品历史表示以及评论表示之间的相互作用,最后利用transformer解码器解码生成摘要;
步骤五:利用训练数据学习模型的参数并利用验证集进行参数调优;
步骤六:利用基于transformer的网络模型对测试数据生成相应的商品评论摘要。
更细致的,首先,选取数据集,以Amazon评论数据集为例,利用Python按如下步骤进行处理:
a1.对其中不频繁的数据进行过滤操作,删除发布的评论数目少于20次的用户的数据,删除评论数目少于20次的商品的数据;
a2.对每条评论的用户按照时间戳选取与当前评论的时间间隔最小的10条历史评论所对应的摘要,作为用户相关信息进行存储,对每条评论的商品选取与当前评论的向量表示的余弦相似度最高的10条历史评论对应的摘要,作为商品相关信息进行存储;
a3.对预处理得到的数据按照8:1:1的比例划分为训练集、验证集和测试集。
通过调用Pytorch和Python中的一些包,完成模型的输入的处理,以用户历史摘要表示为例,包括以下步骤:
b1.生成词嵌入:利用嵌入矩阵得到每条摘要中的单词的词嵌入;
b2.生成位置嵌入:利用正弦和余弦函数来表示单词的位置信息,得到其位置嵌入;
b3.生成时序嵌入:将每条摘要的发布时间与当前评论发布时间的时间差离散化之后得到时序嵌入;
b4.对于每条摘要中的每个单词,将上述嵌入相加得到其表示,然后将单词表示拼接得到用户历史摘要表示U。
同理,可以得到商品评论表示R、商品摘要表示S和商品历史摘要表示P,需注意的是,这三种表示不包含时序嵌入。
然后,通过构造用户嵌入矩阵以及商品嵌入矩阵,根据用户ID和商品ID可分别得到用户表示u和商品表示p。
接下来,利用Pytorch,完成对层次化transformer的构建,包括以下步骤:
c1.构造短期用户编码器:
c11.输入用户历史摘要表示,记为U,
c12.经过短期用户编码器进行编码,得到UL
c2.用户表示指导的注意力机制:
c21.通过用户表示u与UL计算
Figure BDA0002479456760000071
得到注意力权重α,
c22.通过注意力权重计算
Figure BDA0002479456760000072
得到用户短期表示uH
c3.构造商品编码器:
c31.输入商品历史摘要表示,记为P,
c32.经过商品编码器进行编码,得到PL
c4.商品表示指导的注意力机制:
c41.通过商品表示p与PL计算
Figure BDA0002479456760000073
得到注意力权重β,
c42.通过注意力权重计算
Figure BDA0002479456760000081
得到商品表示pH
c5.构造商品评论编码器:
c51.输入商品评论表示,记为R,
c52.经过商品评论编码器进行编码,得到RL
c6.构造融合表示编码器:
c61.将之前得到的表示进行拼接E=[u;uH;p;pH;RL],记为E,
c62.经过融合表示编码器进行编码,得到融合表示EL
c7.构造transformer解码器,输入用户摘要表示S以及融合表示EL,生成时间步t的解码表示St
利用Pytorch构建生成器部分,即采用一个线性层和一个softmax层得到词汇表的生成概率Pvoc=softmax(WtSt+bt)
通过调用Pytorch中的反向传播等优化函数,根据目标函数
Figure BDA0002479456760000082
训练网络模型的参数,直到损失收敛。
利用预训练好的参数,通过集束搜索等方式,对测试集生成商品评论摘要。
在实践中,在模型层之间,还可以选择性的包括以下步骤:在模型训练期间,采用dropout网络和参数的二范数正则对参数进行限制,防止产生过拟合的情况。
本发明一实施例中整个网络模型的框架图,如图2所示:
d1.商品评论编码器:对商品评论进行编码;
d2.短期用户编码器:对用户历史摘要表示进行编码;
d3.商品编码器:对商品历史摘要表示进行编码;
d4.用户表示指导的注意力机制:利用用户表示计算短期用户编码器得到的表示的权重,根据该权重对短期用户编码器得到的表示进行加权求和,得到用户的短期表示;
d5.商品表示指导的注意力机制:利用商品计算商品编码器得到的表示的权重,根据该权重对商品编码器得到的表示进行加权求和,得到商品的历史表示;
d6.融合编码器:对前面得到的5种表示进行编码融合,得到融合表示;
d7.解码器:根据商品摘要表示和融合表示得到时间步t的输出表示;
d8.生成器:根据输出表示生成摘要。
本发明上述实施例中的参数是根据实验结果确定的,即测试不同的参数组合,选取在验证集上评价指标较优的一组参数,在测试集上评价得到结果。在实际的测试中,可根据需求对上述参数进行适当调整也可实现本发明的目的。
本发明的保护内容不局限于以上实施例。在不背离本发明构思的精神和范围下,本领域技术人员能够想到的变化和优点都被包括在本发明中,并且以所附的权利要求书为保护范围。

Claims (11)

1.一种基于层次化transformer的个性化商品评论摘要生成方法,其特征在于,所述方法包括如下步骤:
步骤一:选取数据集,对数据进行预处理后切分数据为训练集、验证集和测试集;
步骤二:学习商品评论中每个单词的向量表示和位置表示,将这两者相加后作为商品评论中每个单词的表示,然后将这些表示拼接得到商品评论表示;基于相同方法得到商品摘要表示、商品历史摘要表示以及用户历史摘要表示;所述用户历史摘要表示中还包含时序表示;
步骤三:根据用户ID得到用户表示;根据商品ID得到商品表示;
步骤四:利用transformer的编码器对商品摘要表示、商品历史摘要表示以及用户历史摘要表示分别进行建模,并针对用户历史摘要表示使用用户表示指导的注意力机制来获得用户的短期表示;针对商品历史摘要表示使用商品表示指导的注意力机制获得商品的历史表示,将用户表示u、用户短期表示uH、商品表示p、商品历史表示pH以及评论表示RL进行拼接,利用另一个transformer编码器来建模这五种表示之间的相互作用,最后利用transformer解码器解码生成摘要;
所述步骤四中,利用transformer编码器对商品摘要表示、商品历史摘要表示以及用户历史摘要分别表示进行编码;用户历史摘要表示U的具体计算过程包括以下步骤:
c1.多头注意力机制:
Figure FDA0003371952680000011
MH(U)=MLP([H1(U);…;HM(U)]T)
c2.相加&层归一化:
U′=LN(U+MH(U))
c3.前馈神经网络:
FFN(U′)=ReLU(U′W1+b1)W2+b2
c4.相加&层归一化:
U1=LN(U+FFN(U′))
其中,M是多头的个数,m∈{1,...,M},MLP表示的是多层感知机,LN表示层归一化,
Figure FDA0003371952680000021
都是模型可学习的参数;将transformer编码器堆叠L次之后可以得到用户历史摘要表示UL,同理可以得到商品评论表示RL、商品摘要表示SL和商品历史摘要表示PL
所述步骤四中,将用户表示u、用户短期表示uH、商品表示p、商品历史表示pH以及评论表示RL进行拼接,利用另一个transformer编码器来建模这五种表示之间的相互作用,包括以下步骤:
d1.将上述5种表示进行拼接:
E=[u;uH;p;pH;RL]
其中,[;]表示向量拼接;
d2.对拼接后的表示E按照c1-c4的步骤进行计算得到E1,将transformer编码器堆叠L次之后得到EL
步骤五:利用训练集学习模型的参数并利用验证集进行参数调优;
步骤六:利用基于层次化transformer的网络模型对测试集生成相应的商品评论摘要。
2.根据权利要求1所述的基于层次化transformer的个性化商品评论摘要生成方法,其特征在于,所述用户历史摘要是书写当前评论的用户近期所写的评论对应的摘要,即按照时间顺序由近及远选取的与当前时间间隔最短的k条评论所对应的摘要;所述商品历史摘要是当前评论所对应的商品的历史评论中与当前评论最相似的评论所对应的摘要,即依据当前评论所对应的商品的历史评论的向量表示选取与当前评论的向量表示的余弦相似度分数最高的k条评论所对应的摘要。
3.根据权利要求1所述的基于层次化transformer的个性化商品评论摘要生成方法,其特征在于,所述步骤一中,所述数据集采用的公开数据集;所述公开数据集为Amazon评论数据集。
4.根据权利要求1所述的基于层次化transformer的个性化商品评论摘要生成方法,其特征在于,所述步骤一中,所述对数据进行预处理包括以下步骤:
a1.对其中用户和商品出现次数少于20次的数据进行过滤操作;
a2.对用户按照时间戳选取与当前评论所对应的时间间隔最短的k条历史评论所对应的摘要;对商品选取与当前评论的向量表示的余弦相似度分数最高的k条历史评论所对应的摘要。
5.根据权利要求1所述的基于层次化transformer的个性化商品评论摘要生成方法,其特征在于,所述步骤一中,切分数据为训练集,验证集和测试集为:对预处理得到的数据按照8:1:1的比例划分为训练集、验证集和测试集。
6.根据权利要求1所述的基于层次化transformer的个性化商品评论摘要生成方法,其特征在于,所述步骤二中,所述得到用户历史摘要表示包括以下步骤:
b1.生成词嵌入:利用嵌入矩阵得到每条摘要中的单词的词嵌入;
b2.生成位置嵌入:利用正弦和余弦函数来表示单词的位置信息,得到其位置嵌入;
b3.生成时序嵌入:将每条摘要的发布时间与当前评论发布时间的时间差离散化之后得到时序嵌入;
b4.对于每条摘要中的每个单词,将上述b1-b3生成的嵌入相加得到其表示,然后将单词表示拼接得到用户历史摘要表示U。
7.根据权利要求1所述的基于层次化transformer的个性化商品评论摘要生成方法,其特征在于,所述步骤二中,所述得到商品评论表示R、商品摘要表示S和商品历史摘要表示P只包含词嵌入和位置嵌入。
8.根据权利要求1所述的基于层次化transformer的个性化商品评论摘要生成方法,其特征在于,所述步骤三中,通过构造用户嵌入矩阵以及商品嵌入矩阵,根据用户ID和商品ID可分别得到用户表示u和商品表示p。
9.根据权利要求1所述的基于层次化transformer的个性化商品评论摘要生成方法,其特征在于,所述步骤四中,针对用户历史摘要表示使用用户表示指导的注意力机制来获得用户的短期表示以及针对商品历史摘要表示使用商品表示指导的注意力机制获得商品的历史表示;用户指导的注意力机制的计算过程如下:
Figure FDA0003371952680000031
Figure FDA0003371952680000032
其中,n是用户历史摘要的长度,
Figure FDA0003371952680000041
是矩阵参数,ω,b是向量参数;同理可以得到商品的历史表示pH
10.根据权利要求1所述的基于层次化transformer的个性化商品评论摘要生成方法,其特征在于,所述步骤四中,利用transformer解码器解码生成摘要,利用参数t表示时间步来进行计算,包括以下步骤:
f1.掩蔽的多头注意力机制,其与c1的不同之处在于隐藏掉了未来的信息:
Figure FDA0003371952680000042
MH(St)=MLP([H1(St);…;HM(St)]T)
f2.相加&层归一化:
St=LN(St+MH(St))
f3.编码-解码注意力机制,其以编码器的输出作为K和V,以解码器输出作为Q:
Figure FDA0003371952680000043
MH(St)=MLP([H1(St);…;HM(St)]T)
f4.相加&层归一化:
S′t=LN(St+MH(St))
f5.前馈神经网络:
FFN(S′t)=ReLU(S′tW1+b1)W2+b2
f6.相加&层归一化:
St=LN(St+FFN(S′t))
f7.词汇概率分布:
Pvoc=softmax(WtSt+bt)
其中,
Figure FDA0003371952680000044
W1,W2,Wt,b1,b2,bt均为模型可学习的参数。
11.根据权利要求1所述的基于层次化transformer的个性化商品评论摘要生成方法,其特征在于,所述步骤五中,训练过程的目标函数是:
Figure FDA0003371952680000051
其中,z表示生成的摘要的长度,y1,...,yt-1表示在当前时间步之前生成的单词。
CN202010374043.1A 2020-05-06 2020-05-06 一种基于层次化transformer的个性化商品评论摘要生成方法 Active CN111680151B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010374043.1A CN111680151B (zh) 2020-05-06 2020-05-06 一种基于层次化transformer的个性化商品评论摘要生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010374043.1A CN111680151B (zh) 2020-05-06 2020-05-06 一种基于层次化transformer的个性化商品评论摘要生成方法

Publications (2)

Publication Number Publication Date
CN111680151A CN111680151A (zh) 2020-09-18
CN111680151B true CN111680151B (zh) 2022-02-11

Family

ID=72452475

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010374043.1A Active CN111680151B (zh) 2020-05-06 2020-05-06 一种基于层次化transformer的个性化商品评论摘要生成方法

Country Status (1)

Country Link
CN (1) CN111680151B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112528141A (zh) * 2020-12-03 2021-03-19 中山大学 一种基于多任务学习的个性化评论文本推荐方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10963941B2 (en) * 2017-09-08 2021-03-30 Nec Corporation Method and system for combining user, item and review representations for recommender systems
CN109190109B (zh) * 2018-07-26 2020-09-29 中国科学院自动化研究所 融合用户信息生成评论摘要的方法及装置
CN109145112B (zh) * 2018-08-06 2021-08-06 北京航空航天大学 一种基于全局信息注意力机制的商品评论分类方法
CN109800390B (zh) * 2018-12-21 2023-08-18 北京石油化工学院 一种个性化情感摘要的计算方法与装置
CN110334759B (zh) * 2019-06-28 2022-09-23 武汉大学 一种评论驱动的深度序列推荐方法
CN110472238B (zh) * 2019-07-25 2022-11-18 昆明理工大学 基于层级交互注意力的文本摘要方法
CN110648163B (zh) * 2019-08-08 2024-03-22 中山大学 一种基于用户评论的推荐算法
CN110874439B (zh) * 2019-11-20 2022-08-02 电子科技大学 一种基于评论信息的推荐方法

Also Published As

Publication number Publication date
CN111680151A (zh) 2020-09-18

Similar Documents

Publication Publication Date Title
CN109840287B (zh) 一种基于神经网络的跨模态信息检索方法和装置
CN111368996B (zh) 可传递自然语言表示的重新训练投影网络
CN108733742B (zh) 全局归一化阅读器系统和方法
CN109885660A (zh) 一种知识图谱赋能的基于信息检索的问答系统和方法
CN110619044B (zh) 一种情感分析方法、系统、存储介质及设备
JP7315065B2 (ja) 質問生成装置、質問生成方法及びプログラム
CN111563166A (zh) 一种针对数学问题分类的预训练模型方法
CN113076739A (zh) 一种实现跨领域的中文文本纠错方法和系统
CN111680484A (zh) 一种视觉常识推理问答题的答题模型生成方法和系统
CN110598222A (zh) 语言处理方法及装置、语言处理系统的训练方法及装置
Gangadharan et al. Paraphrase detection using deep neural network based word embedding techniques
CN112579870A (zh) 检索匹配模型的训练方法、装置、设备及存储介质
CN111859967A (zh) 实体识别方法、装置,电子设备
CN111145914B (zh) 一种确定肺癌临床病种库文本实体的方法及装置
Zhou et al. Deep personalized medical recommendations based on the integration of rating features and review sentiment analysis
CN114611520A (zh) 一种文本摘要生成方法
CN111680151B (zh) 一种基于层次化transformer的个性化商品评论摘要生成方法
CN114036246A (zh) 商品图谱向量化方法、装置、电子设备及存储介质
CN113704393A (zh) 关键词提取方法、装置、设备及介质
CN111914084A (zh) 一种基于深度学习的带有情感标签文本生成及评估系统
CN115906824A (zh) 一种文本细粒度情感分析方法、系统、介质和计算设备
CN113590745B (zh) 一种可解释的文本推断方法
CN112131363B (zh) 自动问答方法、装置、设备及存储介质
CN113012685B (zh) 音频识别方法、装置、电子设备及存储介质
CN114385803A (zh) 一种基于外部知识和片段选择的抽取式阅读理解方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant