CN111325571B - 一种多任务学习的商品评论标签自动生成方法、装置及系统 - Google Patents
一种多任务学习的商品评论标签自动生成方法、装置及系统 Download PDFInfo
- Publication number
- CN111325571B CN111325571B CN201911396009.8A CN201911396009A CN111325571B CN 111325571 B CN111325571 B CN 111325571B CN 201911396009 A CN201911396009 A CN 201911396009A CN 111325571 B CN111325571 B CN 111325571B
- Authority
- CN
- China
- Prior art keywords
- comment
- model
- data
- source text
- labels
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0282—Rating or review of business operators or products
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Development Economics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Strategic Management (AREA)
- Life Sciences & Earth Sciences (AREA)
- Accounting & Taxation (AREA)
- Evolutionary Computation (AREA)
- Finance (AREA)
- Entrepreneurship & Innovation (AREA)
- Game Theory and Decision Science (AREA)
- Databases & Information Systems (AREA)
- Economics (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Machine Translation (AREA)
Abstract
一种多任务学习的商品评论标签自动生成方法、装置与系统,包括:步骤一:构建训练数据集合与数据预处理;步骤二:实现基于Transformer encoder的评论源文本特征编码器;步骤三:提取代表评论源文本整体内容的[cls]标签对于的隐状态向量用于情感分类任务;步骤四:基于Transformer decoder实现多任务的评论摘要生成器模型;步骤五:训练数据并根据联合loss函数进行训练调优,并实现模型封装与装置的接口实现;本发明避免采用抽取式的方式去生成评论标签,即不需要依赖句法结构的人工的规则集不能适合多个领域场景的缺点,又能保证标签生成的高效性,即只需要输入源文本,本发明装置能够自动产生标签。
Description
技术领域
本发明涉及人工智能领域,尤其涉及一种多任务学习的商品评论标签自动生成方法、装置及系统。
背景技术
随着互联网迈入WEB2.0时代,人们不只是网络信息的消费者,更是网络信息的生产者。现如今人们在互联网上发表自己对商品、服务、时事的评价等观点信息变得越来越容易。在这种趋势下,对于网络评论的挖掘成为当前研究热点。在线评论是消费者做出购买决策的最主要因素,此外,在线评论作为反馈数据也能帮助企业提升产品以及了解用户需求。然而,评论数据量的飞速增长,加上评论数据本身具有不规范性、冗余性的特征,使得有用数据评论信息难以获取。因此,迫切需要一种能够高效准确地提取评论数据中有效信息的技术。
以往的商品标签生成的当时一般是基于商品方面及其情感的抽取式方式,即抽取出商品的某一个方面,比如华为手机在分辨率、价格、续航等方面,并识别出商品方面的情感。最后组织成商品标签如:分辨率高,价格便宜、续航持久。目前普遍使用的用户评论的观点提取和聚类的方法主要是基于规则的提取和K-means、LDA等传统方法。在基于规则的观点提取方法中,用户的评论中观点陈述句具有固定的句式结构,通过句法分析工具以及规则可以简单有效地抽取到用户评论中的观点。但是这种抽取观点的方法只对部分观点有效,因为依赖人工总结出来的规则不能涵盖所有用户评论中的表述方式。同时,这种方法仅对陈述句有效,中文会有很多种表达方式,因而这种方法无法直接适用。对于文本常用的聚类方法主要是以LDA为代表的主题模型和以K-means为代表的传统聚类方法。这些传统方法的好处在于模型简单,当样本较多时能够在较短的时间内收敛。但这些方法都是初值敏感的,即聚类的尺度无法控制,同一个类别下的共性可能不是语义上的相似性。同时,对于不同类别不同极性的商品评论观点用同一个标签并不适用。因此,无论是观点抽取,还是对观点进行聚合都有可以提升的空间,在观点抽取部分可提升召回率,在观点聚合部分可提升准确率,从而生成更加合理准确的商品评论标签。
综上,目前普遍的方式存在一定的缺点,首先命名实体识别并不适用于商品方面的词的识别,基于规则的方式并不适合于领域扩展比如在手机商品的评论对象抽取的pattern不试用于在家具商品上的对象抽取。一些基于神经网络模型建模的方法多采取基于商品的方面于情感的联合抽取方式,存在错误累积问题。
发明内容
由于抽取式文本摘要具备相对于生成式文本摘要更加优越的性能,特别是针对长文本摘要的应用场景,抽取式文本摘要研究仍然备受瞩目,也更能够直接应用于现实场景的开发实现,而目前已有的工作并没有从语义理解这个角度进行抽取式文本摘要的建模,造成抽取出的摘要存在偏离源文核心语义的现象。本发明正是针对深度语义理解表征的抽取式问文本摘要进行深入研究,提高抽取式文本摘要方法在语义理解上的壁垒,提升摘要性能。
为达到上述目的,本发明采用了下列技术方案:
一种多任务学习的商品评论标签自动生成方法,包括:
步骤一:构建训练数据集合与数据预处理;
步骤二:实现基于Transformer encoder的评论源文本特征编码器;
步骤三:提取代表评论源文本整体内容的[cls]标签对于的隐状态向量用于情感分类任务;
步骤四:基于Transformer decoder实现评论摘要生成器模型;
步骤五:训练数据并根据联合loss函数进行训练调优,并实现模型封装与装置的接口实现;
进一步,所述步骤一包括:
输入源文本;
进行训练语料预处理,所述预处理包括:
(1)在每一个源文本的句子前后分别加上代表内容开始和结束的前部与后部标签[cls]和 [eos];
(2)对源文本进行分词处理,将每一个分词的后的标记用词向量序列表示,结合所述标签形成source源数据;
(3)在对源文本进行数据处理同时,对以评论标签为生成目标的标签数据也进行处理,得到target评论标签数据,source源数据与target评论标签数据形成最初的训练语料。
进一步,所述步骤二包括:
首先,对于要输入的源文本和评论标签的训练语料,建立一个生成模型进行评论标签数据生成的模型建模,具体步骤为:
(1)采用xavier函数随机初始化词编码向量,获取评论内容向量表示,得到源文本句子特征编码向量;
(2)评论源文本中的词通过Transformer encoder进行对应的隐状态向量表示学习;
(3)提取代表句子的所述隐状态向量特征表示代表句子的整体特征即[cls]标签对于的隐状态向量,用以多任务学习的情感分类任务;
(4)代表句子整体特征的[cls]隐状态向量表示喂入情感分类函数中进行情感标签的概率分布计算;
其次,实现基于Transformer的评论摘要生成器模型,具体步骤为:
(1)对评论标签文本,采用xavier函数随机初始化词编码向量,获取评论内容向量表示;
(2)将所述评论标签文本的特征编码的输出和评论源文本的编码隐状态向量输入到Transformer decoder摘要生成器中生成摘要,得到生成词的隐状态向量表示;
(3)作为计算预测的所述当前词,需要在得到生成词的所述隐状态向量表示后,从词典中计算分布,找出概率最高的词作为最后生成的词。
进一步,所述步骤三包括:
训练数据并根据交叉验证调优,并实现模型封装与装置的接口实现,具体实现步骤为:
(1)设置针对两个任务的loss函数,分别是针对摘要任务的cross entropy loss函数与针对情感分类的cross entropy loss函数;
(2)参数调优后,将训练好的模型实现接口封装,用于装置对于真实数
据的评论标签生成。
本发明还提供了一种新的技术方案,该技术方案为:
一种多任务学习的商品评论标签自动生成装置,包括:
信息输入模块,用于将商品评论的源文本进行导入;
抽取式文档摘要自动生成模块,应用所述多任务学习的商品评论标签自动生成方法,对输入源文本进行摘要生成;
信息输出模块,将自动生成的摘要通过接口程序输出。
本发明还提供了一种新的技术方案,该技术方案为:
一种多任务学习的商品评论标签自动生成系统,包括至少一台服务器,以及与服务器连接的上述的多任务学习的商品评论标签自动生成装置,所述服务器执行生成评论标签过程时,通过所述多任务学习的商品评论标签自动生成装置执行上述的多任务学习的商品评论标签自动生成方法。
本发明相对于现有技术的优点在于:
1)本发明首先考虑评论标签生成建模的序列到序列模型,采用对文本序列编码能力更具优势的Transformer模型,通过Transformer的 encoder(编码)结构对评论源文本的特征建模,这些特征表示向量输入到解码器进行标签生成。在解码器端同时采用Transformer的decoder(解码)结构对评论标签文本编码并生成相应的标签内容。
2)本发明考虑对商品的打分值,进行商品评论进行情感极性的分类,为了使得商品打分值能够正面影响对应分值的商品标签生成,本发明采取多任务学习方式,模型的底层是统一的文本编码结构,在上层利用编码的向量进行情感分类和商品评论标签两个任务建模,使得两个任务相互学习,相互影响。3)本发明避免采用抽取式的方式去生成评论标签,即不需要依赖句法结构的人工的规则集不能适合多个领域场景的缺点,又能保证标签生成的高效性,即只需要输入源文本,本发明装置能够自动产生标签。
附图说明
图1基于Transformer序列生成的多任务学习模型图。
具体实施方式
为了能够更加详尽地了解本发明实施例的特点与技术内容,下面结合附图对本发明实施例的实现进行详细阐述,所附附图仅供参考说明之用,并非用来限定本发明实施例。
为清楚地说明本发明的设计思想,下面结合实施例对本发明进行说明。
本实施例中一种多任务学习的商品评论标签自动生成方法主要包括四个步骤:(1)构建训练数据集合与数据预处理;(2)实现基于Transformer encoder 的评论源文本特征编码器;(3)基于Transformer decoder实现多任务的评论摘要生成器模型。(4)训练数据并根据联合loss函数进行训练调优,并实现模型封装与装置的接口实现。
步骤一:构建训练数据与数据预处理
以手机评论为例,输入评论源文本如“摄像功能很棒,拍照很清晰!上手十分钟,感叹国货当自强,期待5G网络的到来!华为加油?!”。其对应的评论标签为“手机清晰度很高”。其数据预处理的步骤包括:
(1)输入源文本数据预处理,得到源文本内容后,在每一个源文本内容前后分别加上[cls]与[eos]标签,其中[cls]标签主要是用于句子建模过程中学习对句子的编码信息,可以代表整个源文本内容的语义,而[eos]主要用于学习源文本结束的语义。
(2)对源文本进行分词处理,将每一个分词的后的token用序列 {[x1],[x2],...,[xn]}。其中x表示词向量。结合上诉步骤一的两个标签,整个源文本的句子表示的结构为{[cls1],[x1],[x2],...,[eos]}的Source数据。
(3)构建训练数据,本发明的目的是实现一个评论标签的生成技术,建模过程需要大量的真实样本,通过在电商平台采集大量的真实评论标签与对应的源文本后,构建训练数据集包括:源文本与评论标签,源文本为模型编码的内容,评论标签为解码器生成的内容。在对源文本进行数据处理构建后,需要对以评论标签为生成目标的数据,即源文本对应的商品标签target数据也进行处理同时灌入模型中进行训练。。评论标签数据的结构为{[senten],[t],[eos]}。获得最初的训练语料。其中,[senten]表示评论标签的起实标签,[t]表示评论标签的内容,为[t1,t2,...,tl],l表示训练数据中评论标签的长度。
步骤二:实现基于Transformer序列生成的多任务学习模型
首先,进行源文本和评论的语义编码后,需要建立一个生成模型进行评论标签数据生成的模型建模。本发明借鉴Transformer模型的序列到序列的特征编码能力,在序列到序列模型的编码器,本发明采用Transformer Encoder特征编码,这部分对原文的编码向量将作为原文上下文信息辅助序列模型的解码器端的Transformer解码器来实现评论生成。具体步骤包括:
(1)如模型图1所示,基于本发明采用xavier函数随机初始化词的向量表示进行编码,获取评论内容向量表示。得到源文本句子特征编码向量。
sourceembedding=Xavier(content)
(2)评论源文本中的词通过Transformer进行对应的隐状态向量表示学习。隐状态向量为Tl=[Tx1,Tx2,...,Txn],n表示原文档中句子的长度。
Tl=Transformer(sourceembedding)
(3)提取代表句子的隐状态向量特征表示Tcls,Tcls可以代表句子的整体特征,而这部分特征用以多任务学习的情感分类任务。该步骤即提取句子[clsi]标签对应的Embedding。
Tcls=GetCls(sourceembedding)
(4)基于句子的隐状态向量表示喂入情感分类函数中进行情感标签的概率分布计算,其中概率计算公式为:
P(yx|Tcls)=softmax(WcTcls+bc)
其中,Wc与bc表示情感分类的概率计算中需要模型学习的参数。
其次,实现基于Transformer的评论摘要生成器模型
评论摘要生成器基于Transformer Decoder构造,输入有两部分:评论源文本token的表示向量和当前生成的评论标签数据,输出为预测的语义单元内容。在生成模型中Source数据是前述中基于Transformer encoder生成评论内容特征编码,生成的评论标签是由评论文本进行Transformer decoder解码生成获得。步骤为:
(1)对评论标签文本使用Transformer进行编码。
targetembedding=Xavier(opinion)
(2)将前述中特征编码的输出和评论的编码输入到Transformer摘要生成器中生成摘要。当前生成的词的表示v为:
v=Decoder(targetembedding,Tl)
其中,Tl表示作为输入到decoder模型中原文的隐状态向量表示。
(3)作为计算预测的当前词,需要在得到生成词的隐状态向量表示后,从词典中计算分布,找出概率最高的词作为最后生成的词。其概率函数为:
P(yx|x)=softmax(Wgv+bg)
其中,Wg与bg表示生成内容的概率计算中需要模型学习的参数。得到概率后,选择概率分布中概率最高的词作为生成的对象。
综上,本发明设计了一种基于Transformer序列生成的多任务学习模型,包括Transformer encoder的源文本特征编码,用Tcls标签代表整个原文句子的语义学习情感分类,Transformer decoder的生成评论标签。
步骤三:训练数据并根据交叉验证调优,并实现模型封装与装置的接口实现。
(1)多任务学习的loss函数设置:因为本发明实现一种多任务学习的评论情感分类与评论标签生成,在这里,本发明设置针对两个任务的loss 函数。分别是针对摘要任务的cross entropy loss函数与针对情感分类的cross entropy loss函数。针对摘要任务的cross entropy loss函数为:
其中,yt表示模型训练过程中需要生成的真实的文本。P(yt|x)表示生成词的概率分布,由(3)中的概率函数求得。针对情感分类的cross entropy loss函数为:
Lc=-LlogP(l|x)
其中,L为真实的情感标签,P(l|x)为情感标签的预测值。
本发明采用Adam优化器联合最小化两个损失函数去进行模型训练:
L=Ls+λLc
其中,λ表示超参数去平衡两个loss函数。在这里设置为0.5。
(2)参数调优后,将训练好的模型实现接口封装,用于装置对于真实数据的评论标签生成。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。
Claims (5)
1.一种多任务学习的商品评论标签自动生成方法,其特征在于:包括:
步骤一:构建训练数据集与数据预处理,包括通过输入源文本,进行训练语料预处理的过程;
步骤二:实现基于Transformer encoder的评论源文本特征编码器,包括:首先,对于要输入的源文本和评论标签的训练语料,建立一个分类模型进行评论标签数据分类的模型建模,其次,实现基于Transformer decoder的评论摘要生成器模型的过程;
步骤三:基于Transformer实现多任务的评论摘要生成器模型;
步骤四:训练数据并根据多任务的联合loss函数进行训练调优,并实现模型封装与装置的接口实现;
所述进行训练语料预处理过程包括:
(1)在每一个源文本的句子前后分别加上代表内容开始和结束的前部与后部标签[cls]和[eos];
(2)对源文本进行分词处理,将每一个分词后的标记用词向量序列表示,结合所述标签,整个源文本的句子表示的结构为{[cls1],[x1],[x2],...,[eos]},source源数据;
(3)在对源文本进行数据处理同时,对以评论标签为生成目标的标签数据也进行处理,得到target评论标签数据,评论标签数据的结构为{[senten],[t],[eos]},[senten]表示评论标签的起实标签,[t]表示评论标签的内容,为[t1,t2,...,tl],l表示训练数据中评论标签的长度,source源数据与target评论标签数据形成最初的训练语料;
所述对于要输入的源文本和评论标签的训练语料,建立一个分类模型进行评论标签数据分类的模型建模过程,具体步骤为:
(1)采用xavier函数随机初始化词编码向量,获取评论内容向量表示,得到源文本句子特征编码向量
sourceembedding=Xavier(content);
(2)评论源文本中的词通过Transformer encoder进行对应的隐状态向量表示学习,隐状态向量为Tl=[Tx1,Tx2,...,Txn],n表示原文档中句子的长度,Tl=Transformer(sourceembedding);
(3)提取代表句子的所述隐状态向量特征,表示代表句子的整体特征,即[cls]标签对于的隐状态向量,用以多任务学习的情感分类任务,Tcls=GetCls(sourceembedding);
(4)代表句子整体特征的[cls]隐状态向量表示喂入情感分类函数中进行情感标签的概率分布计算;
P(yx|Tcls)=softmax(WcTcls+bc)
其中,Wc与bc表示情感分类的概率计算中需要模型学习的参数;
所述实现基于Transformer decoder的评论摘要生成器模型过程,具体步骤为:
(1)对评论标签文本,采用xavier函数随机初始化词编码向量,获取评论内容向量表示
targetembedding=Xavier(opinion);
(2)将所述评论标签文本的特征编码的输出和评论源文本的编码隐状态向量输入到Transformer decoder摘要生成器中生成摘要,得到生成词的隐状态向量表示
v=Decoder(targetembedding,Tl);
(3)作为计算预测的所述当前词,需要在得到生成词的所述隐状态向量表示后,从词典中计算分布,找出概率最高的词作为最后生成的词
P(yx|x)=softmax(Wgv+bg);
其中,wg与bg表示词典选词的概率计算中需要模型学习的参数。
2.根据权利要求1所述的一种多任务学习的商品评论标签自动生成方法,其特征在于:所述基于Transformer实现多任务的评论摘要生成器模型步骤包括:训练数据并根据交叉验证调优,并实现模型封装与装置的接口实现,具体实现步骤为:
(1)设置针对两个任务的loss函数,分别是针对摘要任务的cross entropy loss函数
与针对情感分类的cross entropy loss函数
Lc=-LolgP(l|x);
(2)采用Adam优化器联合最小化两个损失函数去进行模型训练:
L=Ls+λLc
其中,λ表示超参数,用于平衡两个loss函数,参数调优后,将训练好的模型实现接口封装,用于装置对于真实数据的评论标签生成。
3.根据权利要求2所述的一种多任务学习的商品评论标签自动生成方法,其特征在于:λ设置为0.5。
4.一种多任务学习的商品评论标签自动生成装置,其特征在于:包括:
信息输入模块,用于将商品评论的源文本进行导入;
抽取式文档摘要自动生成模块,应用权利要求1-3中任一所述多任务学习的商品评论标签自动生成方法,对输入源文本进行摘要生成;
信息输出模块,将自动生成的摘要通过接口程序输出。
5.一种多任务学习的商品评论标签自动生成系统,其特征在于:
所述系统包括至少一台服务器,以及与服务器连接的如权利要求4所述的多任务学习的商品评论标签自动生成装置,所述服务器执行生成评论标签过程时,通过所述多任务学习的商品评论标签自动生成装置执行权利要求1-3中任一所述的多任务学习的商品评论标签自动生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911396009.8A CN111325571B (zh) | 2019-12-30 | 2019-12-30 | 一种多任务学习的商品评论标签自动生成方法、装置及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911396009.8A CN111325571B (zh) | 2019-12-30 | 2019-12-30 | 一种多任务学习的商品评论标签自动生成方法、装置及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111325571A CN111325571A (zh) | 2020-06-23 |
CN111325571B true CN111325571B (zh) | 2023-08-18 |
Family
ID=71172503
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911396009.8A Active CN111325571B (zh) | 2019-12-30 | 2019-12-30 | 一种多任务学习的商品评论标签自动生成方法、装置及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111325571B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111859959A (zh) * | 2020-07-24 | 2020-10-30 | 南京航空航天大学 | 一种基于深度学习的虚假评论自动生成方法和装置 |
CN112507112B (zh) * | 2020-12-07 | 2023-07-25 | 中国平安人寿保险股份有限公司 | 评论生成的方法、装置、设备及存储介质 |
CN114237460B (zh) * | 2021-10-14 | 2024-01-30 | 北京淘友天下科技发展有限公司 | 标签显示方法、装置、终端、存储介质及计算机程序产品 |
CN116187334B (zh) * | 2023-04-20 | 2023-07-25 | 山东齐鲁壹点传媒有限公司 | 一种基于mt5模型融合ner实体识别的评论生成方法 |
CN116976290B (zh) * | 2023-06-19 | 2024-03-19 | 珠海盈米基金销售有限公司 | 一种基于自回归模型的多场景资讯摘要生成方法以及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110532463A (zh) * | 2019-08-06 | 2019-12-03 | 北京三快在线科技有限公司 | 推荐理由生成装置及方法、存储介质以及电子设备 |
CN110569508A (zh) * | 2019-09-10 | 2019-12-13 | 重庆邮电大学 | 融合词性和自注意力机制的情感倾向性分类方法及系统 |
CN110598213A (zh) * | 2019-09-06 | 2019-12-20 | 腾讯科技(深圳)有限公司 | 一种关键词提取方法、装置、设备及存储介质 |
CN110609899A (zh) * | 2019-08-29 | 2019-12-24 | 成都信息工程大学 | 一种基于改进bert模型的特定目标情感分类方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10685050B2 (en) * | 2018-04-23 | 2020-06-16 | Adobe Inc. | Generating a topic-based summary of textual content |
-
2019
- 2019-12-30 CN CN201911396009.8A patent/CN111325571B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110532463A (zh) * | 2019-08-06 | 2019-12-03 | 北京三快在线科技有限公司 | 推荐理由生成装置及方法、存储介质以及电子设备 |
CN110609899A (zh) * | 2019-08-29 | 2019-12-24 | 成都信息工程大学 | 一种基于改进bert模型的特定目标情感分类方法 |
CN110598213A (zh) * | 2019-09-06 | 2019-12-20 | 腾讯科技(深圳)有限公司 | 一种关键词提取方法、装置、设备及存储介质 |
CN110569508A (zh) * | 2019-09-10 | 2019-12-13 | 重庆邮电大学 | 融合词性和自注意力机制的情感倾向性分类方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN111325571A (zh) | 2020-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111325571B (zh) | 一种多任务学习的商品评论标签自动生成方法、装置及系统 | |
CN109062893B (zh) | 一种基于全文注意力机制的商品名称识别方法 | |
CN110162636B (zh) | 基于d-lstm的情绪原因识别方法 | |
CN111177366B (zh) | 一种基于查询机制的抽取式文档摘要自动生成方法、装置及系统 | |
CN108363695B (zh) | 一种基于双向依赖语法树表征的用户评论属性抽取方法 | |
CN110717325B (zh) | 文本的情感分析方法、装置、电子设备及存储介质 | |
CN110796160A (zh) | 一种文本分类方法、装置和存储介质 | |
CN112100375A (zh) | 文本信息生成方法、装置、存储介质及设备 | |
CN111666400B (zh) | 消息获取方法、装置、计算机设备及存储介质 | |
CN113553850A (zh) | 一种基于有序结构编码指针网络解码的实体关系抽取方法 | |
CN113051380B (zh) | 信息生成方法、装置、电子设备和存储介质 | |
CN116796045B (zh) | 一种多维度图书分级方法、系统及可读介质 | |
CN117313728A (zh) | 实体识别方法、模型训练方法、装置、设备和存储介质 | |
CN115408488A (zh) | 用于小说场景文本的分割方法及系统 | |
CN115525744A (zh) | 一种基于提示学习方法的对话推荐系统 | |
CN114036246A (zh) | 商品图谱向量化方法、装置、电子设备及存储介质 | |
CN113486143A (zh) | 一种基于多层级文本表示及模型融合的用户画像生成方法 | |
CN116663566A (zh) | 一种基于商品评价的方面级情感分析方法及系统 | |
CN112883183B (zh) | 构建多分类模型的方法、智能客服方法和相关装置及系统 | |
CN116955599A (zh) | 一种类目确定的方法、相关装置、设备以及存储介质 | |
He et al. | Text Sentiment Analysis of Douban Film Short Comments Based on BERT-CNN-BiLSTM-Att Model | |
CN116468030A (zh) | 一种基于多任务神经网络的端到端方面级情感分析方法 | |
Wang et al. | Prediction of perceived utility of consumer online reviews based on lstm neural network | |
CN114419409A (zh) | 基于人脸识别和分层融合策略的多模态恶意迷因图检测方法 | |
CN113535946A (zh) | 基于深度学习的文本鉴别方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |