CN111738015B - 文章情感极性分析方法、装置、电子设备及存储介质 - Google Patents
文章情感极性分析方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN111738015B CN111738015B CN202010575481.4A CN202010575481A CN111738015B CN 111738015 B CN111738015 B CN 111738015B CN 202010575481 A CN202010575481 A CN 202010575481A CN 111738015 B CN111738015 B CN 111738015B
- Authority
- CN
- China
- Prior art keywords
- article
- emotion
- language models
- training language
- emotion polarity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 240
- 238000004458 analytical method Methods 0.000 title claims abstract description 128
- 238000012549 training Methods 0.000 claims abstract description 159
- 230000007935 neutral effect Effects 0.000 claims abstract description 64
- 239000012634 fragment Substances 0.000 claims abstract description 56
- 238000000034 method Methods 0.000 claims abstract description 47
- 238000010606 normalization Methods 0.000 claims description 60
- 230000015654 memory Effects 0.000 claims description 19
- 238000012545 processing Methods 0.000 claims description 18
- 238000011176 pooling Methods 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 9
- 238000013135 deep learning Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000002996 emotional effect Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000002457 bidirectional effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Machine Translation (AREA)
Abstract
本申请公开了文章情感极性分析方法、装置、电子设备及存储介质,涉及深度学习领域及云计算领域。具体实现方案为:将待分析文章的内容进行截断,得到待分析文章的片段,将所述片段输入多个预训练语言模型;根据所述多个预训练语言模型的输出结果,确定所述待分析文章的情感极性属于正面、负面及中性的概率;将所述待分析文章的情感极性属于正面、负面及中性的概率进行归一化处理,得到所述待分析文章的情感极性的分析结果。本申请实施例能够提高文章情感极性分析结果的准确率。
Description
技术领域
本申请涉及计算机技术领域,尤其涉及深度学习领域及云计算领域。
背景技术
文章的情感极性可以理解为作者对文章所涉及内容的情感倾向,情感极性包括正面、负面和中性。例如,“这部电影空洞乏味”这句话的情感极性为负面;类似地,一篇文章也有对应的情感极性。文章情感极性分析的目的就是将文章分类为情感极性中的一个类别。
近期,基于转换器的双向编码器表征(BERT,Bidirectional EncoderRepresentations from Transformers)模型等一系列预训练语言模型在多种语言理解任务上效果很好,在文本分类、情感分析等任务中达到最先进(state-of-the-art)级别的效果。但是,目前的预训练语言模型对文本的编码长度受限于预训练时的序列长度(通常为512)。如果一个文章的长度超过512个字,BERT模型只能使用该文章中的512个字来确定该文章的情感极性;超出部分则不能被用于确定情感极性。
一些文章的长度较长,例如互联网新闻文本数据中的文章长度通常较长;对于这类文章,由于BERT模型难以提取篇章级上下文信息进行情感极性分析,导致对文章情感极性的分析不够准确。
发明内容
本申请提供了一种文章情感极性分析方法、装置、设备以及存储介质,还提出一种文章情感极性分析模型的训练方法、装置、设备以及存储介质。
根据本申请的一方面,提供了一种文章情感极性分析方法,包括:
将待分析文章的内容进行截断,得到待分析文章的片段,将所述片段输入多个预训练语言模型;
根据所述多个预训练语言模型的输出结果,确定所述待分析文章的情感极性属于正面、负面及中性的概率;
将所述待分析文章的情感极性属于正面、负面及中性的概率进行归一化处理,得到所述待分析文章的情感极性的分析结果。
根据本申请的另一方面,提供了一种文章情感极性分析模型的训练方法,所述文章情感极性分析模型包括多个预训练语言模型,所述方法包括:
将样本文章的内容进行截断,得到样本文章的片段,将所述片段输入多个预训练语言模型;
根据所述多个预训练语言模型的输出结果,确定所述样本文章的情感极性属于正面、负面及中性的概率;
将所述样本文章的情感极性属于正面、负面及中性的概率进行归一化处理,得到所述样本文章的情感极性的分析结果;
根据所述分析结果及所述样本文章的情感极性的标签,对所述文章情感极性分析模型进行训练。
根据本申请的另一方面,提供了一种文章情感极性分析装置,包括:
第一截断模块,用于将待分析文章的内容进行截断,得到待分析文章的片段,将所述片段输入多个预训练语言模型;
第一确定模块,用于根据所述多个预训练语言模型的输出结果,确定所述待分析文章的情感极性属于正面、负面及中性的概率;
第一结果获取模块,用于将所述待分析文章的情感极性属于正面、负面及中性的概率进行归一化处理,得到所述待分析文章的情感极性的分析结果。
根据本申请的另一方面,提供了一种文章情感极性分析模型的训练装置,所述文章情感极性分析模型包括多个预训练语言模型,所述装置包括:
第二截断模块,用于将样本文章的内容进行截断,得到样本文章的片段,将所述片段输入多个预训练语言模型;
第二确定模块,用于根据所述多个预训练语言模型的输出结果,确定所述样本文章的情感极性属于正面、负面及中性的概率;
第二结果获取模块,用于将所述样本文章的情感极性属于正面、负面及中性的概率进行归一化处理,得到所述样本文章的情感极性的分析结果;
训练模块,用于根据所述分析结果及所述样本文章的情感极性的标签,对所述文章情感极性分析模型进行训练。
根据本申请的另一方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述方法中任一项所述的方法。
根据本申请的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行上述方法中任一项所述的方法。
根据本申请的另一方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现如上所述的方法。
本申请实施例采用多个预训练语言模型分析文章的情感极性;将待分析进行切割,将切割后得到的片段输入多个预训练语言模型,之后综合所有预训练语言模型的输出结果确定待分析文章的情感极性。采用本申请实施例,能够利用多个预训练语言模型提取篇章级上下文信息进行情感极性分析,从而提高文章情感极性分析结果的准确率。
应当理解,本部分所描述的内容并非旨在标识本申请的实施例的关键或重要特征,也不用于限制本申请的范围。本申请的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是本申请实施例的一种文章情感极性分析方法实现流程图;
图2是本申请实施例的一类文章情感极性分析模型的结构示意图;
图3A是本申请实施例的另一类文章情感极性分析模型的结构示意图一;
图3B是本申请实施例的另一类文章情感极性分析模型的结构示意图二;
图3C是本申请实施例的另一类文章情感极性分析模型的结构示意图三;
图4是本申请实施例的一种文章情感极性分析模型的训练方法实现流程图;
图5是本申请实施例的一种文章情感极性分析装置结构示意;
图6是本申请实施例的一种文章情感极性分析模型的训练装置结构示意图;
图7是用来实现本申请实施例的方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
本申请实施例提出一种文章情感极性分析方法,图1是本申请实施例的一种文章情感极性分析方法实现流程图,包括:
步骤S101:将待分析文章的内容进行截断,得到待分析文章的片段,将该片段输入多个预训练语言模型;
步骤S102:根据多个预训练语言模型的输出结果,确定待分析文章的情感极性属于正面、负面及中性的概率;
步骤S103:将待分析文章的情感极性属于正面、负面及中性的概率进行归一化处理,得到待分析文章的情感极性的分析结果。
在一些实施方式中,上述预训练语言模型包括BERT模型,能够充分利用BERT模型在语言理解任务特别是情感分析任务中的优势,提高情感极性分析的准确率。在以下实施例中,以预训练语言模型具体为BERT模型进行举例。本申请也可以采用其他的预训练语言模型,本申请实施例对此不做限制。
本申请实施例提出多种篇章级的文章情感极性分析模型,主要包括以下两类:
第一类,对文章进行多种结构化截断,结合预训练语言模型及传统标签嵌入(label embedding)方法建模label text匹配任务。
第二类,设计多种篇章级编码器,借助层次注意力机制,对待分析文章编码进行篇章级文本表示,以进行篇章级情感极性分析。其中,篇章级编码器可以为全连接层(FClayers,Fully Connected layers)模块、双向门控循环单元(BiGRU,Bidirection GatedRecurrent Unit)或转换器与注意力池化(Transformer+Attentive Pooling)模块。
以下分别对上述两类文章情感极性分析模型进行详细介绍。
图2是本申请实施例的一类文章情感极性分析模型的结构示意图。如图2所示,该类文章情感极性分析模型从低到高包括三层:BERT层、全连接层(FC Layers)和归一化层(Softmax);其中,第一层(BERT层)包括3个BERT模型、第二层(全连接层)包括3个全连接层模块;每个BERT模型对应一个全连接层模块。
基于图2所示的结构,在一些实施方式中,上述步骤S101中对待分析文章进行截断,得到待分析文章的片段,并将该片段输入三个预训练语言模型;可选地,上述片段包含待分析文章标题的全部内容,还包含待分析文章正文的全部或部分内容。
在图2中,采用Sentence2表示文章内容的片段。需要说明的是,图2中对于片段的命名(即“Sentence(句子)”是采用了现有技术中BERT模型输入内容的命名方式,并不代表输入的内容是一个句子。可选地,输入BERT模型的片段不超过512个字。
如图2所示,在一些实施方式中,除了对文章进行截断之后得到的片段之外,各个BERT模型还需要输入第一标签语句,即已经确定了情感极性的语句或段落,如图2示出了分别输入3个BERT模型的第一标签语句,即Sentence1_1、Sentence1_2和Sentence1_3。3个第一标签语句的情感极性分别为正面、中性和负面。Sentence1(包括Sentence1_1、Sentence1_2和Sentence1_3)与Sentence2之间可以采用分隔符(SEP)连接。
如图2中,3个BERT模型的输出结果分别对应该待分析文章与对应的第一标签语句的情感极性匹配程度。由于输入3个BERT模型的第一标签语句的情感极性是已知的,因此,3个BERT模型的输出结果也就代表了该待分析文章分别与正面、中性、负面的情感极性的匹配程度。
因此,基于图2所示的模型,在一些实施方式中,上述步骤S101中的将片段输入多个预训练语言模型包括:将该片段输入三个预训练语言模型,并将三个第一标签语句分别输入预训练语言模型;其中,三个第一标签语句分别为情感极性为正面、负面和中性的标签语句;
预训练语言模型的输出结果分别对应该待分析文章与对应的第一标签语句的情感极性匹配程度。
继续参照图2,3个BERT模型的输出结果分别输入对应的全连接层模块,如图2中存在3个全连接层模块,每个全连接层模块与一个BERT模型对应。3个全连接层模块分别确定该待分析文章的情感极性属于正面、负面及中性的概率,并将确定出的概率发送至归一化层(softmax);softmax层再将收到的概率进行归一化处理,得到该待分析文章的情感极性的分析结果,如图2所示,softmax层输出关于待分析文章的情感极性的预测结果(Prediction)。
因此,基于图2所示的模型,在一些实施方式中,上述步骤S102包括:将三个预训练语言模型的输出结果分别输入对应的全连接层模块;对应的全连接层模块分别根据对应的预训练语言模型的输出结果,确定待分析文章的情感极性属于正面、负面及中性的概率。
在一些实施方式中,上述步骤S103包括:将全连接层模块确定出的概率输入归一化层;归一化层对接收到的概率进行归一化处理,得到待分析文章的情感极性的分析结果。
在一些实施方式中,上述片段的长度不超过512个字,满足BERT模型对编码长度上限的要求。
图3A-3C是本申请实施例的另一类文章情感极性分析模型的结构示意图。如图3A所示,该类文章情感极性分析模型从低到高包括三层:片段编码层(片段encoder)、篇章级编码层(篇章encoder)和归一化层(Softmax);其中,第一层(片段encoder)包括多个BERT模型,第二层(篇章encoder)包括1个全连接层模块。如图3B所示,第二层(篇章encoder)包括1个双向门控循环单元(BiGRU,(Bidirectional Gated Recurrent Unit)。如图3C所示,第二层(篇章encoder)包括1个转换器与注意力池化(Transformer+Attentive Pooling)模块。图3A、图3B和图3C的差别在于第二层的具体模块不同。
基于图3A-图3C所示的结构,在一些实施方式中,上述步骤S101中将待分析文章的内容截断为多个片段;每个片段包含待分析文章标题的全部内容,还包含待分析文章正文的全部或部分内容。
在图3A-图3C中,采用segment_1、segment_2、…segment_n表示文章被截断而成的n个片段。输入BERT模型的片段不受512个字的限制;输入之后,如果超过512个字,BERT模型可以对收到的片段进行再次选取和/或截断。
如图3A-图3C中,每个BERT模型的输出结果分别包括各个对应片段的语义表示。
继续参照图3A-图3C,每个BERT模型的输出结果均输入第二层(即篇章encoder)。第二层(即篇章encoder)根据输入的内容确定待分析文章的三维向量,该三维向量包含待分析文章的情感极性属于正面、负面及中性的概率。例如,该三维向量中的每一个元素分别对应待分析文章的情感极性属于正面、负面及中性的概率。第二层(即篇章encoder)再将该三维向量发送至归一化层(softmax);softmax层将收到的概率进行归一化处理,得到该待分析文章的情感极性的分析结果。如图3A-图3C所示,softmax层输出关于待分析文章的情感极性的预测结果(Prediction)。
因此,基于图3A-图3C所示的模型,在一些实施方式中,上述步骤S102包括:将多个片段对应的预训练语言模型的输出结果输入篇章级编码器;篇章级编码器根据多个预训练语言模型的输出结果,生成针对待分析文章的三维向量;该三维向量包含待分析文章的情感极性属于正面、负面及中性的概率。
在一些实施方式中,上述步骤S103包括:将篇章级编码器生成的三维向量输入归一化层;归一化层对该三维向量进行归一化处理,得到待分析文章的情感极性的分析结果。
以上介绍了基于上述两类文章情感极性分析模型的分析方法。基于上述两类模型,本申请实施例还提出一种文章情感极性分析模型的训练方法,该文章情感极性分析模型包括多个预训练语言模型,图4是本申请实施例的一种文章情感极性分析模型的训练方法实现流程图,该方法包括:
步骤S401:将样本文章的内容进行截断,得到样本文章的片段,将片段输入多个预训练语言模型;
步骤S402:根据多个预训练语言模型的输出结果,确定样本文章的情感极性属于正面、负面及中性的概率;
步骤S403:将样本文章的情感极性属于正面、负面及中性的概率进行归一化处理,得到样本文章的情感极性的分析结果;
步骤S404:根据分析结果及样本文章的情感极性的标签,对文章情感极性分析模型进行训练。
在一些实施方式中,上述预训练语言模型包括:BERT模型。
在一些实施方式中,上述文章情感极性分析模型包括三个预训练语言模型;
样本文章的片段包含样本文章标题的全部内容,还包含样本文章正文的全部或部分内容;
将片段输入三个预训练语言模型,并将三个第一标签语句分别输入预训练语言模型;其中,三个第一标签语句分别为情感极性为正面、负面和中性的标签语句;
预训练语言模型的输出结果分别对应该片段与对应的第一标签语句的情感极性匹配程度。
在一些实施方式中,上述文章情感极性分析模型还包括归一化层和三个全连接层模块;
将三个预训练语言模型的输出结果分别输入对应的全连接层模块;
对应的全连接层模块分别根据对应的预训练语言模型的输出结果,确定样本文章的情感极性属于正面、负面及中性的概率;
将全连接层模块确定出的概率输入归一化层;
归一化层对接收到的概率进行归一化处理,得到样本文章的情感极性的分析结果。
在一些实施方式中,上述片段的长度不超过512个字。
在一些实施方式中,上述文章情感极性分析模型包括多个预训练语言模型;
将样本文章的内容截断为多个片段;每个片段包含样本文章标题的全部内容,还包含样本文章正文的全部或部分内容;
将多个片段分别输入各自对应的预训练语言模型,预训练语言模型的输出结果分别包括各个对应片段的语义表示。
在一些实施方式中,上述文章情感极性分析模型还包括篇章级编码器和归一化层;
将多个片段对应的预训练语言模型的输出结果输入篇章级编码器;
篇章级编码器根据多个预训练语言模型的输出结果,生成针对样本文章的三维向量;该三维向量包含样本文章的情感极性属于正面、负面及中性的概率;
将篇章级编码器生成的三维向量输入归一化层;
归一化层对三维向量进行归一化处理,得到样本文章的情感极性的分析结果。
在一些实施方式中,上述篇章级编码器包括:全连接层模块、BiGRU或转换器与注意力池化模块。
本申请实施例还提出一种文章情感极性分析装置,图5是本申请实施例的一种文章情感极性分析装置结构示意图,包括:
第一截断模块501,用于将待分析文章的内容进行截断,得到待分析文章的片段,将该片段输入多个预训练语言模型;
第一确定模块502,用于根据多个预训练语言模型的输出结果,确定待分析文章的情感极性属于正面、负面及中性的概率;
第一结果获取模块503,用于将待分析文章的情感极性属于正面、负面及中性的概率进行归一化处理,得到待分析文章的情感极性的分析结果。
在一些实施方式中,预训练语言模型包括:BERT模型。
在一些实施方式中,待分析文章的片段包含待分析文章标题的全部内容,还包含待分析文章正文的全部或部分内容;
第一截断模块501,用于将片段输入三个预训练语言模型,并将三个第一标签语句分别输入预训练语言模型;其中,三个第一标签语句分别为情感极性为正面、负面和中性的标签语句;
预训练语言模型的输出结果分别对应待分析文章与对应的第一标签语句的情感极性匹配程度。
在一些实施方式中,第一确定模块502用于:
将三个预训练语言模型的输出结果分别输入对应的全连接层模块;
对应的全连接层模块分别根据对应的预训练语言模型的输出结果,确定待分析文章的情感极性属于正面、负面及中性的概率。
在一些实施方式中,第一结果获取模块503用于:
将全连接层模块确定出的概率输入归一化层;
归一化层对接收到的概率进行归一化处理,得到待分析文章的情感极性的分析结果。
在一些实施方式中,片段的长度不超过512个字。
在一些实施方式中,第一截断模块501用于;
将多个片段分别输入各自对应的预训练语言模型,预训练语言模型的输出结果分别包括各个对应片段的语义表示。
在一些实施方式中,第一确定模块502用于:
将多个片段对应的预训练语言模型的输出结果输入篇章级编码器;
篇章级编码器根据多个预训练语言模型的输出结果,生成针对待分析文章的三维向量;三维向量包含待分析文章的情感极性属于正面、负面及中性的概率。
在一些实施方式中,第一结果获取模块503用于:
将篇章级编码器生成的三维向量输入归一化层;
归一化层对三维向量进行归一化处理,得到待分析文章的情感极性的分析结果。
在一些实施方式中,篇章级编码器包括:全连接层模块、双向门控循环单元BiGRU或转换器与注意力池化模块。
本申请实施例各装置中的各模块的功能可以参见上述文章情感极性分析方法中的对应描述,在此不再赘述。
本申请实施例还提出一种文章情感极性分析模型的训练装置,图6是本申请实施例的一种文章情感极性分析模型的训练装置结构示意图,包括:
第二截断模块601,用于将样本文章的内容进行截断,得到样本文章的片段,将该片段输入多个预训练语言模型;
第二确定模块602,用于根据多个预训练语言模型的输出结果,确定样本文章的情感极性属于正面、负面及中性的概率;
第二结果获取模块603,用于将样本文章的情感极性属于正面、负面及中性的概率进行归一化处理,得到样本文章的情感极性的分析结果;
训练模块604,用于根据分析结果及样本文章的情感极性的标签,对文章情感极性分析模型进行训练。
在一些实施方式中,预训练语言模型包括:BERT模型。
在一些实施方式中,文章情感极性分析模型包括三个预训练语言模型;
样本文章的片段包含样本文章标题的全部内容,还包含样本文章正文的全部或部分内容;
第二截断模块601,用于将片段输入三个预训练语言模型,并将三个第一标签语句分别输入预训练语言模型;其中,三个第一标签语句分别为情感极性为正面、负面和中性的标签语句;
预训练语言模型的输出结果分别对应片段与对应的第一标签语句的情感极性匹配程度。
在一些实施方式中,文章情感极性分析模型还包括归一化层和三个全连接层模块;
第二确定模块602,用于将三个预训练语言模型的输出结果分别输入对应的全连接层模块;
对应的全连接层模块分别根据对应的预训练语言模型的输出结果,确定样本文章的情感极性属于正面、负面及中性的概率;
第二结果获取模块,用于将全连接层模块确定出的概率输入归一化层;
归一化层对接收到的概率进行归一化处理,得到样本文章的情感极性的分析结果。
在一些实施方式中,片段的长度不超过512个字。
在一些实施方式中,文章情感极性分析模型包括多个预训练语言模型;
第二截断模块601,用于将样本文章的内容截断为多个片段;每个片段包含样本文章标题的全部内容,还包含样本文章正文的全部或部分内容;将多个片段分别输入各自对应的预训练语言模型,预训练语言模型的输出结果分别包括各个对应片段的语义表示。
在一些实施方式中,文章情感极性分析模型还包括篇章级编码器和归一化层;
第二确定模块602,用于将多个片段对应的预训练语言模型的输出结果输入篇章级编码器;
篇章级编码器根据多个预训练语言模型的输出结果,生成针对样本文章的三维向量;三维向量包含所述样本文章的情感极性属于正面、负面及中性的概率;
第二结果获取模块603,用于将篇章级编码器生成的三维向量输入归一化层;
归一化层对三维向量进行归一化处理,得到样本文章的情感极性的分析结果。
在一些实施方式中,篇章级编码器包括:全连接层模块、BiGRU或转换器与注意力池化模块。
本申请实施例各装置中的各模块的功能可以参见上述文章情感极性分析模型的训练方法中的对应描述,在此不再赘述。
根据本申请的实施例,本申请还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
如图7所示,是根据本申请实施例的方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图7所示,该电子设备包括:一个或多个处理器701、存储器702,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图7中以一个处理器701为例。
存储器702即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的文章情感极性分析或文章情感极性分析模型的训练方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的文章情感极性分析方法或文章情感极性分析模型的训练方法。
存储器702作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的XXX的方法对应的程序指令/模块(例如,附图5所示的第一截断模块501、第一确定模块502和第一结果获取模块503,或者附图6所示的第二截断模块601、第二确定模块602、第二结果获取模块603和训练模块604)。处理器701通过运行存储在存储器702中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的文章情感极性分析方法或文章情感极性分析模型的训练方法。
存储器702可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据文章情感极性分析或文章情感极性分析模型的训练的电子设备的使用所创建的数据等。此外,存储器702可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器702可选包括相对于处理器701远程设置的存储器,这些远程存储器可以通过网络连接至文章情感极性分析或文章情感极性分析模型的训练的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
文章情感极性分析或文章情感极性分析模型的训练方法的电子设备还可以包括:输入装置703和输出装置704。处理器701、存储器702、输入装置703和输出装置704可以通过总线或者其他方式连接,图7中以通过总线连接为例。
输入装置703可接收输入的数字或字符信息,以及产生与文章情感极性分析或文章情感极性分析模型的训练的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置704可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
根据本申请实施例的技术方案,本申请实施例能够提高篇章级文章的情感极性分析的准确率。相比现有技术,本申请实施例能够融合预训练语言模型,提升情感极性分析的效果。并且,本申请实施例能够结合传统层次注意力网络机制,识别长文本中的结构化情感,更好地融入上下文情感信息。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (39)
1.一种文章情感极性分析方法,包括:
将待分析文章的内容进行截断,得到待分析文章的片段,将所述片段输入多个预训练语言模型;
根据所述多个预训练语言模型的输出结果,确定所述待分析文章的情感极性属于正面、负面及中性的概率,其中,所述多个预训练语言模型包括三个预训练语言模型,所述三个预训练语言模型的输出结果与所述正面、负面及中性三种情感极性一一对应,且一个预训练语言模型的输出结果包括:用于确定所述待分析文章的情感极性属于所对应的一种情感极性的概率的相关信息;
将所述待分析文章的情感极性属于正面、负面及中性的概率进行归一化处理,得到所述待分析文章的情感极性的分析结果;
将所述待分析文章的片段输入所述三个预训练语言模型,并将三个第一标签语句分别输入所述预训练语言模型;其中,所述三个第一标签语句分别为情感极性为正面、负面和中性的标签语句,所述三个第一标签语句与所述三个预训练语言模型一一对应;所述将三个第一标签语句分别输入所述预训练语言模型包括:将所述第一标签语句输入对应的预训练语言模型;
所述预训练语言模型的输出结果分别对应所述待分析文章与对应的第一标签语句的情感极性匹配程度。
2.根据权利要求1所述的方法,其中,所述预训练语言模型包括:基于转换器的双向编码器表征BERT模型。
3.根据权利要求1或2所述的方法,其中,所述待分析文章的片段包含所述待分析文章标题的全部内容,还包含所述待分析文章正文的全部或部分内容。
4.根据权利要求3所述的方法,其中,所述根据所述多个预训练语言模型的输出结果,确定所述待分析文章的情感极性属于正面、负面及中性的概率,包括:
将所述三个预训练语言模型的输出结果分别输入对应的全连接层模块;
所述对应的全连接层模块分别根据对应的预训练语言模型的输出结果,确定所述待分析文章的情感极性属于正面、负面及中性的概率,其中,一个全连接层模块用于根据所对应的预训练语言模型的输出结果,确定所述待分析文章的情感极性属于正面、负面及中性三种情感极性中的其中一种情感极性的概率。
5.根据权利要求4所述的方法,其中,所述将所述待分析文章的情感极性属于正面、负面及中性的概率进行归一化处理,得到所述待分析文章的情感极性的分析结果包括:
将所述全连接层模块确定出的概率输入归一化层;
所述归一化层对接收到的概率进行归一化处理,得到所述待分析文章的情感极性的分析结果。
6.根据权利要求3所述的方法,其中,所述片段的长度不超过512个字。
7.根据权利要求1或2所述的方法,其中,将所述待分析文章的内容截断为多个片段;每个所述片段包含所述待分析文章标题的全部内容,还包含所述待分析文章正文的全部或部分内容;
将所述多个片段分别输入各自对应的预训练语言模型,所述预训练语言模型的输出结果分别包括各个对应片段的语义表示。
8.根据权利要求7所述的方法,其中,根据所述多个预训练语言模型的输出结果,确定所述待分析文章的情感极性属于正面、负面及中性的概率,包括:
将所述多个片段对应的预训练语言模型的输出结果输入篇章级编码器;
所述篇章级编码器根据多个所述预训练语言模型的输出结果,生成针对所述待分析文章的三维向量;所述三维向量包含所述待分析文章的情感极性属于正面、负面及中性的概率。
9.根据权利要求8所述的方法,其中,所述将所述待分析文章的情感极性属于正面、负面及中性的概率进行归一化处理,得到所述待分析文章的情感极性的分析结果包括:
将所述篇章级编码器生成的三维向量输入归一化层;
所述归一化层对所述三维向量进行归一化处理,得到所述待分析文章的情感极性的分析结果。
10.根据权利要求9所述的方法,其中,所述篇章级编码器包括:全连接层模块、双向门控循环单元BiGRU或转换器与注意力池化模块中的其中一个。
11.一种文章情感极性分析模型的训练方法,所述文章情感极性分析模型包括多个预训练语言模型,所述方法包括:
将样本文章的内容进行截断,得到样本文章的片段,将所述片段输入多个预训练语言模型;
根据所述多个预训练语言模型的输出结果,确定所述样本文章的情感极性属于正面、负面及中性的概率,其中,所述多个预训练语言模型包括三个预训练语言模型,所述三个预训练语言模型的输出结果与所述正面、负面及中性三种情感极性一一对应,且一个预训练语言模型的输出结果包括:用于确定所述样本文章的情感极性属于所对应的一种情感极性的概率的相关信息;
将所述样本文章的情感极性属于正面、负面及中性的概率进行归一化处理,得到所述样本文章的情感极性的分析结果;
根据所述分析结果及所述样本文章的情感极性的标签,对所述文章情感极性分析模型进行训练;
将所述样本文章的片段输入三个预训练语言模型,并将三个第一标签语句分别输入所述预训练语言模型;其中,所述三个第一标签语句分别为情感极性为正面、负面和中性的标签语句,所述三个第一标签语句与所述三个预训练语言模型一一对应;所述将三个第一标签语句分别输入所述预训练语言模型包括:将所述第一标签语句输入对应的预训练语言模型;
所述预训练语言模型的输出结果分别对应所述片段与对应的第一标签语句的情感极性匹配程度。
12.根据权利要求11所述的方法,其中,所述预训练语言模型包括:BERT模型。
13.根据权利要求11或12所述的方法,其中,所述文章情感极性分析模型包括三个预训练语言模型;
所述样本文章的片段包含样本文章标题的全部内容,还包含样本文章正文的全部或部分内容。
14.根据权利要求13所述的方法,其中,所述文章情感极性分析模型还包括归一化层和三个全连接层模块;
将所述三个预训练语言模型的输出结果分别输入对应的全连接层模块;
所述对应的全连接层模块分别根据对应的预训练语言模型的输出结果,确定所述样本文章的情感极性属于正面、负面及中性的概率,其中,一个全连接层模块用于根据所对应的预训练语言模型的输出结果,确定所述样本文章的情感极性属于正面、负面及中性三种情感极性中的其中一种情感极性的概率;
将所述全连接层模块确定出的概率输入所述归一化层;
所述归一化层对接收到的概率进行归一化处理,得到所述样本文章的情感极性的分析结果。
15.根据权利要求14所述的方法,其中,所述片段的长度不超过512个字。
16.根据权利要求11或12所述的方法,其中,所述文章情感极性分析模型包括多个预训练语言模型;
将所述样本文章的内容截断为多个片段;每个所述片段包含样本文章标题的全部内容,还包含样本文章正文的全部或部分内容;
将所述多个片段分别输入各自对应的预训练语言模型,所述预训练语言模型的输出结果分别包括各个对应片段的语义表示。
17.根据权利要求16所述的方法,其中,所述文章情感极性分析模型还包括篇章级编码器和归一化层;
将所述多个片段对应的预训练语言模型的输出结果输入篇章级编码器;
所述篇章级编码器根据多个所述预训练语言模型的输出结果,生成针对所述样本文章的三维向量;所述三维向量包含所述样本文章的情感极性属于正面、负面及中性的概率;
将所述篇章级编码器生成的三维向量输入归一化层;
所述归一化层对所述三维向量进行归一化处理,得到所述样本文章的情感极性的分析结果。
18.根据权利要求17所述的方法,其中,所述篇章级编码器包括:全连接层模块、BiGRU或转换器与注意力池化模块中的其中一个。
19.一种文章情感极性分析装置,包括:
第一截断模块,用于将待分析文章的内容进行截断,得到待分析文章的片段,将所述片段输入多个预训练语言模型;
第一确定模块,用于根据所述多个预训练语言模型的输出结果,确定所述待分析文章的情感极性属于正面、负面及中性的概率,其中,所述多个预训练语言模型包括三个预训练语言模型,所述三个预训练语言模型的输出结果与所述正面、负面及中性三种情感极性一一对应,且一个预训练语言模型的输出结果包括:用于确定所述待分析文章的情感极性属于所对应的一种情感极性的概率的相关信息;
第一结果获取模块,用于将所述待分析文章的情感极性属于正面、负面及中性的概率进行归一化处理,得到所述待分析文章的情感极性的分析结果;
第一截断模块,用于将所述待分析文章的片段输入三个预训练语言模型,并将三个第一标签语句分别输入所述预训练语言模型;其中,所述三个第一标签语句分别为情感极性为正面、负面和中性的标签语句,所述三个第一标签语句与所述三个预训练语言模型一一对应;所述将三个第一标签语句分别输入所述预训练语言模型包括:将所述第一标签语句输入对应的预训练语言模型;
所述预训练语言模型的输出结果分别对应所述待分析文章与对应的第一标签语句的情感极性匹配程度。
20.根据权利要求19所述的装置,其中,所述预训练语言模型包括:BERT模型。
21.根据权利要求19或20所述的装置,其中,所述待分析文章的片段包含所述待分析文章标题的全部内容,还包含所述待分析文章正文的全部或部分内容。
22.根据权利要求21所述的装置,其中,所述第一确定模块用于:
将所述三个预训练语言模型的输出结果分别输入对应的全连接层模块;
所述对应的全连接层模块分别根据对应的预训练语言模型的输出结果,确定所述待分析文章的情感极性属于正面、负面及中性的概率,其中,一个全连接层模块用于根据所对应的预训练语言模型的输出结果,确定所述待分析文章的情感极性属于正面、负面及中性三种情感极性中的其中一种情感极性的概率。
23.根据权利要求22所述的装置,其中,所述第一结果获取模块用于:
将所述全连接层模块确定出的概率输入归一化层;
所述归一化层对接收到的概率进行归一化处理,得到所述待分析文章的情感极性的分析结果。
24.根据权利要求21所述的装置,其中,所述片段的长度不超过512个字。
25.根据权利要求19或20所述的装置,其中,所述第一截断模块用于;
将多个片段分别输入各自对应的预训练语言模型,所述预训练语言模型的输出结果分别包括各个对应片段的语义表示。
26.根据权利要求25所述的装置,其中,所述第一确定模块用于:
将所述多个片段对应的预训练语言模型的输出结果输入篇章级编码器;
所述篇章级编码器根据多个所述预训练语言模型的输出结果,生成针对所述待分析文章的三维向量;所述三维向量包含所述待分析文章的情感极性属于正面、负面及中性的概率。
27.根据权利要求26所述的装置,其中,所述第一结果获取模块用于:
将所述篇章级编码器生成的三维向量输入归一化层;
所述归一化层对所述三维向量进行归一化处理,得到所述待分析文章的情感极性的分析结果。
28.根据权利要求27所述的装置,其中,所述篇章级编码器包括:全连接层模块、双向门控循环单元BiGRU或转换器与注意力池化模块中的其中一个。
29.一种文章情感极性分析模型的训练装置,所述文章情感极性分析模型包括多个预训练语言模型,所述装置包括:
第二截断模块,用于将样本文章的内容进行截断,得到样本文章的片段,将所述片段输入多个预训练语言模型;
第二确定模块,用于根据所述多个预训练语言模型的输出结果,确定所述样本文章的情感极性属于正面、负面及中性的概率,其中,所述多个预训练语言模型包括三个预训练语言模型,所述三个预训练语言模型的输出结果与所述正面、负面及中性三种情感极性一一对应,且一个预训练语言模型的输出结果包括:用于确定所述样本文章的情感极性属于所对应的一种情感极性的概率的相关信息;
第二结果获取模块,用于将所述样本文章的情感极性属于正面、负面及中性的概率进行归一化处理,得到所述样本文章的情感极性的分析结果;
训练模块,用于根据所述分析结果及所述样本文章的情感极性的标签,对所述文章情感极性分析模型进行训练;
所述第二截断模块,用于将所述样本文章的片段输入三个预训练语言模型,并将三个第一标签语句分别输入所述预训练语言模型;其中,所述三个第一标签语句分别为情感极性为正面、负面和中性的标签语句,所述三个第一标签语句与所述三个预训练语言模型一一对应;所述将三个第一标签语句分别输入所述预训练语言模型包括:将所述第一标签语句输入对应的预训练语言模型;
所述预训练语言模型的输出结果分别对应所述片段与对应的第一标签语句的情感极性匹配程度。
30.根据权利要求29所述的装置,其中,所述预训练语言模型包括:BERT模型。
31.根据权利要求29或30所述的装置,其中,所述文章情感极性分析模型包括三个预训练语言模型;
所述样本文章的片段包含样本文章标题的全部内容,还包含样本文章正文的全部或部分内容。
32.根据权利要求31所述的装置,其中,所述文章情感极性分析模型还包括归一化层和三个全连接层模块;
第二确定模块,用于将所述三个预训练语言模型的输出结果分别输入对应的全连接层模块;
所述对应的全连接层模块分别根据对应的预训练语言模型的输出结果,确定所述样本文章的情感极性属于正面、负面及中性的概率,其中,一个全连接层模块用于根据所对应的预训练语言模型的输出结果,确定所述样本文章的情感极性属于正面、负面及中性三种情感极性中的其中一种情感极性的概率;
第二结果获取模块,用于将所述全连接层模块确定出的概率输入所述归一化层;
所述归一化层对接收到的概率进行归一化处理,得到所述样本文章的情感极性的分析结果。
33.根据权利要求32所述的装置,其中,所述片段的长度不超过512个字。
34.根据权利要求29或30所述的装置,其中,所述文章情感极性分析模型包括多个预训练语言模型;
第二截断模块,用于将所述样本文章的内容截断为多个片段;每个所述片段包含样本文章标题的全部内容,还包含样本文章正文的全部或部分内容;将所述多个片段分别输入各自对应的预训练语言模型,所述预训练语言模型的输出结果分别包括各个对应片段的语义表示。
35.根据权利要求34所述的装置,其中,所述文章情感极性分析模型还包括篇章级编码器和归一化层;
所述第二确定模块,用于将所述多个片段对应的预训练语言模型的输出结果输入篇章级编码器;
所述篇章级编码器根据多个所述预训练语言模型的输出结果,生成针对所述样本文章的三维向量;所述三维向量包含所述样本文章的情感极性属于正面、负面及中性的概率;
所述第二结果获取模块,用于将所述篇章级编码器生成的三维向量输入归一化层;
所述归一化层对所述三维向量进行归一化处理,得到所述样本文章的情感极性的分析结果。
36.根据权利要求35所述的装置,其中,所述篇章级编码器包括:全连接层模块、BiGRU或转换器与注意力池化模块中的其中一个。
37. 一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-18中任一项所述的方法。
38.一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行权利要求1-18中任一项所述的方法。
39.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-18中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010575481.4A CN111738015B (zh) | 2020-06-22 | 2020-06-22 | 文章情感极性分析方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010575481.4A CN111738015B (zh) | 2020-06-22 | 2020-06-22 | 文章情感极性分析方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111738015A CN111738015A (zh) | 2020-10-02 |
CN111738015B true CN111738015B (zh) | 2024-04-12 |
Family
ID=72652028
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010575481.4A Active CN111738015B (zh) | 2020-06-22 | 2020-06-22 | 文章情感极性分析方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111738015B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112364162A (zh) * | 2020-10-23 | 2021-02-12 | 北京计算机技术及应用研究所 | 一种基于深度表征技术和三支决策的句子情感分类方法 |
CN113688620B (zh) * | 2021-08-26 | 2024-03-22 | 北京阅神智能科技有限公司 | 文章情感分析方法和装置 |
CN113901171A (zh) * | 2021-09-06 | 2022-01-07 | 特赞(上海)信息科技有限公司 | 语义情感分析方法及装置 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109885687A (zh) * | 2018-12-29 | 2019-06-14 | 深兰科技(上海)有限公司 | 一种文本的情感分析方法、装置、电子设备及存储介质 |
CN109960791A (zh) * | 2017-12-25 | 2019-07-02 | 上海智臻智能网络科技股份有限公司 | 判断文本情感的方法及存储介质、终端 |
CN110083831A (zh) * | 2019-04-16 | 2019-08-02 | 武汉大学 | 一种基于BERT-BiGRU-CRF的中文命名实体识别方法 |
CN110287405A (zh) * | 2019-05-21 | 2019-09-27 | 百度在线网络技术(北京)有限公司 | 情感分析的方法、装置和存储介质 |
CN110334210A (zh) * | 2019-05-30 | 2019-10-15 | 哈尔滨理工大学 | 一种基于bert与lstm、cnn融合的中文情感分析方法 |
CN110597965A (zh) * | 2019-09-29 | 2019-12-20 | 腾讯科技(深圳)有限公司 | 文章的情感极性分析方法、装置、电子设备及存储介质 |
CN110705300A (zh) * | 2019-09-27 | 2020-01-17 | 上海烨睿信息科技有限公司 | 情感分析方法、系统、计算机终端及存储介质 |
CN110717325A (zh) * | 2019-09-04 | 2020-01-21 | 北京三快在线科技有限公司 | 文本的情感分析方法、装置、电子设备及存储介质 |
CN111143564A (zh) * | 2019-12-27 | 2020-05-12 | 北京百度网讯科技有限公司 | 无监督的多目标篇章级情感分类模型训练方法和装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10726207B2 (en) * | 2018-11-27 | 2020-07-28 | Sap Se | Exploiting document knowledge for aspect-level sentiment classification |
-
2020
- 2020-06-22 CN CN202010575481.4A patent/CN111738015B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109960791A (zh) * | 2017-12-25 | 2019-07-02 | 上海智臻智能网络科技股份有限公司 | 判断文本情感的方法及存储介质、终端 |
CN109885687A (zh) * | 2018-12-29 | 2019-06-14 | 深兰科技(上海)有限公司 | 一种文本的情感分析方法、装置、电子设备及存储介质 |
CN110083831A (zh) * | 2019-04-16 | 2019-08-02 | 武汉大学 | 一种基于BERT-BiGRU-CRF的中文命名实体识别方法 |
CN110287405A (zh) * | 2019-05-21 | 2019-09-27 | 百度在线网络技术(北京)有限公司 | 情感分析的方法、装置和存储介质 |
CN110334210A (zh) * | 2019-05-30 | 2019-10-15 | 哈尔滨理工大学 | 一种基于bert与lstm、cnn融合的中文情感分析方法 |
CN110717325A (zh) * | 2019-09-04 | 2020-01-21 | 北京三快在线科技有限公司 | 文本的情感分析方法、装置、电子设备及存储介质 |
CN110705300A (zh) * | 2019-09-27 | 2020-01-17 | 上海烨睿信息科技有限公司 | 情感分析方法、系统、计算机终端及存储介质 |
CN110597965A (zh) * | 2019-09-29 | 2019-12-20 | 腾讯科技(深圳)有限公司 | 文章的情感极性分析方法、装置、电子设备及存储介质 |
CN111143564A (zh) * | 2019-12-27 | 2020-05-12 | 北京百度网讯科技有限公司 | 无监督的多目标篇章级情感分类模型训练方法和装置 |
Non-Patent Citations (3)
Title |
---|
基于BERT的文本情感分析;刘思琴;冯胥睿瑞;;信息安全研究;20200305(03);全文 * |
基于BERT的文本情感分析方法的研究;方英兰;孙吉祥;韩兵;;信息技术与信息化;20200228(02);全文 * |
预训练模型下融合注意力机制的多语言文本情感分析方法;胡德敏;褚成伟;胡晨;胡钰媛;;小型微型计算机系统;20200215(02);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111738015A (zh) | 2020-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112507715B (zh) | 确定实体之间关联关系的方法、装置、设备和存储介质 | |
CN111061868B (zh) | 读法预测模型获取及读法预测方法、装置及存储介质 | |
CN111522994B (zh) | 用于生成信息的方法和装置 | |
CN111738015B (zh) | 文章情感极性分析方法、装置、电子设备及存储介质 | |
JP7159248B2 (ja) | レビュー情報の処理方法、装置、コンピュータ機器及び媒体 | |
US20210334669A1 (en) | Method, apparatus, device and storage medium for constructing knowledge graph | |
CN112148871B (zh) | 摘要生成方法、装置、电子设备及存储介质 | |
US20210200813A1 (en) | Human-machine interaction method, electronic device, and storage medium | |
CN111078878B (zh) | 文本处理方法、装置、设备及计算机可读存储介质 | |
CN111666751B (zh) | 训练文本扩充方法、装置、设备以及存储介质 | |
CN111144108A (zh) | 情感倾向性分析模型的建模方法、装置和电子设备 | |
CN111079945B (zh) | 端到端模型的训练方法及装置 | |
CN111783443A (zh) | 文本扰动检测方法、扰动还原方法、扰动处理方法和装置 | |
CN111144507A (zh) | 情感分析模型预训练方法、装置及电子设备 | |
CN111539224B (zh) | 语义理解模型的剪枝方法、装置、电子设备和存储介质 | |
CN111241810B (zh) | 标点预测方法及装置 | |
CN111611808B (zh) | 用于生成自然语言模型的方法和装置 | |
CN111414750B (zh) | 一种词条的同义判别方法、装置、设备和存储介质 | |
CN111126063B (zh) | 文本质量评估方法及装置 | |
CN112232089B (zh) | 语义表示模型的预训练方法、设备和存储介质 | |
CN112270169B (zh) | 对白角色预测方法、装置、电子设备及存储介质 | |
CN110990569B (zh) | 文本聚类方法、装置及相关设备 | |
CN111665955B (zh) | 候选字符串的处理方法、装置、电子设备及存储介质 | |
CN111325000B (zh) | 语言生成方法、装置及电子设备 | |
CN111125445B (zh) | 社区主题生成方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |