CN111914085A - 文本细粒度情感分类方法、系统、装置及存储介质 - Google Patents
文本细粒度情感分类方法、系统、装置及存储介质 Download PDFInfo
- Publication number
- CN111914085A CN111914085A CN202010560649.4A CN202010560649A CN111914085A CN 111914085 A CN111914085 A CN 111914085A CN 202010560649 A CN202010560649 A CN 202010560649A CN 111914085 A CN111914085 A CN 111914085A
- Authority
- CN
- China
- Prior art keywords
- representation
- sequence
- text
- semantic
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 51
- 238000000034 method Methods 0.000 title claims abstract description 49
- 239000013598 vector Substances 0.000 claims abstract description 49
- 239000002775 capsule Substances 0.000 claims abstract description 24
- 238000007781 pre-processing Methods 0.000 claims abstract description 13
- 230000011218 segmentation Effects 0.000 claims description 6
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 230000001419 dependent effect Effects 0.000 claims 1
- 238000003058 natural language processing Methods 0.000 abstract description 4
- 238000012549 training Methods 0.000 description 6
- 230000009286 beneficial effect Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Abstract
本发明公开了一种文本细粒度情感分类方法、系统、装置及存储介质,其中方法包括以下步骤:获取目标文本和属性词,对目标文本和属性词进行预处理,获得序列对;将序列对输入XLNet模型进行学习,并输出属性相关的词向量语义序列和全局特征表示;采用胶囊网络对词向量语义序列进行学习,获得包含局部特征及空间层次关系的局部特征表示;将全局特征表示和局部特征表示进行合并,获得目标文本的最终语义表示,根据最终语义表示对情感类别进行预测。本发明通过充分结合XLNet学习大规模文本的语义知识方面的优势,以及胶囊网络在学习文本序列的局部信息和空间结构信息方面的优势,提高情感分类的准确率,可广泛应用于自然语言处理领域。
Description
技术领域
本发明涉及自然语言处理领域,尤其涉及一种文本细粒度情感分类方法、系统、装置及存储介质。
背景技术
基于机器学习的文本属性情感分类是近年来自然语言处理领域中最热门的一个研究方向,在舆情监测、自动问答、信息抽取、电子商务等众多领域已经得到广泛和深入的应用。所谓的文本属性情感分类是指在给定分类体系的前提下,利用机器学习的方式来对文本的内容进行分析后自动确定文本中针对某个属性的情感极性的过程。早期很多研究人员采用了各种基于特征的表示方式,特别是采用各种经典的神经网络模型,如卷积神经网络CNN、长短期记忆网络LSTM、门控循环单元GRU等。近两年来,预训练语言模型及针对任务进行微调的两阶段模型在多个自然语言处理任务上取得了新的最好结果。特别是生成式预训练GPT和双向预训练语言模型BERT等工作证明了利用大规模无标注文本语料学习通用语言表示,并根据具体任务进行微调的方式是可行的。由于BERT在训练过程中没有考虑被屏蔽单词之间的关系,并且容易与微调过程出现不一致,因此Yang等学者进一步提出了XLNet模型用于克服BERT中存在上述的问题,并在多个自然语言任务中取得了新的最好结果。现有的研究和应用已证明预训练语言模型及XLNet适合用于学习句子中语言单元间的依赖关系,而胶囊网络适合用于学习句子的局部特征和空间层次结构关系,但目前的研究没有充分地结合XLNet和胶囊网络CapsNet各自的优势,也没有考虑属性情感分类任务的特点更好地对属性和目标文本之间的关系进行建模。
发明内容
为了解决上述技术问题,本发明的目的是提供一种结合胶囊网络和XLNet的文本细粒度情感分类方法、系统、装置及存储介质。
本发明所采用的技术方案是:
一种文本细粒度情感分类方法,包括以下步骤:
获取目标文本和属性词,对所述目标文本和所述属性词进行预处理,获得序列对;
将所述序列对输入XLNet模型进行学习,并输出属性相关的词向量语义序列和全局特征表示;
采用胶囊网络对所述词向量语义序列进行学习,获得包含局部特征及空间层次关系的局部特征表示;
将所述全局特征表示和所述局部特征表示进行合并,获得目标文本的最终语义表示,根据所述最终语义表示对情感类别进行预测。
进一步,所述对所述目标文本和所述属性词进行预处理,获得序列对,包括:
采用预设工具对所述目标文本和所述属性词进行分词,将分词后的各个单词转成预设词汇表中的序号信息;
结合所述序号信息、各个单词的位置词向量、单词词向量信息及分段信息获得序列对;
所述序列对包含句子单词词向量以及属性词词向量。
进一步,所述将所述序列对输入XLNet模型进行学习,并输出属性相关的词向量语义序列和全局特征表示,包括:
将所述序列对输入XLNet模型后,通过XLNet模型对序列对中包含属性相关的上下文信息进行学习,获得并输出属性相关的词向量语义序列和全局特征表示;
将包含语义信息的句子词向量表示转化为包含语义及上下文信息的表示。
进一步,所述采用胶囊网络对所述词向量语义序列进行学习,获得包含局部特征及空间层次关系的局部特征表示,包括:
采用胶囊网络对所述词向量语义序列进行学习;
通过动态路由算法学习不同胶囊层之间的局部-整体间的层次结构关系,获得包含局部特征及空间层次关系的所述局部特征表示。
进一步,所述将所述全局特征表示和所述局部特征表示进行合并,获得目标文本的最终语义表示,根据所述最终语义表示对情感类别进行预测,包括:
采用预设的合并策略将所述全局特征表示和所述局部特征表示进行合并,得到目标文本的最终语义表示,作为目标文本语义的一维输出;
结合softmax网络和所述最终语义表示对情感类别进行预测。
进一步,所述预设的合并策略包括求和合并策略、串联合并策略或取最大值合并策略中的至少之一。
进一步,所述文本细粒度情感分类方法通过一个多层神经网络来实现。
本发明所采用的另一技术方案是:
一种文本细粒度情感分类系统,包括:
预处理模块,用于获取目标文本和属性词,对所述目标文本和所述属性词进行预处理,获得序列对;
语义学习模块,用于将所述序列对输入XLNet模型进行学习,并输出属性相关的词向量语义序列和全局特征表示;
结构学习模块,用于采用胶囊网络对所述词向量语义序列进行学习,获得包含局部特征及空间层次关系的局部特征表示;
预测模块,用于将所述全局特征表示和所述局部特征表示进行合并,获得目标文本的最终语义表示,根据所述最终语义表示对情感类别进行预测。
本发明所采用的另一技术方案是:
一种文本细粒度情感分类装置,包括:
至少一个处理器;
至少一个存储器,用于存储至少一个程序;
当所述至少一个程序被所述至少一个处理器执行,使得所述至少一个处理器实现上所述方法。
本发明所采用的另一技术方案是:
一种存储介质,其中存储有处理器可执行的指令,所述处理器可执行的指令在由处理器执行时用于执行如上所述方法。
本发明的有益效果是:本发明通过充分结合基于自编码语言模型XLNet学习大规模文本的语义知识方面的优势,以及胶囊网络CapsNet在学习文本序列的局部信息和空间结构信息方面的优势,提高情感分类的准确率。
附图说明
图1是本发明实施例多层神经网络模型的总体架构图;
图2是本发明实施例一种文本细粒度情感分类系统的结构框图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。
在本发明的描述中,需要理解的是,涉及到方位描述,例如上、下、前、后、左、右等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
在本发明的描述中,若干的含义是一个或者多个,多个的含义是两个以上,大于、小于、超过等理解为不包括本数,以上、以下、以内等理解为包括本数。如果有描述到第一、第二只是用于区分技术特征为目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量或者隐含指明所指示的技术特征的先后关系。
本发明的描述中,除非另有明确的限定,设置、安装、连接等词语应做广义理解,所属技术领域技术人员可以结合技术方案的具体内容合理确定上述词语在本发明中的具体含义。
本实施例提供了一种混合胶囊网络和XLNet的文本细粒度情感分类方法,包括但不限于以下步骤:
步骤1、获取目标文本和属性词,对目标文本和属性词进行预处理,获得序列对。
对目标文本和属性词进行预处理,通过构造包含属性信息的辅助句子的方式与目标文本构成序列队。结合SentencePiece对文本序列及属性进行分词,将分词后的各个单词转成词汇表中的序号信息,并合并各个单词的位置词向量、单词词向量信息及分段信息作为XLNet层的输入。同时将原先针对目标文本及指定属性的多元情感分类判断转换为针对序列对之间二元关系的判断。
步骤2、将序列对输入XLNet模型进行学习,并输出属性相关的词向量语义序列和全局特征表示。
对于输入的包含句子单词词向量及属性词词向量的序列对,分别通过XLNet学习目标文本的上文信息和与属性之间的关系,从而得到了属性相关的词向量语义序列,并将包含语义信息的句子词向量表示转化为同时包含语义及上下文信息的表示。
步骤3、采用胶囊网络对词向量语义序列进行学习,获得包含局部特征及空间层次关系的局部特征表示。
使用一个胶囊网络对XLNet层中输出的目标文本序列的词向量进行学习,通过动态路由算法学习不同胶囊层之间的局部-整体间的层次结构关系,最终得到包含目标文本的局部特征表示。
步骤4、将全局特征表示和局部特征表示进行合并,获得目标文本的最终语义表示,根据最终语义表示对情感类别进行预测。
利用求和、串联、取最大值等多种不同合并策略对目标文本的全局特征表示和局部特征表示进行合并,得到目标文本的最终语义表示,并通过一个简单的softmax网络对句子的情感类别进行预测。
本实施例的一种结合胶囊网络和XLNet的文本细粒度情感分类方法是在一个多层神经网络中完成的,多层神经网络的架构图如图1所示,所述步骤1在第一层输入层中完成;步骤2在第二层XLNet层中完成,其中,XLNet中各单元词向量的输出维度为768或1024维;步骤3在第三层CapsNet层中完成,其中,CapsNet层中的迭代次数为3,胶囊单元和单元词向量与XLNet的输出维度相关,针对768为(24,32),针对1024为(32,32);步骤4在第四层输出层中完成,对于合并策略主要采用求和串联两种,最后通过一个softmax网络进行预测和输出。模型训练过程中采用多元交叉熵定义损失函数,并结合了Adam优化器,其学习率统一为2e-05。为避免过拟合,采用基于Dropout的正则化策略,值统一设置为0.1。
其中,所述第二层XLNet层用于学习原始输入目标文本中各个词的属性相关上下文信息,所述第三层CapsNet层通过胶囊网络和动态路由算法学习句子的局部特征及空间层次结构特征,并得到相应的词向量表示。所述第四层通过多种不同的词向量合并策略得到目标文本的最终语义表示,并通过softmax进行分类输出。
其中,所述步骤1为输入构造过程,先构造包含属性及情感极性的辅助句子,并与目标文本构成序列对,然后通过SentencePiece进行分词及编码转换后作为XLNet的输入;所述步骤2利用XLNet学习目标文本的属性相关上下文信息后,得到目标文本的全局特征表示及各个单词的序列词向量信息;所述步骤3通过CapsNet及动态路由算法的多次迭代进一步学习提取上下文信息的词向量的局部特征和空间层次结构关系,形成固定维度的输出;所述步骤4通过多种词向量合并策略得到包含全局上下文信息及局部特征信息的目标文本语义表示,然后利用一个softmax进行分类输出。
综上所述,本实施例与现有技术相比,至少具有如下有益效果:本实施例通过充分结合预训练语言模型XLNet在学习文本的上下文信息方面的优势以及CapsNet在学习文本局部特征及空间层次关系方面的优势,提出一种混合胶囊网络和XLNet的文本细粒度情感分类方法,首先构造包含属性及情感极性的辅助句子,并与目标文本构成序列对作为XLNet的输入;然后,利用XLNet学习目标文本的属性相关上下文信息后,得到目标文本的全局特征表示及各个单词的序列词向量信息;接着,再通过CapsNet进一步学习提取上下文信息的词向量的局部特征和空间层次结构关系,形成固定维度的输出;最后通过多种词向量合并策略得到包含全局上下文信息及局部特征信息的目标文本语义表示,然后利用一个softmax进行分类输出。可以进一步提高模型分类的准确率,并具有较好的通用性,在测试的多个语料库上都取得了优于之前各相关方法的效果。
如图2所示,本实施例还提供了一种文本细粒度情感分类系统,包括:
预处理模块,用于获取目标文本和属性词,对目标文本和属性词进行预处理,获得序列对;
语义学习模块,用于将序列对输入XLNet模型进行学习,并输出属性相关的词向量语义序列和全局特征表示;
结构学习模块,用于采用胶囊网络对词向量语义序列进行学习,获得包含局部特征及空间层次关系的局部特征表示;
预测模块,用于将全局特征表示和局部特征表示进行合并,获得目标文本的最终语义表示,根据最终语义表示对情感类别进行预测。
本实施例的一种文本细粒度情感分类系统,可执行本发明方法实施例所提供的一种文本细粒度情感分类方法,可执行方法实施例的任意组合实施步骤,具备该方法相应的功能和有益效果。
本实施例还提供了一种文本细粒度情感分类装置,包括:
至少一个处理器;
至少一个存储器,用于存储至少一个程序;
当至少一个程序被至少一个处理器执行,使得至少一个处理器实现上所述方法。
本实施例的一种文本细粒度情感分类装置,可执行本发明方法实施例所提供的一种文本细粒度情感分类方法,可执行方法实施例的任意组合实施步骤,具备该方法相应的功能和有益效果。
本实施例还提供了一种存储介质,其中存储有处理器可执行的指令,处理器可执行的指令在由处理器执行时用于执行如上所述方法。
本实施例的一种存储介质,该存储介质存储有可执行本发明方法实施例所提供的一种文本细粒度情感分类方法的指令或程序,通过运行指令或程序可执行方法实施例的任意组合实施步骤,具备该方法相应的功能和有益效果。
可以理解的是,上文中所公开方法中的全部或某些步骤、系统可以被实施为软件、固件、硬件及其适当的组合。某些物理组件或所有物理组件可以被实施为由处理器,如中央处理器、数字信号处理器或微处理器执行的软件,或者被实施为硬件,或者被实施为集成电路,如专用集成电路。这样的软件可以分布在计算机可读介质上,计算机可读介质可以包括计算机存储介质(或非暂时性介质)和通信介质(或暂时性介质)。如本领域普通技术人员公知的,术语计算机存储介质包括在用于存储信息(诸如计算机可读指令、数据结构、程序模块或其他数据)的任何方法或技术中实施的易失性和非易失性、可移除和不可移除介质。计算机存储介质包括但不限于RAM、ROM、EEPROM、闪存或其他存储器技术、CD-ROM、数字多功能盘(DVD)或其他光盘存储、磁盒、磁带、磁盘存储或其他磁存储装置、或者可以用于存储期望的信息并且可以被计算机访问的任何其他的介质。此外,本领域普通技术人员公知的是,通信介质通常包含计算机可读指令、数据结构、程序模块或者诸如载波或其他传输机制之类的调制数据信号中的其他数据,并且可包括任何信息递送介质。
上面结合附图对本发明实施例作了详细说明,但是本发明不限于上述实施例,在所述技术领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下作出各种变化。
Claims (10)
1.一种文本细粒度情感分类方法,其特征在于,包括以下步骤:
获取目标文本和属性词,对所述目标文本和所述属性词进行预处理,获得序列对;
将所述序列对输入XLNet模型进行学习,并输出属性相关的词向量语义序列和全局特征表示;
采用胶囊网络对所述词向量语义序列进行学习,获得包含局部特征及空间层次关系的局部特征表示;
将所述全局特征表示和所述局部特征表示进行合并,获得目标文本的最终语义表示,根据所述最终语义表示对情感类别进行预测。
2.根据权利要求1所述的一种文本细粒度情感分类方法,其特征在于,所述对所述目标文本和所述属性词进行预处理,获得序列对,包括:
采用预设工具对所述目标文本和所述属性词进行分词,将分词后的各个单词转成预设词汇表中的序号信息;
结合所述序号信息、各个单词的位置词向量、单词词向量信息及分段信息获得序列对;所述序列对包含句子单词词向量以及属性词词向量。
3.根据权利要求1所述的一种文本细粒度情感分类方法,其特征在于,所述将所述序列对输入XLNet模型进行学习,并输出属性相关的词向量语义序列和全局特征表示,包括:
将所述序列对输入XLNet模型后,通过XLNet模型对序列对中包含属性相关的上下文信息进行学习,获得并输出属性相关的词向量语义序列和全局特征表示;
将包含语义信息的句子词向量表示转化为包含语义及上下文信息的表示。
4.根据权利要求1所述的一种文本细粒度情感分类方法,其特征在于,所述采用胶囊网络对所述词向量语义序列进行学习,获得包含局部特征及空间层次关系的局部特征表示,包括:
采用胶囊网络对所述词向量语义序列进行学习;
通过动态路由算法学习不同胶囊层之间的局部-整体间的层次结构关系,获得包含局部特征及空间层次关系的所述局部特征表示。
5.根据权利要求1所述的一种文本细粒度情感分类方法,其特征在于,所述将所述全局特征表示和所述局部特征表示进行合并,获得目标文本的最终语义表示,根据所述最终语义表示对情感类别进行预测,包括:
采用预设的合并策略将所述全局特征表示和所述局部特征表示进行合并,得到目标文本的最终语义表示,作为目标文本语义的一维输出;
结合softmax网络和所述最终语义表示对情感类别进行预测。
6.根据权利要求5所述的一种文本细粒度情感分类方法,其特征在于,所述预设的合并策略包括求和合并策略、串联合并策略或取最大值合并策略中的至少之一。
7.根据权利要求1所述的一种文本细粒度情感分类方法,其特征在于,所述文本细粒度情感分类方法通过一个多层神经网络来实现。
8.一种文本细粒度情感分类系统,其特征在于,包括:
预处理模块,用于获取目标文本和属性词,对所述目标文本和所述属性词进行预处理,获得序列对;
语义学习模块,用于将所述序列对输入XLNet模型进行学习,并输出属性相关的词向量语义序列和全局特征表示;
结构学习模块,用于采用胶囊网络对所述词向量语义序列进行学习,获得包含局部特征及空间层次关系的局部特征表示;
预测模块,用于将所述全局特征表示和所述局部特征表示进行合并,获得目标文本的最终语义表示,根据所述最终语义表示对情感类别进行预测。
9.一种文本细粒度情感分类装置,其特征在于,包括:
至少一个处理器;
至少一个存储器,用于存储至少一个程序;
当所述至少一个程序被所述至少一个处理器执行,使得所述至少一个处理器实现权利要求1-7任一项所述的一种文本细粒度情感分类方法。
10.一种存储介质,其中存储有处理器可执行的指令,其特征在于,所述处理器可执行的指令在由处理器执行时用于执行如权利要求1-7任一项所述的一种文本细粒度情感分类方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010560649.4A CN111914085B (zh) | 2020-06-18 | 2020-06-18 | 文本细粒度情感分类方法、系统、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010560649.4A CN111914085B (zh) | 2020-06-18 | 2020-06-18 | 文本细粒度情感分类方法、系统、装置及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111914085A true CN111914085A (zh) | 2020-11-10 |
CN111914085B CN111914085B (zh) | 2024-04-23 |
Family
ID=73237946
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010560649.4A Active CN111914085B (zh) | 2020-06-18 | 2020-06-18 | 文本细粒度情感分类方法、系统、装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111914085B (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112347258A (zh) * | 2020-11-16 | 2021-02-09 | 合肥工业大学 | 一种短文本方面级情感分类方法 |
CN112559680A (zh) * | 2020-12-01 | 2021-03-26 | 合肥工业大学 | 基于多层次特征提取的文本分类方法、模型及存储介质 |
CN112559750A (zh) * | 2020-12-21 | 2021-03-26 | 珠海格力电器股份有限公司 | 文本数据的分类方法、装置、非易失性存储介质、处理器 |
CN112579778A (zh) * | 2020-12-23 | 2021-03-30 | 重庆邮电大学 | 基于多层次的特征注意力的方面级情感分类方法 |
CN113051910A (zh) * | 2021-03-19 | 2021-06-29 | 上海森宇文化传媒股份有限公司 | 一种用于预测人物角色情绪的方法和装置 |
CN113283234A (zh) * | 2021-05-28 | 2021-08-20 | 天津大学 | 一种基于胶囊网络的情感分类方法 |
CN113569553A (zh) * | 2021-07-28 | 2021-10-29 | 广州芳禾数据有限公司 | 基于改进Adaboost算法的句子相似性判断方法 |
CN113609867A (zh) * | 2021-08-23 | 2021-11-05 | 南开大学 | 基于单层网络结构学习上下文信息的方法及系统 |
CN113792544A (zh) * | 2021-07-06 | 2021-12-14 | 中国地质大学(武汉) | 顾及地理空间分布的文本情感分类方法及装置 |
CN113935459A (zh) * | 2021-09-23 | 2022-01-14 | 广西师范大学 | 一种基于bert的深度神经网络模型的自动评卷方法 |
CN114791951A (zh) * | 2022-05-13 | 2022-07-26 | 青岛文达通科技股份有限公司 | 基于胶囊网络的情感分类方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107092596A (zh) * | 2017-04-24 | 2017-08-25 | 重庆邮电大学 | 基于attention CNNs和CCR的文本情感分析方法 |
CN107169035A (zh) * | 2017-04-19 | 2017-09-15 | 华南理工大学 | 一种混合长短期记忆网络和卷积神经网络的文本分类方法 |
CN109635109A (zh) * | 2018-11-28 | 2019-04-16 | 华南理工大学 | 基于lstm并结合词性及多注意力机制的句子分类方法 |
CN111209401A (zh) * | 2020-01-03 | 2020-05-29 | 西安电子科技大学 | 网络舆情文本信息情感极性分类处理系统及方法 |
-
2020
- 2020-06-18 CN CN202010560649.4A patent/CN111914085B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107169035A (zh) * | 2017-04-19 | 2017-09-15 | 华南理工大学 | 一种混合长短期记忆网络和卷积神经网络的文本分类方法 |
CN107092596A (zh) * | 2017-04-24 | 2017-08-25 | 重庆邮电大学 | 基于attention CNNs和CCR的文本情感分析方法 |
CN109635109A (zh) * | 2018-11-28 | 2019-04-16 | 华南理工大学 | 基于lstm并结合词性及多注意力机制的句子分类方法 |
CN111209401A (zh) * | 2020-01-03 | 2020-05-29 | 西安电子科技大学 | 网络舆情文本信息情感极性分类处理系统及方法 |
Non-Patent Citations (1)
Title |
---|
JINDIAN SU ET AL.: "Enhancing Aspect-Based Sentiment Analysis With Capsule Network", 《IEEE ACCESS》, pages 100551 * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112347258A (zh) * | 2020-11-16 | 2021-02-09 | 合肥工业大学 | 一种短文本方面级情感分类方法 |
CN112347258B (zh) * | 2020-11-16 | 2022-09-13 | 合肥工业大学 | 一种短文本方面级情感分类方法 |
CN112559680A (zh) * | 2020-12-01 | 2021-03-26 | 合肥工业大学 | 基于多层次特征提取的文本分类方法、模型及存储介质 |
CN112559680B (zh) * | 2020-12-01 | 2022-10-04 | 合肥工业大学 | 基于多层次特征提取的文本分类方法、模型及存储介质 |
CN112559750A (zh) * | 2020-12-21 | 2021-03-26 | 珠海格力电器股份有限公司 | 文本数据的分类方法、装置、非易失性存储介质、处理器 |
CN112579778B (zh) * | 2020-12-23 | 2022-08-26 | 重庆邮电大学 | 基于多层次的特征注意力的方面级情感分类方法 |
CN112579778A (zh) * | 2020-12-23 | 2021-03-30 | 重庆邮电大学 | 基于多层次的特征注意力的方面级情感分类方法 |
CN113051910A (zh) * | 2021-03-19 | 2021-06-29 | 上海森宇文化传媒股份有限公司 | 一种用于预测人物角色情绪的方法和装置 |
CN113283234B (zh) * | 2021-05-28 | 2022-05-06 | 天津大学 | 一种基于胶囊网络的情感分类方法 |
CN113283234A (zh) * | 2021-05-28 | 2021-08-20 | 天津大学 | 一种基于胶囊网络的情感分类方法 |
CN113792544A (zh) * | 2021-07-06 | 2021-12-14 | 中国地质大学(武汉) | 顾及地理空间分布的文本情感分类方法及装置 |
CN113792544B (zh) * | 2021-07-06 | 2023-08-29 | 中国地质大学(武汉) | 顾及地理空间分布的文本情感分类方法及装置 |
CN113569553A (zh) * | 2021-07-28 | 2021-10-29 | 广州芳禾数据有限公司 | 基于改进Adaboost算法的句子相似性判断方法 |
CN113609867A (zh) * | 2021-08-23 | 2021-11-05 | 南开大学 | 基于单层网络结构学习上下文信息的方法及系统 |
CN113609867B (zh) * | 2021-08-23 | 2024-02-02 | 南开大学 | 基于单层网络结构学习上下文信息的方法及系统 |
CN113935459A (zh) * | 2021-09-23 | 2022-01-14 | 广西师范大学 | 一种基于bert的深度神经网络模型的自动评卷方法 |
CN114791951A (zh) * | 2022-05-13 | 2022-07-26 | 青岛文达通科技股份有限公司 | 基于胶囊网络的情感分类方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN111914085B (zh) | 2024-04-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111914085A (zh) | 文本细粒度情感分类方法、系统、装置及存储介质 | |
CN109992782B (zh) | 法律文书命名实体识别方法、装置及计算机设备 | |
CN108984724B (zh) | 利用高维表示提高特定属性情感分类准确率方法 | |
CN110188202B (zh) | 语义关系识别模型的训练方法、装置及终端 | |
CN108427738B (zh) | 一种基于深度学习的快速图像检索方法 | |
CN110609897A (zh) | 一种融合全局和局部特征的多类别中文文本分类方法 | |
CN110633366B (zh) | 一种短文本分类方法、装置和存储介质 | |
CN112163429B (zh) | 结合循环网络及bert的句子相关度获取方法、系统及介质 | |
US20220245347A1 (en) | Entity recognition method, apparatus, electronic device and computer readable storage medium | |
CN114821271B (zh) | 模型训练方法、图像描述生成方法、装置及存储介质 | |
CN110968725B (zh) | 图像内容描述信息生成方法、电子设备及存储介质 | |
CN116304745B (zh) | 基于深层次语义信息的文本话题匹配方法及系统 | |
CN112101042A (zh) | 文本情绪识别方法、装置、终端设备和存储介质 | |
CN113434683A (zh) | 文本分类方法、装置、介质及电子设备 | |
CN110347853B (zh) | 一种基于循环神经网络的图像哈希码生成方法 | |
CN111782804A (zh) | 基于TextCNN同分布文本数据选择方法、系统及存储介质 | |
CN111428502A (zh) | 一种面向军事语料的命名实体标注方法 | |
CN111930972B (zh) | 利用标签层次信息的多媒体数据跨模态检索方法及系统 | |
US20220138425A1 (en) | Acronym definition network | |
CN112270334B (zh) | 一种基于异常点暴露的少样本图像分类方法及系统 | |
CN112560440A (zh) | 一种基于深度学习的面向方面级情感分析的句法依赖方法 | |
CN115713082A (zh) | 一种命名实体识别方法、装置、设备及存储介质 | |
CN112487811B (zh) | 基于强化学习的级联信息提取系统及方法 | |
CN117523218A (zh) | 标签生成、图像分类模型的训练、图像分类方法及装置 | |
CN113076741A (zh) | 一种基于多语言文本数据分析方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |