CN112905796B - 基于再注意力机制的文本情绪分类方法及系统 - Google Patents

基于再注意力机制的文本情绪分类方法及系统 Download PDF

Info

Publication number
CN112905796B
CN112905796B CN202110281949.3A CN202110281949A CN112905796B CN 112905796 B CN112905796 B CN 112905796B CN 202110281949 A CN202110281949 A CN 202110281949A CN 112905796 B CN112905796 B CN 112905796B
Authority
CN
China
Prior art keywords
vector
neural network
layer
attention
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110281949.3A
Other languages
English (en)
Other versions
CN112905796A (zh
Inventor
吴士伟
陈通
李慧娟
展一鸣
李钊
辛国茂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong Ecloud Information Technology Co ltd
Original Assignee
Shandong Ecloud Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong Ecloud Information Technology Co ltd filed Critical Shandong Ecloud Information Technology Co ltd
Priority to CN202110281949.3A priority Critical patent/CN112905796B/zh
Publication of CN112905796A publication Critical patent/CN112905796A/zh
Application granted granted Critical
Publication of CN112905796B publication Critical patent/CN112905796B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/353Clustering; Classification into predefined classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Abstract

本公开提供了一种基于再注意力机制的文本情绪分类方法及系统,获取文本中的文字数据,并对获取的文字数据进行预处理;将预处理后的文字数据输入到预设神经网络分类模型,得到情绪分类结果;其中,预设神经网络分类模型中,包括再注意力层和多个神经网络层,再注意力层对每个神经网络层的输出向量进行特征选择;本公开在现有自注意力文本特征选择基础上,增加了特征再注意的机制,极大的提高了情绪分类的准确率。

Description

基于再注意力机制的文本情绪分类方法及系统
技术领域
本公开涉及文本数据处理技术领域,特别涉及一种基于再注意力机制的文本情绪分类方法及系统。
背景技术
本部分的陈述仅仅是提供了与本公开相关的背景技术,并不必然构成现有技术。
人的情绪波动以及舆论的动向是维系社会稳定的重要影响因素。如何能够正确分析人民群众的情绪变化并及时发现热点事件,是亟需解决的问题。
发明人发现,虽然如今各种大数据舆情分析系统层出不穷,许多初创公司也瞄准了这一方向,但是大多数的分析系统还存在着以下几点问题:依赖关键词分析,多数情感分析技术还在依靠特定关键词,如“哈哈”、“生气”等,来评判网民情绪,这种方法只能分析具有明确情感词语的句子,而对没有明确情感词语的句子,分类准确率大打折扣。
发明内容
为了解决现有技术的不足,本公开提供了一种基于再注意力机制的文本情绪分类方法及系统,在现有自注意力文本特征选择基础上,增加了多层特征的再注意机制,极大的提高了情绪分类的准确率。
为了实现上述目的,本公开采用如下技术方案:
本公开第一方面提供了一种基于再注意力机制的文本情绪分类方法。
一种基于再注意力机制的文本情绪分类方法,包括以下过程:
获取文本中的文字数据,并对获取的文字数据进行预处理;
将预处理后的文字数据输入到预设神经网络分类模型,得到情绪分类结果;
其中,预设神经网络分类模型中,包括再注意力层和多个神经网络层,再注意力层对每个神经网络层的输出向量进行特征选择。
本公开第二方面提供了一种基于再注意力机制的文本情绪分类系统。
一种基于再注意力机制的文本情绪分类系统,包括:
数据获取模块,被配置为:获取文本中的文字数据,并对获取的文字数据进行预处理;
情绪分类模块,被配置为:将预处理后的文字数据输入到预设神经网络分类模型,得到情绪分类结果;
其中,预设神经网络分类模型中,包括再注意力层和多个神经网络层,再注意力层对每个神经网络层的输出向量进行特征选择。
本公开第三方面提供了一种计算机可读存储介质,其上存储有程序,该程序被处理器执行时实现如本公开第一方面所述的基于再注意力机制的文本情绪分类方法中的步骤。
本公开第四方面提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的程序,所述处理器执行所述程序时实现如本公开第一方面所述的基于再注意力机制的文本情绪分类方法中的步骤。
与现有技术相比,本公开的有益效果是:
1、本公开所述的方法、系统、介质或电子设备,在现有自注意力文本特征选择基础上,增加了特征再注意的机制,极大的提高了情绪分类的准确率。
2、本公开所述的方法、系统、介质或电子设备,实现了对对某项事件或新闻的评价形成的舆情的精准评价,提高了舆情监控能力。
本公开附加方面的优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本公开的实践了解到。
附图说明
构成本公开的一部分的说明书附图用来提供对本公开的进一步理解,本公开的示意性实施例及其说明用于解释本公开,并不构成对本公开的不当限定。
图1为本公开实施例1提供的基于再注意力机制的文本情绪分类方法的流程示意图。
具体实施方式
下面结合附图与实施例对本公开作进一步说明。
应该指出,以下详细说明都是示例性的,旨在对本公开提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本公开所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本公开的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。
实施例1:
如图1所示,本公开实施例1提供了一种基于再注意力机制的文本情绪分类方法,包括以下过程:
获取文本中的文字数据,并对获取的文字数据进行预处理;
将预处理后的文字数据输入到预设神经网络分类模型,得到情绪分类结果;
其中,预设神经网络分类模型中,包括再注意力层和多个神经网络层,再注意力层对每个神经网络层的输出向量进行特征选择。
具体的,包括以下步骤:
步骤1:构建预训练数据集,通过获取互联网中网民的评论文本,将每条评论以长句形式表示,句子长度截断至512字符,长度为m的输入语句定义为X=(x1,x2,x3…,xm)。
步骤2:构建13层深度神经网络分类模型,其中1-12层为基于双向Transformer的神经网络层,目的是得到输入语句的嵌入式表达,第13层为方法提出的再注意力层,目的是将第12层中所有的输出向量进行特征选择。
步骤3:在步骤1中准备的每个输入语句的最前面添加<CLS>标记,并将添加标记后的语句输入到步骤2中第一层神经网络中,在第12层后得到语句X的隐含向量HiddenState,表示为h=(h0,h1,h2,h3…,hm)其中h0表示<CLS>标位置的向量。
步骤4:将Hidden State向量进行再注意操作,具体按照以下公式:
Figure BDA0002979002600000041
Figure BDA0002979002600000042
ej=score(h0,hj)
其中,c是经过Attention机制之后得到的最终向量,αj代表每个输入单词的权重,j代表输入语句中每个字或单词的下标,n为超参数。得到最终加权之后的向量c后,c与h0相加并输入到神经网络分类器中进行分类。
权重得分计算公式为:
Figure BDA0002979002600000051
步骤5:将步骤4中计算得到的最终向量c送入softmax分类器,得到分类结果的概率,本实施例采用的是微博评论情感分类数据,共分为3类,正面、负面和中立,这里softmax分类后输出的是每一类的概率。
本实施例中,基于微博数据集,与三种分类方法比较,得到结果如表1所示:
表1:三种分类方法结果对比
Figure BDA0002979002600000052
实施例2:
本公开实施例2提供了一种基于再注意力机制的文本情绪分类系统,包括:
数据获取模块,被配置为:获取文本中的文字数据,并对获取的文字数据进行预处理;
情绪分类模块,被配置为:将预处理后的文字数据输入到预设神经网络分类模型,得到情绪分类结果;
其中,预设神经网络分类模型中,包括再注意力层和多个神经网络层,再注意力层对每个神经网络层的输出向量进行特征选择。
具体的,包括以下步骤:
步骤1:构建预训练数据集,通过获取互联网中网民的评论文本,将每条评论以长句形式表示,句子长度截断至512字符,长度为m的输入语句定义为X=(x1,x2,x3…,xm)。
步骤2:构建13层深度神经网络分类模型,其中1-12层为基于双向Transformer的神经网络层,目的是得到输入语句的嵌入式表达,第13层为方法提出的再注意力层,目的是将第12层中所有的输出向量进行特征选择。
步骤3:在步骤1中准备的每个输入语句的最前面添加<CLS>标记,并将添加标记后的语句输入到步骤2中第一层神经网络中,在第12层后得到语句X的隐含向量HiddenState,表示为h=(h0,h1,h2,h3…,hm)其中h0表示<CLS>标位置的向量。
步骤4:将Hidden State向量进行再注意操作,具体按照以下公式:
Figure BDA0002979002600000061
Figure BDA0002979002600000062
ej=score(h0,hj)
其中,c是经过Attention机制之后得到的最终向量,αj代表每个输入单词的权重,j代表输入语句中每个字或单词的下标,n为超参数。得到最终加权之后的向量c后,c与h0相加并输入到神经网络分类器中进行分类。
权重得分计算公式为:
Figure BDA0002979002600000071
步骤5:将步骤4中计算得到的最终向量c送入softmax分类器,得到分类结果的概率,本实施例采用的是微博评论情感分类数据,共分为3类,正面、负面和中立,这里softmax分类后输出的是每一类的概率。
实施例3:
本公开实施例3提供了一种计算机可读存储介质,其上存储有程序,该程序被处理器执行时实现如本公开实施例1所述的基于再注意力机制的文本情绪分类方法中的步骤,所述步骤为:
获取文本中的文字数据,并对获取的文字数据进行预处理;
将预处理后的文字数据输入到预设神经网络分类模型,得到情绪分类结果;
其中,预设神经网络分类模型中,包括再注意力层和多个神经网络层,再注意力层对每个神经网络层的输出向量进行特征选择。
详细步骤与实施例1提供的基于再注意力机制的文本情绪分类方法相同,这里不再赘述。
实施例4:
本公开实施例4提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的程序,所述处理器执行所述程序时实现如本公开实施例1所述的基于再注意力机制的文本情绪分类方法中的步骤,所述步骤为:
获取文本中的文字数据,并对获取的文字数据进行预处理;
将预处理后的文字数据输入到预设神经网络分类模型,得到情绪分类结果;
其中,预设神经网络分类模型中,包括再注意力层和多个神经网络层,再注意力层对每个神经网络层的输出向量进行特征选择。
具体的,包括以下步骤:
步骤1:构建预训练数据集,通过获取互联网中网民的评论文本,将每条评论以长句形式表示,句子长度截断至512字符,长度为m的输入语句定义为X=(x1,x2,x3…,xm)。
步骤2:构建13层深度神经网络分类模型,其中1-12层为基于双向Transformer的神经网络层,目的是得到输入语句的嵌入式表达,第13层为方法提出的再注意力层,目的是将第12层中所有的输出向量进行特征选择。
步骤3:在步骤1中准备的每个输入语句的最前面添加<CLS>标记,并将添加标记后的语句输入到步骤2中第一层神经网络中,在第12层后得到语句X的隐含向量HiddenState,表示为h=(h0,h1,h2,h3…,hm)其中h0表示<CLS>标位置的向量。
步骤4:将Hidden State向量进行再注意操作,具体按照以下公式:
Figure BDA0002979002600000081
Figure BDA0002979002600000082
ej=score(h0,hj)
其中,c是经过Attention机制之后得到的最终向量,αj代表每个输入单词的权重,j代表输入语句中每个字或单词的下标,n为超参数。得到最终加权之后的向量c后,c与h0相加并输入到神经网络分类器中进行分类。
权重得分计算公式为:
Figure BDA0002979002600000091
步骤5:将步骤4中计算得到的最终向量c送入softmax分类器,得到分类结果的概率,本实施例采用的是微博评论情感分类数据,共分为3类,正面、负面和中立,这里softmax分类后输出的是每一类的概率。
本领域内的技术人员应明白,本公开的实施例可提供为方法、系统、或计算机程序产品。因此,本公开可采用硬件实施例、软件实施例、或结合软件和硬件方面的实施例的形式。而且,本公开可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器和光学存储器等)上实施的计算机程序产品的形式。
本公开是参照根据本公开实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(RandomAccessMemory,RAM)等。
以上所述仅为本公开的优选实施例而已,并不用于限制本公开,对于本领域的技术人员来说,本公开可以有各种更改和变化。凡在本公开的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本公开的保护范围之内。

Claims (7)

1.一种基于再注意力机制的文本情绪分类方法,其特征在于:包括以下过程:
获取文本中的文字数据,并对获取的文字数据进行预处理;
将预处理后的文字数据输入到预设神经网络分类模型,得到情绪分类结果;
其中,预设神经网络分类模型中,包括再注意力层和多个神经网络层,再注意力层对每个神经网络层的输出向量进行特征选择;
具体的,包括以下步骤:
步骤1:构建预训练数据集,通过获取互联网中网民的评论文本,将每条评论以长句形式表示,句子长度截断至512字符,长度为m的输入语句定义为X=(x1,x2,x3…,xm);
步骤2:构建13层深度神经网络分类模型,其中1-12层为基于双向Transformer的神经网络层,目的是得到输入语句的嵌入式表达,第13层为方法提出的再注意力层,目的是将第12层中所有的输出向量进行特征选择;
步骤3:在步骤1中准备的每个输入语句的最前面添加<CLS>标记,并将添加标记后的语句输入到步骤2中第一层神经网络中,在第12层后得到语句X的隐含向量HiddenState,表示为h=(h0,h1,h2,h3…,hm)其中h0表示<CLS>标位置的向量;
步骤4:将HiddenState向量进行再注意操作;
步骤5:将步骤4中计算得到的最终向量c送入softmax分类器,得到分类结果的概率;
所述隐含向量中包含有指示预设标记位置的位置向量,隐含向量中的某个子向量的权重根据此向量与位置向量的得分计算得到;利用再注意力层对隐含向量进行再注意操作,得到最终加权之后的向量,将加权后的向量与位置向量相加后输入到softmax分类器中,得到分类结果的概率;隐含向量中的每个子向量代表一个字符或者一个单词,每个字符或者单词对应一个权重,各个字符或单词的加权和为经过再注意力机制之后得到的最终向量。
2.如权利要求1所述的基于再注意力机制的文本情绪分类方法,其特征在于:
神经网络层为基于双向Transformer的神经网络层,用于得到输入语句的嵌入式表达。
3.如权利要求1所述的基于再注意力机制的文本情绪分类方法,其特征在于:
对获取的文字数据进行预处理,包括:
将文字数据以语句形式表示,并将一条语句截断成预设字符数量的多个。
4.如权利要求3所述的基于再注意力机制的文本情绪分类方法,其特征在于:
在每条语句的最前面添加预设标记,将添加标记后的语句输入到预设神经网络分类模型的第一个神经网络层中,在最后一个神经网络层中得到语句的隐含向量。
5.一种基于再注意力机制的文本情绪分类系统,其特征在于:包括:
数据获取模块,被配置为:获取文本中的文字数据,并对获取的文字数据进行预处理;
情绪分类模块,被配置为:将预处理后的文字数据输入到预设神经网络分类模型,得到情绪分类结果;
其中,预设神经网络分类模型中,包括再注意力层和多个神经网络层,再注意力层对每个神经网络层的输出向量进行特征选择;
具体的,包括以下步骤:
步骤1:构建预训练数据集,通过获取互联网中网民的评论文本,将每条评论以长句形式表示,句子长度截断至512字符,长度为m的输入语句定义为X=(x1,x2,x3…,xm);
步骤2:构建13层深度神经网络分类模型,其中1-12层为基于双向Transformer的神经网络层,目的是得到输入语句的嵌入式表达,第13层为方法提出的再注意力层,目的是将第12层中所有的输出向量进行特征选择;
步骤3:在步骤1中准备的每个输入语句的最前面添加<CLS>标记,并将添加标记后的语句输入到步骤2中第一层神经网络中,在第12层后得到语句X的隐含向量HiddenState,表示为h=(h0,h1,h2,h3…,hm)其中h0表示<CLS>标位置的向量;
步骤4:将HiddenState向量进行再注意操作;
步骤5:将步骤4中计算得到的最终向量c送入softmax分类器,得到分类结果的概率;
所述隐含向量中包含有指示预设标记位置的位置向量,隐含向量中的某个子向量的权重根据此向量与位置向量的得分计算得到;利用再注意力层对隐含向量进行再注意操作,得到最终加权之后的向量,将加权后的向量与位置向量相加后输入到softmax分类器中,得到分类结果的概率;隐含向量中的每个子向量代表一个字符或者一个单词,每个字符或者单词对应一个权重,各个字符或单词的加权和为经过再注意力机制之后得到的最终向量。
6.一种计算机可读存储介质,其上存储有程序,其特征在于,该程序被处理器执行时实现如权利要求1-4任一项所述的基于再注意力机制的文本情绪分类方法中的步骤。
7.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的程序,其特征在于,所述处理器执行所述程序时实现如权利要求1-4任一项所述的基于再注意力机制的文本情绪分类方法中的步骤。
CN202110281949.3A 2021-03-16 2021-03-16 基于再注意力机制的文本情绪分类方法及系统 Active CN112905796B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110281949.3A CN112905796B (zh) 2021-03-16 2021-03-16 基于再注意力机制的文本情绪分类方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110281949.3A CN112905796B (zh) 2021-03-16 2021-03-16 基于再注意力机制的文本情绪分类方法及系统

Publications (2)

Publication Number Publication Date
CN112905796A CN112905796A (zh) 2021-06-04
CN112905796B true CN112905796B (zh) 2023-04-18

Family

ID=76105280

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110281949.3A Active CN112905796B (zh) 2021-03-16 2021-03-16 基于再注意力机制的文本情绪分类方法及系统

Country Status (1)

Country Link
CN (1) CN112905796B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116089619B (zh) * 2023-04-06 2023-06-06 华南师范大学 情感分类方法、装置、设备以及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109472024A (zh) * 2018-10-25 2019-03-15 安徽工业大学 一种基于双向循环注意力神经网络的文本分类方法
CN109902175A (zh) * 2019-02-20 2019-06-18 上海方立数码科技有限公司 一种基于神经网络结构模型的文本分类方法及分类系统
CN110008339A (zh) * 2019-03-22 2019-07-12 武汉大学 一种用于目标情感分类的深度记忆网络模型及其分类方法
CN110334210A (zh) * 2019-05-30 2019-10-15 哈尔滨理工大学 一种基于bert与lstm、cnn融合的中文情感分析方法
CN111522908A (zh) * 2020-04-09 2020-08-11 国网上海市电力公司 一种基于BiGRU和注意力机制的多标签文本分类方法
CN111881260A (zh) * 2020-07-31 2020-11-03 安徽农业大学 基于方面注意力和卷积记忆神经网络情感分析方法及装置
CN111985205A (zh) * 2020-08-05 2020-11-24 重庆大学 一种方面级情感分类模型
CN112328797A (zh) * 2020-11-24 2021-02-05 山东师范大学 一种基于神经网络和注意力机制的情感分类方法及系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11010560B2 (en) * 2018-11-08 2021-05-18 International Business Machines Corporation Multi-resolution convolutional neural networks for sequence modeling

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109472024A (zh) * 2018-10-25 2019-03-15 安徽工业大学 一种基于双向循环注意力神经网络的文本分类方法
CN109902175A (zh) * 2019-02-20 2019-06-18 上海方立数码科技有限公司 一种基于神经网络结构模型的文本分类方法及分类系统
CN110008339A (zh) * 2019-03-22 2019-07-12 武汉大学 一种用于目标情感分类的深度记忆网络模型及其分类方法
CN110334210A (zh) * 2019-05-30 2019-10-15 哈尔滨理工大学 一种基于bert与lstm、cnn融合的中文情感分析方法
CN111522908A (zh) * 2020-04-09 2020-08-11 国网上海市电力公司 一种基于BiGRU和注意力机制的多标签文本分类方法
CN111881260A (zh) * 2020-07-31 2020-11-03 安徽农业大学 基于方面注意力和卷积记忆神经网络情感分析方法及装置
CN111985205A (zh) * 2020-08-05 2020-11-24 重庆大学 一种方面级情感分类模型
CN112328797A (zh) * 2020-11-24 2021-02-05 山东师范大学 一种基于神经网络和注意力机制的情感分类方法及系统

Also Published As

Publication number Publication date
CN112905796A (zh) 2021-06-04

Similar Documents

Publication Publication Date Title
Williams et al. A broad-coverage challenge corpus for sentence understanding through inference
CN106503192B (zh) 基于人工智能的命名实体识别方法及装置
KR101715118B1 (ko) 문서 감정 분류용 딥러닝 인코딩 장치 및 방법.
CN111310476B (zh) 一种使用基于方面的情感分析方法的舆情监控方法和系统
CN110222178A (zh) 文本情感分类方法、装置、电子设备及可读存储介质
CN106776538A (zh) 企业非标准格式文档的信息提取方法
CN107180084A (zh) 词库更新方法及装置
Ezen-Can et al. Unsupervised classification of student dialogue acts with query-likelihood clustering
CN110851593B (zh) 一种基于位置与语义的复值词向量构建方法
Wu et al. Bnu-hkbu uic nlp team 2 at semeval-2019 task 6: Detecting offensive language using bert model
CN112287100A (zh) 文本识别方法、拼写纠错方法及语音识别方法
CN109472022A (zh) 基于机器学习的新词识别方法及终端设备
CN112905796B (zh) 基于再注意力机制的文本情绪分类方法及系统
Baloglu et al. Assessment of supervised learning algorithms for irony detection in online social media
Fernández et al. Approaches to the Profiling Fake News Spreaders on Twitter Task in English and Spanish.
CN111159405B (zh) 基于背景知识的讽刺检测方法
CN111930937A (zh) 基于bert的智慧政务文本多分类方法及系统
CN110222181B (zh) 一种基于Python的影评情感分析方法
CN116070620A (zh) 一种基于大数据的信息处理方法及系统
CN115906824A (zh) 一种文本细粒度情感分析方法、系统、介质和计算设备
Mahafdah et al. Arabic Part of speech Tagging using k-Nearest Neighbour and Naive Bayes Classifiers Combination.
Li et al. Multilingual toxic text classification model based on deep learning
Sarma et al. Word level language identification in Assamese-Bengali-Hindi-English code-mixed social media text
Majumder et al. Event extraction from biomedical text using crf and genetic algorithm
CN114443846A (zh) 一种基于多层级文本异构图的分类方法、装置及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address

Address after: Floor 12, Building 3, Shuntai Plaza, No. 2000 Shunhua Road, High tech Industrial Development Zone, Jinan City, Shandong Province, 250101

Patentee after: SHANDONG ECLOUD INFORMATION TECHNOLOGY CO.,LTD.

Country or region after: China

Address before: 250014 3rd floor, block B, Yinhe building, 2008 Xinluo street, high tech Zone, Jinan City, Shandong Province

Patentee before: SHANDONG ECLOUD INFORMATION TECHNOLOGY CO.,LTD.

Country or region before: China