CN112214601B - 一种社交短文本情感分类方法、装置及存储介质 - Google Patents
一种社交短文本情感分类方法、装置及存储介质 Download PDFInfo
- Publication number
- CN112214601B CN112214601B CN202011131358.XA CN202011131358A CN112214601B CN 112214601 B CN112214601 B CN 112214601B CN 202011131358 A CN202011131358 A CN 202011131358A CN 112214601 B CN112214601 B CN 112214601B
- Authority
- CN
- China
- Prior art keywords
- vector
- text
- word
- emotion
- short text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 239000013598 vector Substances 0.000 claims abstract description 323
- 238000011176 pooling Methods 0.000 claims abstract description 41
- 238000012549 training Methods 0.000 claims abstract description 32
- 230000008451 emotion Effects 0.000 claims description 78
- 230000002996 emotional effect Effects 0.000 claims description 28
- 238000013527 convolutional neural network Methods 0.000 claims description 24
- 238000004364 calculation method Methods 0.000 claims description 18
- 238000012545 processing Methods 0.000 claims description 15
- 230000006870 function Effects 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 10
- 238000004140 cleaning Methods 0.000 claims description 4
- 238000007781 pre-processing Methods 0.000 claims description 4
- 230000011218 segmentation Effects 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000012546 transfer Methods 0.000 claims description 3
- 230000006855 networking Effects 0.000 claims 1
- 238000010606 normalization Methods 0.000 claims 1
- 238000004458 analytical method Methods 0.000 abstract description 8
- 238000013528 artificial neural network Methods 0.000 abstract description 7
- 235000019580 granularity Nutrition 0.000 abstract description 5
- 230000000306 recurrent effect Effects 0.000 abstract description 4
- 238000005065 mining Methods 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008909 emotion recognition Effects 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000003997 social interaction Effects 0.000 description 1
- 239000009853 xinfeng Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/355—Class or cluster creation or modification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Data Mining & Analysis (AREA)
- Business, Economics & Management (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Databases & Information Systems (AREA)
- Economics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种社交短文本情感分类方法、装置及存储介质,在自动分析和挖掘社交短文本的情感倾向时,先获取用户发表的文本,再抽取计算文本上下文情感特征值和先验极性情感特征值,使用Word2Vec等预训练词向量模型训练生成文本词向量表示,利用多窗口卷积操作,获取不同粒度的文本语义关系,使用多头自注意力网络,有效捕获和记忆文本较长距离上下文语义信息,同时避免循环神经网络无法并行计算的问题,多层卷积和池化组合从不同层次抽象文本情感语义表示,最后组合不同层次的情感特征向量表示,能够更加全面和多样的描述文本所包含的显式和隐式的情感语义特征,从而提高短文情感极性分析的性能。
Description
技术领域
本发明涉及自然语言处理领域,具体涉及一种社交短文本情感分类方法、装置及存储介质。
背景技术
以微博,Twitter,微信为代表的新兴社交媒体已经成为广大网络用户获取新闻资讯、社会交往、自我表达、分享观点、传播信息和社会参与的重要媒介,成为社会公共舆论、企业品牌和产品推广以及传统媒体传播的主要平台。截止2020年一季度,全球微博服务站点Twitter可货币化月活跃用户达到1.2亿,中文微博平台新浪微博月度活跃用户数达到5.5亿。数以亿计的活跃用户每时每刻都在生成大量包含用户主观意见、情感的信息。这些文本信息包含着网民各种情绪、情感色彩和观点倾向。潜在用户通过阅读这些具有主观色彩的信息来了解大众舆论对于某一事件或产品的看法。针对特定应用需求,识别、分析和挖掘微博中所包含的有价值的用户情感、态度和意见信息,是当前互联网智能信息处理、数据挖掘、计算语言学等领域的一个热点研究问题,在政府管理、企业品牌和产品营销、消费者个体利益等方面均具有极其重要的意义。
以微博、微信为代表的社交文本内容一般比较短小、语言表达比较随意,口语化现象严重,这些短小且不完整的文本表达使得传统文本情感分析技术面临更大的挑战。已有采用人工方式构建分类特征和传统机器学习的方法难以适应,很多深度学习方法也面临隐含语义特征刻画描述不完整、文本较远距离上下文语义难以描述,识别分类效果不佳,利用循环神经网络结构方法虽然能够表达较远上下文语义,但是存在网络结构复杂,计算速度慢,无法并行计算的问题。
有鉴于此,建立一种创新的社交短文本情感分类方法和装置是非常具有意义的。
发明内容
针对上述提到的已有短文本分类方法面临远距离上下文语义描述困难和循环神经网络结构方法计算速度慢,无法并行计算等问题。本申请的实施例的目的在于提出了一种社交短文本情感分类方法、装置及存储介质来解决以上背景技术部分提到的技术问题。
第一方面,本申请的实施例提供了一种社交短文本情感分类方法,包括以下步骤:
S1:获取社交短文本t,并对社交短文本进行预处理后计算每一条社交短文本的先验情感特征值SenScore(t);
S2:通过预训练词向量模型对社交短文本进行训练得到词向量t,将词向量t输入卷积网络层,分别计算生成文本语义的局部特征向量,将局部特征向量连接形成上下文情感信息特征向量ct,通过Doc2vec模型对词向量t训练得到句子级特征向量td,将下文情感信息特征向量和句子级特征向量连接形成第一连接向量将第一连接向量输入深度卷积神经网络输出第一固定长度向量o';
S3:将词向量t和表示聊天文本中每个单词位置的位置向量q组合形成第一联合词向量Z=q+t,将第一联合词向量Z通过l头自注意力网络MHSA,训练生成包含情感词语重要性权重的文本向量,连接l个文本向量形成包含文本重要性的特征词向量H,将第一联合词向量Z与特征词向量H连接并做归一化得到第二联合词向量将第二联合词向量Z'输入深度卷积神经网络的池化层,使用最大池化策略,得到第二固定长度向量u=maxpool(Z');
S5:对输出向量y使用softmax函数计算社交短文本所属类别的概率值,将概率值最大的类别作为社交短文本的情感标记。
在一些实施例中,步骤S1具体包括:
S11:对社交短文本进行清洗,删除社交短文本中非文本字符、超链接、数字、一般标点符号和特殊符号,并对社交短文本进行分词处理;
S12:抽取社交短文本中的表情符号、重复标点符号和英文大写单词数量作为短文本上下文情感特征tc;以及
S13:计算每一条社交短文本的先验极性特征值SenScore(t)。
计算短文本的先验极性特征值SenScore(t),后续进行情感分类时考虑该因子,可提高分类的准确性。
在一些实施例中,通过下式计算先验极性特征值SenScore(t):
其中wi为社交短文本中的单词项,n为社交短文本的长度,PMI(wi,pos)是单词项wi与正向情感分类的点互信息PMI,PMI(wi,neg)是单词项wi与负向情感分类的点互信息PMI,单词wi的情感值由情感字典获得。
在一些实施例中,步骤S2中的卷积网络层使用多个可变窗口大小h的卷积核,分别计算生成局部特征向量xi=f(W·ti:i+h-1+b),其中W为卷积网络层的权重参数,b为网络层的偏置,i:i+h-1为卷积网络层的卷积核范围。利用多窗口卷积操作,获取不同粒度的文本语义关系。
在一些实施例中,步骤S2中将第一连接向量输入深度卷积神经网络输出第一固定长度向量具体包括:
S21:将第一连接向量输入深度卷积神经网络的池化层,使用Top-K池化策略,得到池化输出向量o=k max{ct};
S22:将池化输出向量o作为特征输入卷积层进行卷积操作,将卷积操作得到的输出向量再进行Top-K池化操作,经过多个卷积层和池化层的组合网络层,最后一层使用最大化池化操作输出第一固定长度向量o'。
多层卷积和池化组合从不同层次抽象文本情感语义表示,最后组合不同层次的情感特征向量表示,能够更加全面和多样的描述文本所包含的显式和隐式的情感语义特征,从而提高短文情感极性分析的性能。
在一些实施例中,步骤S3中第一联合词向量Z通过l头自注意力网络MHSA,训练生成包含情感词语重要性权重的文本向量具体包括:
使用多头自注意力网络,有效捕获和记忆文本较长距离上下文语义信息,同时避免循环神经网络无法并行计算的问题。
在一些实施例中,步骤S4中输出向量y=WOt+b,其中W为输出层的转移矩阵,b为输出层的偏置系数。
在一些实施例中,步骤S5中通过下式计算概率值:
其中,θ表示要分类学习的参数,ys表示输出向量y的第s个分量,yg表示输出向量y的第g个分量。
第二方面,本申请的实施例还提出一种社交短文本情感分类装置,包括:
先验情感特征值计算模块,被配置为获取社交短文本t,并对社交短文本进行预处理后计算每一条社交短文本的先验情感特征值SenScore(t);
第一固定长度向量计算模块,被配置为通过预训练词向量模型对社交短文本进行训练得到词向量t,将词向量t输入卷积网络层,分别计算生成文本语义的局部特征向量,将局部特征向量连接形成上下文情感信息特征向量ct,通过Doc2vec模型对词向量t训练得到句子级特征向量td,将下文情感信息特征向量和句子级特征向量连接形成第一连接向量将第一连接向量输入深度卷积神经网络输出第一固定长度向量o';
第二固定长度向量计算模块,被配置为将词向量t和表示聊天文本中每个单词位置的位置向量q组合形成第一联合词向量Z=q+t,将第一联合词向量Z通过l头自注意力网络MHSA,训练生成包含情感词语重要性权重的文本向量,连接l个文本向量形成包含文本重要性的特征词向量H,将第一联合词向量Z与特征词向量H连接并做归一化得到第二联合词向量将第二联合词向量Z'输入深度卷积神经网络的池化层,使用最大池化策略,得到第二固定长度向量u=maxpool(Z');
情感分类模块,被配置为对输出向量y使用softmax函数计算社交短文本所属类别的概率值,将概率值最大的类别作为社交短文本的情感标记。
第三方面,本申请实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面中任一实现方式描述的方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面中任一实现方式描述的方法。
本发明提出一种社交短文本情感分类方法、装置及存储介质,在自动分析和挖掘社交短文本的情感倾向时,先获取用户发表的文本,再抽取计算文本上下文情感特征值和先验极性情感特征值,使用Word2Vec等预训练词向量模型训练生成文本词向量表示,利用多窗口卷积操作,获取不同粒度的文本语义关系,使用多头自注意力网络,有效捕获和记忆文本较长距离上下文语义信息,同时避免循环神经网络无法并行计算的问题,多层卷积和池化组合从不同层次抽象文本情感语义表示,最后组合不同层次的情感特征向量表示,能够更加全面和多样的描述文本所包含的显式和隐式的情感语义特征,从而提高短文情感极性分析的性能。本申请使用固定长度的词向量表示,避免维数灾难和数据稀疏问题,利用深度卷积网络和注意力机制,描述多层次文本隐含语义,可以有效提升短文本情感分析的性能。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简要介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请的一个实施例可以应用于其中的示例性装置架构图;
图2为本发明的实施例的一种社交短文本情感分类方法的流程示意图;
图3为本发明的实施例的一种社交短文本情感分类方法的步骤S1的流程示意图;
图4为本发明的实施例的一种社交短文本情感分类方法的步骤S2中将第一连接向量输入深度卷积神经网络输出第一固定长度向量的流程示意图;
图5为本发明的实施例的一种社交短文本情感分类方法的数据传输及网络结构的示意图;
图6为本发明的实施例的一种社交短文本情感分类装置的示意图;
图7是适于用来实现本申请实施例的电子设备的计算机装置的结构示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步地详细描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
图1示出了可以应用本申请实施例的社交短文本情感分类方法或社交短文本情感分类装置的示例性装置架构100。
如图1所示,装置架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种应用,例如数据处理类应用、文件处理类应用等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务的软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上传的文件或数据进行处理的后台数据处理服务器。后台数据处理服务器可以对获取的文件或数据进行处理,生成处理结果。
需要说明的是,本申请实施例所提供的社交短文本情感分类方法可以由服务器105执行,也可以由终端设备101、102、103执行,相应地,社交短文本情感分类装置可以设置于服务器105中,也可以设置于终端设备101、102、103中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。在所处理的数据不需要从远程获取的情况下,上述装置架构可以不包括网络,而只需服务器或终端设备。
本发明所述社交短文本主要是指以微博、Twitter、微信、QQ等为代表的社交媒体工具产生的篇幅较短的文本,一般不超过200个字符。情感分类包括情感的几种状态,包括支持、中立、反对或对这几种的细化情感。以下实施例以微博为例。
图2示出了本申请的实施例公开的一种社交短文本情感分类方法,包括以下步骤:
S1:获取社交短文本t,并对社交短文本进行预处理后计算每一条社交短文本的先验情感特征值SenScore(t);
S2:通过预训练词向量模型对社交短文本进行训练得到词向量t,将词向量t输入卷积网络层,分别计算生成文本语义的局部特征向量,将局部特征向量连接形成上下文情感信息特征向量ct,通过Doc2vec模型对词向量t训练得到句子级特征向量td,将下文情感信息特征向量和句子级特征向量连接形成第一连接向量将第一连接向量输入深度卷积神经网络输出第一固定长度向量o';
S3:将词向量t和表示聊天文本中每个单词位置的位置向量q组合形成第一联合词向量Z=q+t,将第一联合词向量Z通过l头自注意力网络MHSA,训练生成包含情感词语重要性权重的文本向量,连接l个文本向量形成包含文本重要性的特征词向量H,将第一联合词向量Z与特征词向量H连接并做归一化得到第二联合词向量将第二联合词向量Z'输入深度卷积神经网络的池化层,使用最大池化策略,得到第二固定长度向量u=maxpool(Z');
S5:对输出向量y使用softmax函数计算社交短文本所属类别的概率值,将概率值最大的类别作为社交短文本的情感标记。
在具体的实施例中,如图3所示,步骤S1具体包括:
S11:对社交短文本进行清洗,删除社交短文本中非文本字符、超链接、数字、一般标点符号和特殊符号,并对社交短文本进行分词处理;
S12:抽取社交短文本中的表情符号、重复标点符号和英文大写单词数量作为短文本上下文情感特征tc;以及
S13:计算每一条社交短文本的先验极性特征值SenScore(t)。
在对微博文本进行抽取操作之前,可以使用编写好的用于获取微博文本的程序,通过官方提供的API接口获取真实的微博文本内容;然后清洗微博文本内容,一般包括删除微博中非文本字符信息、超链接、数字、一般标点符号和特殊符号等内容。这是因为微博内容由于表达形式多样,包含大量特殊符号、超链接和非文本字符以及不包含情感特征的内容,再进一步对文本进行处理前,删除这些信息,降低文本处理的词汇表空间,减少数据噪声信息。对中文微博进行分词操作。
微博中的表情符号是一种显式的情感表达形式,利用表情符号表,转换表情符号为对应的情感值。英文微博文本中大写方式的单词是一种突出强调的表现,统计微博中大写单词数量作为情感特征的一项。微博中标点符号的重复是一种情绪或态度的突出强调,抽取这种重复标点符号的出现作为情感特征项。
微博观点倾向的表达体现在显式的微博词语的情感倾向和隐含在词语之间的语义关系中。计算微博词语所具有的情感特征值,作为显式情感倾向表达的特征。即本发明的方法中先计算一个先验极性特征值SenScore(t),后续进行情感识别时考虑该因子,这是本发明的重要发明点之一。
在具体的实施例中,通过下式计算先验极性特征值SenScore(t):
其中wi为社交短文本中的单词项,n为社交短文本的长度,PMI(wi,pos)是单词项wi与正向情感分类的点互信息PMI,PMI(wi,neg)是单词项wi与负向情感分类的点互信息PMI,单词wi的情感值由情感字典获得。
在步骤S2中通过预训练词向量模型训练生成词向量表示,解决了文本向量表示维数爆炸和数据稀疏的问题。在优选的实施例中,预训练词向量模型包括Word2Vec、GloVe、BERT等,训练聊天文本语料,获得聊天文本词的词向量表L∈Rl×|V|(l是词向量的维度,V是语料库的规模)。计算获得每条文本t的分布式词向量表示t=[w1,w2,...,wn],其中每个词语(单词)w都被映射为一个向量wi∈Rl。
在具体的实施例中,步骤S2中将词向量t输入卷积网络层,其中卷积网络层使用多个可变窗口大小h的卷积核,分别计算生成局部特征向量xi=f(W·ti:i+h-1+b),其中W为卷积网络层的权重参数,b为网络层的偏置,i:i+h-1为卷积网络层的卷积核范围。将局部特征向量连接形成上下文情感信息特征向量利用多窗口卷积操作,获取不同粒度的文本语义关系。
在具体的实施例中,如图4所示,步骤S2中将第一连接向量输入深度卷积神经网络输出第一固定长度向量具体包括:
S21:将第一连接向量输入深度卷积神经网络的池化层,使用Top-K池化策略,得到池化输出向量o=k max{ct};
S22:将池化输出向量o作为特征输入卷积层进行卷积操作,将卷积操作得到的输出向量再进行Top-K池化操作,经过多个卷积层和池化层的组合网络层,最后一层使用最大化池化操作输出第一固定长度向量o'。
多层卷积和池化组合从不同层次抽象文本情感语义表示,最后组合不同层次的情感特征向量表示,能够更加全面和多样的描述文本所包含的显式和隐式的情感语义特征,从而提高短文情感极性分析的性能。
将待分析的短文本分布式词向量表示t和短文本中单词位置表示向量q=[q1,q2,...,qn]组合,其中qi∈Rl,形成包含单词位置信息的向量Z=q+t。
在具体的实施例中,步骤S3中第一联合词向量Z通过l头自注意力网络MHSA,训练生成包含情感词语重要性权重的文本向量具体包括:
在具体的实施例中,步骤S4中输出向量y=WOt+b,其中W为输出层的转移矩阵,b为输出层的偏置系数。以上数据传输及网络结构如图5所示。
在具体的实施例中,步骤S5中通过下式计算概率值:
其中,θ表示要分类学习的参数,ys表示输出向量y的第s个分量,yg表示输出向量y的第g个分量。
进一步参考图6,作为对上述各图所示方法的实现,本申请提供了一种社交短文本情感分类装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
本申请的实施例还提出一种社交短文本情感分类装置,包括:
先验情感特征值计算模块1,被配置为获取社交短文本t,并对社交短文本进行预处理后计算每一条社交短文本的先验情感特征值SenScore(t);
第一固定长度向量计算模块2,被配置为通过预训练词向量模型对社交短文本进行训练得到词向量t,将词向量t输入卷积网络层,分别计算生成文本语义的局部特征向量,将局部特征向量连接形成上下文情感信息特征向量ct,通过Doc2vec模型对词向量t训练得到句子级特征向量td,将下文情感信息特征向量和句子级特征向量连接形成第一连接向量将第一连接向量输入深度卷积神经网络输出第一固定长度向量o';
第二固定长度向量计算模块3,被配置为将词向量t和表示聊天文本中每个单词位置的位置向量q组合形成第一联合词向量Z=q+t,将第一联合词向量Z通过l头自注意力网络MHSA,训练生成包含情感词语重要性权重的文本向量,连接l个文本向量形成包含文本重要性的特征词向量H,将第一联合词向量Z与特征词向量H连接并做归一化得到第二联合词向量将第二联合词向量Z'输入深度卷积神经网络的池化层,使用最大池化策略,得到第二固定长度向量u=maxpool(Z');
情感分类模块5,被配置为对输出向量y使用softmax函数计算社交短文本所属类别的概率值,将概率值最大的类别作为社交短文本的情感标记。
本发明提出一种社交短文本情感分类方法、装置及存储介质,在自动分析和挖掘社交短文本的情感倾向时,先获取用户发表的文本,再抽取计算文本上下文情感特征值和先验极性情感特征值,使用Word2Vec等预训练词向量模型训练生成文本词向量表示,利用多窗口卷积操作,获取不同粒度的文本语义关系,使用多头自注意力网络,有效捕获和记忆文本较长距离上下文语义信息,同时避免循环神经网络无法并行计算的问题,多层卷积和池化组合从不同层次抽象文本情感语义表示,最后组合不同层次的情感特征向量表示,能够更加全面和多样的描述文本所包含的显式和隐式的情感语义特征,从而提高短文情感极性分析的性能。本申请使用固定长度的词向量表示,避免维数灾难和数据稀疏问题,利用深度卷积网络和注意力机制,描述多层次文本隐含语义,可以有效提升短文本情感分析的性能。
下面参考图7,其示出了适于用来实现本申请实施例的电子设备(例如图1所示的服务器或终端设备)的计算机装置700的结构示意图。图7示出的电子设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图7所示,计算机装置700包括中央处理单元(CPU)701和图形处理器(GPU)702,其可以根据存储在只读存储器(ROM)703中的程序或者从存储部分709加载到随机访问存储器(RAM)704中的程序而执行各种适当的动作和处理。在RAM 704中,还存储有装置700操作所需的各种程序和数据。CPU 701、GPU702、ROM 703以及RAM 704通过总线705彼此相连。输入/输出(I/O)接口706也连接至总线705。
以下部件连接至I/O接口706:包括键盘、鼠标等的输入部分707;包括诸如、液晶显示器(LCD)等以及扬声器等的输出部分708;包括硬盘等的存储部分709;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分710。通信部分710经由诸如因特网的网络执行通信处理。驱动器711也可以根据需要连接至I/O接口706。可拆卸介质712,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器711上,以便于从其上读出的计算机程序根据需要被安装入存储部分709。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分710从网络上被下载和安装,和/或从可拆卸介质712被安装。在该计算机程序被中央处理单元(CPU)701和图形处理器(GPU)702执行时,执行本申请的方法中限定的上述功能。
需要说明的是,本申请所述的计算机可读介质可以是计算机可读信号介质或者计算机可读介质或者是上述两者的任意组合。计算机可读介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的装置、装置或器件,或者任意以上的组合。计算机可读介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行装置、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行装置、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请的操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本申请各种实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的装置来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的模块也可以设置在处理器中。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取社交短文本t,并对社交短文本进行预处理后计算每一条社交短文本的先验情感特征值SenScore(t);通过预训练词向量模型对社交短文本进行训练得到词向量t,将词向量t输入卷积网络层,分别计算生成文本语义的局部特征向量,将局部特征向量连接形成上下文情感信息特征向量ct,通过Doc2vec模型对词向量t训练得到句子级特征向量td,将下文情感信息特征向量和句子级特征向量连接形成第一连接向量将第一连接向量输入深度卷积神经网络输出第一固定长度向量o';将词向量t和表示聊天文本中每个单词位置的位置向量q组合形成第一联合词向量Z=q+t,将第一联合词向量Z通过l头自注意力网络MHSA,训练生成包含情感词语重要性权重的文本向量,连接l个文本向量形成包含文本重要性的特征词向量H,将第一联合词向量Z与特征词向量H连接并做归一化得到第二联合词向量将第二联合词向量Z'输入深度卷积神经网络的池化层,使用最大池化策略,得到第二固定长度向量u=maxpool(Z');S4:将先验情感特征值、第一固定长度向量与第二固定长度向量连接得到多层次文本情感特征向量将多层次文本情感特征向量输入全连接网络层计算输出向量y;S5:对输出向量y使用softmax函数计算社交短文本所属类别的概率值,将概率值最大的类别作为社交短文本的情感标记。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (9)
1.一种社交短文本情感分类方法,其特征在于,包括以下步骤:
S1:获取社交短文本t,并对所述社交短文本进行预处理后计算每一条社交短文本的先验情感特征值SenScore(t);
S2:通过预训练词向量模型对所述社交短文本进行训练得到词向量t,将所述词向量t输入卷积网络层,分别计算生成文本语义的局部特征向量,将所述局部特征向量连接形成上下文情感信息特征向量ct,通过Doc2vec模型对所述词向量t训练得到句子级特征向量td,将所述上 下文情感信息特征向量和所述句子级特征向量连接形成第一连接向量将所述第一连接向量输入深度卷积神经网络输出第一固定长度向量o';
步骤S2中将所述第一连接向量输入深度卷积神经网络输出第一固定长度向量具体包括:
S21:将所述第一连接向量输入所述深度卷积神经网络的池化层,使用Top-K池化策略,得到池化输出向量o=k max{ct};
S22:将所述池化输出向量o作为特征输入卷积层进行卷积操作,将卷积操作得到的输出向量再进行Top-K池化操作,经过多个所述卷积层和所述池化层的组合网络层,最后一层使用最大化池化操作输出第一固定长度向量o';
S3:将所述词向量t和表示聊天文本中每个单词位置的位置向量q组合形成第一联合词向量Z=q+t,将所述第一联合词向量Z通过多头自注意力网络MHSA,训练生成包含情感词语重要性权重的文本向量,连接l个所述文本向量形成包含文本重要性的特征词向量H,将所述第一联合词向量Z与所述特征词向量H连接并做归一化得到第二联合词向量将所述第二联合词向量Z'输入深度卷积神经网络的池化层,使用最大池化策略,得到第二固定长度向量u=maxpool(Z');
步骤S3中所述第一联合词向量Z通过多头自注意力网络MHSA,训练生成包含情感词语重要性权重的文本向量具体包括:
其中Wi K,Wi V,Wi Q,Wi O为自注意力网络学习的参数,d为向量Qi的维度;
S5:对所述输出向量y使用softmax函数计算所述社交短文本所属类别的概率值,将概率值最大的类别作为所述社交短文本的情感标记。
2.根据权利要求1所述的社交短文本情感分类方法,其特征在于,步骤S1具体包括:
S11:对所述社交短文本进行清洗,删除所述社交短文本中非文本字符、超链接、数字、一般标点符号和特殊符号,并对所述社交短文本进行分词处理;
S12:抽取所述社交短文本中的表情符号、重复标点符号和英文大写单词数量作为短文本上下文情感特征tc;以及
S13:计算每一条所述社交短文本的先验极性特征值SenScore(t)。
4.根据权利要求1所述的社交短文本情感分类方法,其特征在于,步骤S2中的所述卷积网络层使用多个可变窗口大小h的卷积核,分别计算生成所述局部特征向量xi=f(W·ti:i+h-1+b),其中W为所述卷积网络层的权重参数,b为网络层的偏置,i:i+h-1为所述卷积网络层的卷积核范围。
5.根据权利要求1所述的社交短文本情感分类方法,其特征在于,步骤S4中输出向量y=WOt+b,其中W为输出层的转移矩阵,b为输出层的偏置系数。
7.一种社交短文本情感分类装置,其特征在于,包括:
先验情感特征值计算模块,被配置为获取社交短文本t,并对所述社交短文本进行预处理后计算每一条社交短文本的先验情感特征值SenScore(t);
第一固定长度向量计算模块,被配置为通过预训练词向量模型对所述社交短文本进行训练得到词向量t,将所述词向量t输入卷积网络层,分别计算生成文本语义的局部特征向量,将所述局部特征向量连接形成上下文情感信息特征向量ct,通过Doc2vec模型对所述词向量t训练得到句子级特征向量td,将所述上 下文情感信息特征向量和所述句子级特征向量连接形成第一连接向量将所述第一连接向量输入深度卷积神经网络输出第一固定长度向量o';
其中,将所述第一连接向量输入深度卷积神经网络输出第一固定长度向量具体包括:
将所述第一连接向量输入所述深度卷积神经网络的池化层,使用Top-K池化策略,得到池化输出向量o=kmax{ct};
将所述池化输出向量o作为特征输入卷积层进行卷积操作,将卷积操作得到的输出向量再进行Top-K池化操作,经过多个所述卷积层和所述池化层的组合网络层,最后一层使用最大化池化操作输出第一固定长度向量o';
第二固定长度向量计算模块,被配置为将所述词向量t和表示聊天文本中每个单词位置的位置向量q组合形成第一联合词向量Z=q+t,将所述第一联合词向量Z通过多头自注意力网络MHSA,训练生成包含情感词语重要性权重的文本向量,连接l个所述文本向量形成包含文本重要性的特征词向量H,将所述第一联合词向量Z与所述特征词向量H连接并做归一化得到第二联合词向量将所述第二联合词向量Z'输入深度卷积神经网络的池化层,使用最大池化策略,得到第二固定长度向量u=maxpool(Z');
其中,所述第一联合词向量Z通过多头自注意力网络MHSA,训练生成包含情感词语重要性权重的文本向量具体包括:
其中Wi K,Wi V,Wi Q,Wi O为自注意力网络学习的参数,d为向量Qi的维度;输出向量计算模块,被配置为将所述先验情感特征值、所述第一固定长度向量与所述第二固定长度向量连接得到多层次文本情感特征向量将所述多层次文本情感特征向量输入全连接网络层计算输出向量y;
情感分类模块,被配置为对所述输出向量y使用softmax函数计算所述社交短文本所属类别的概率值,将概率值最大的类别作为所述社交短文本的情感标记。
8.一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-6中任一所述的方法。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-6中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011131358.XA CN112214601B (zh) | 2020-10-21 | 2020-10-21 | 一种社交短文本情感分类方法、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011131358.XA CN112214601B (zh) | 2020-10-21 | 2020-10-21 | 一种社交短文本情感分类方法、装置及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112214601A CN112214601A (zh) | 2021-01-12 |
CN112214601B true CN112214601B (zh) | 2022-06-10 |
Family
ID=74056279
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011131358.XA Active CN112214601B (zh) | 2020-10-21 | 2020-10-21 | 一种社交短文本情感分类方法、装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112214601B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112883721B (zh) * | 2021-01-14 | 2024-01-19 | 科技日报社 | 基于bert预训练模型的新词识别方法和装置 |
CN112905795A (zh) * | 2021-03-11 | 2021-06-04 | 证通股份有限公司 | 文本意图分类的方法、装置和可读介质 |
CN113177163B (zh) * | 2021-04-28 | 2022-08-02 | 烟台中科网络技术研究所 | 用于社交动态信息情感分析的方法、系统和存储介质 |
CN113254648B (zh) * | 2021-06-22 | 2021-10-22 | 暨南大学 | 一种基于多层次图池化的文本情感分析方法 |
CN113868419B (zh) * | 2021-09-29 | 2024-05-31 | 中国平安财产保险股份有限公司 | 基于人工智能的文本分类方法、装置、设备及介质 |
CN115906863B (zh) * | 2022-10-25 | 2023-09-12 | 华南师范大学 | 基于对比学习的情感分析方法、装置、设备以及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108595440A (zh) * | 2018-05-11 | 2018-09-28 | 厦门市美亚柏科信息股份有限公司 | 短文本内容分类方法和系统 |
CN109710761A (zh) * | 2018-12-21 | 2019-05-03 | 中国标准化研究院 | 基于注意力增强的双向lstm模型的情感分析方法 |
CN109815485A (zh) * | 2018-12-24 | 2019-05-28 | 厦门市美亚柏科信息股份有限公司 | 一种微博短文本情感极性识别的方法、装置及存储介质 |
CN110110323A (zh) * | 2019-04-10 | 2019-08-09 | 北京明略软件系统有限公司 | 一种文本情感分类方法和装置、计算机可读存储介质 |
CN110826336A (zh) * | 2019-09-18 | 2020-02-21 | 华南师范大学 | 一种情感分类方法、系统、存储介质及设备 |
CN111259142A (zh) * | 2020-01-14 | 2020-06-09 | 华南师范大学 | 基于注意力编码和图卷积网络的特定目标情感分类方法 |
CN111581966A (zh) * | 2020-04-30 | 2020-08-25 | 华南师范大学 | 一种融合上下文特征方面级情感分类方法和装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11010559B2 (en) * | 2018-08-30 | 2021-05-18 | International Business Machines Corporation | Multi-aspect sentiment analysis by collaborative attention allocation |
-
2020
- 2020-10-21 CN CN202011131358.XA patent/CN112214601B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108595440A (zh) * | 2018-05-11 | 2018-09-28 | 厦门市美亚柏科信息股份有限公司 | 短文本内容分类方法和系统 |
CN109710761A (zh) * | 2018-12-21 | 2019-05-03 | 中国标准化研究院 | 基于注意力增强的双向lstm模型的情感分析方法 |
CN109815485A (zh) * | 2018-12-24 | 2019-05-28 | 厦门市美亚柏科信息股份有限公司 | 一种微博短文本情感极性识别的方法、装置及存储介质 |
CN110110323A (zh) * | 2019-04-10 | 2019-08-09 | 北京明略软件系统有限公司 | 一种文本情感分类方法和装置、计算机可读存储介质 |
CN110826336A (zh) * | 2019-09-18 | 2020-02-21 | 华南师范大学 | 一种情感分类方法、系统、存储介质及设备 |
CN111259142A (zh) * | 2020-01-14 | 2020-06-09 | 华南师范大学 | 基于注意力编码和图卷积网络的特定目标情感分类方法 |
CN111581966A (zh) * | 2020-04-30 | 2020-08-25 | 华南师范大学 | 一种融合上下文特征方面级情感分类方法和装置 |
Non-Patent Citations (1)
Title |
---|
基于深度学习的文本情感分析技术研究;季立堃;《中国优秀硕士学位论文全文数据库 信息科技辑》;20190915(第9期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112214601A (zh) | 2021-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112214601B (zh) | 一种社交短文本情感分类方法、装置及存储介质 | |
CN107783960B (zh) | 用于抽取信息的方法、装置和设备 | |
CN110019812B (zh) | 一种用户自生产内容检测方法和系统 | |
CN112732911B (zh) | 基于语义识别的话术推荐方法、装置、设备及存储介质 | |
CN112164391A (zh) | 语句处理方法、装置、电子设备及存储介质 | |
CN108595440B (zh) | 短文本内容分类方法和系统 | |
CN109815485B (zh) | 一种微博短文本情感极性识别的方法、装置及存储介质 | |
WO2019154411A1 (zh) | 词向量更新方法和装置 | |
CN110750648A (zh) | 一种基于深度学习和特征融合的文本情感分类方法 | |
Choi et al. | Residual-based graph convolutional network for emotion recognition in conversation for smart Internet of Things | |
CN111898384A (zh) | 一种文本情感识别方法、装置、存储介质及电子设备 | |
US20230073602A1 (en) | System of and method for automatically detecting sarcasm of a batch of text | |
CN114036398A (zh) | 内容推荐和排序模型训练方法、装置、设备以及存储介质 | |
CN111639162A (zh) | 信息交互方法和装置、电子设备和存储介质 | |
CN113392179A (zh) | 文本标注方法及装置、电子设备、存储介质 | |
CN113553510A (zh) | 一种文本信息推荐方法、装置及可读介质 | |
CN110826327A (zh) | 情感分析方法、装置、计算机可读介质及电子设备 | |
CN115438149A (zh) | 一种端到端模型训练方法、装置、计算机设备及存储介质 | |
CN114117048A (zh) | 一种文本分类的方法、装置、计算机设备及存储介质 | |
CN113139558B (zh) | 确定物品的多级分类标签的方法和装置 | |
CN113761186A (zh) | 文本情感分类方法和装置 | |
Biswas et al. | A new ontology-based multimodal classification system for social media images of personality traits | |
Chan et al. | Optimization of language models by word computing | |
CN112307738A (zh) | 用于处理文本的方法和装置 | |
CN116955561A (zh) | 问答方法、装置、电子设备以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |