CN110569508A - 融合词性和自注意力机制的情感倾向性分类方法及系统 - Google Patents
融合词性和自注意力机制的情感倾向性分类方法及系统 Download PDFInfo
- Publication number
- CN110569508A CN110569508A CN201910854430.2A CN201910854430A CN110569508A CN 110569508 A CN110569508 A CN 110569508A CN 201910854430 A CN201910854430 A CN 201910854430A CN 110569508 A CN110569508 A CN 110569508A
- Authority
- CN
- China
- Prior art keywords
- speech
- vector
- attention
- self
- text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 230000002996 emotional effect Effects 0.000 title claims abstract description 34
- 230000007246 mechanism Effects 0.000 title claims abstract description 28
- 239000013598 vector Substances 0.000 claims abstract description 106
- 230000008451 emotion Effects 0.000 claims abstract description 46
- 238000012986 modification Methods 0.000 claims abstract description 11
- 230000004048 modification Effects 0.000 claims abstract description 11
- 238000007781 pre-processing Methods 0.000 claims abstract description 5
- 239000011159 matrix material Substances 0.000 claims description 23
- 230000006870 function Effects 0.000 claims description 16
- 238000004364 calculation method Methods 0.000 claims description 13
- 238000013528 artificial neural network Methods 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 9
- 238000012549 training Methods 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 5
- 230000011218 segmentation Effects 0.000 claims description 5
- 230000004913 activation Effects 0.000 claims description 4
- 238000001514 detection method Methods 0.000 claims description 3
- 230000004927 fusion Effects 0.000 claims 1
- 238000003058 natural language processing Methods 0.000 abstract description 2
- 238000010801 machine learning Methods 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000005065 mining Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及一种融合词性和自注意力机制的情感倾向性分类方法及系统,属于自然语言处理技术领域。包括以下步骤:S1:对文本进行预处理,分词的同时进行词性标注,去除停用词和无用字符;S2:将预处理后的文本进行向量表示;S3:利用Transformer‑Encoder模型学习文本语义特征;S4:融合词性注意力挖掘句子中词语间的修饰搭配关系,学习更深层次的情感特征;S5:将学习到的语义特征和情感特征拼接作为最终的文本特征用于情感倾向性分类。本发明基于自注意力机制学习文本特征,融合词性注意力对情感信息进行扩充,获取了更丰富的情感特征,提高了情感倾向性分类方法的特征表达能力,有效提升了分类的准确率。
Description
技术领域
本发明属于自然语言处理技术领域,涉及一种融合词性和自注意力机制的情感倾向性分类方法及系统。
背景技术
随着互联网技术的迅速发展和普及,对网络内容管理、监控和有害(或垃圾)信息过滤的需求越来越大,如何有效对网络信息中带有情感色彩的主观性文本进行分析、处理受到越来越多的关注。情感倾向性分类就是根据文本所表达的含义和情感信息将文本划分成褒扬的或贬义的两种或几种类型,是对文本作者倾向性和观点、态度的划分。
由于情感倾向性分类可以在一定程度上解决网上各种评论信息杂乱的现象,方便用户准确地定位所需信息。因此,情感倾向性分类已成为一项具有较大实用价值的关键技术,是组织和管理数据的有力手段。目前,主流的情感倾向性分类方法按技术路线主要分为3类:1)基于词典的方法;2)基于机器学习的方法;3)基于深度学习的方法。基于词典方法的核心模式是“词典+规则”,即以情感词典作为判断情感极性的主要依据,同时兼顾评论数据中的句法结构,设计相应的判断规则。基于机器学习的情感倾向性分类方法,大致分为有监督的机器学习、无监督的机器学习以及半监督的机器学习,这种方法主要是基于人工设计的特征来训练分类器而进行情感倾向性分类的。
虽然基于情感词典和机器学习的文本情感倾向性分类比较容易实现,但这两种方法很大程度上依赖于人工设计和先验知识,都需要耗费大量人力。深度学习模型因为可以自动从数据中学习特征,越来越多的学者开始尝试用深度学习解决情感倾向性分类问题。其中卷积神经网络、循环神经网络在情感分析领域得到了广泛的应用。
现有的深度学习方法多是采用传统的卷积神经网络(Convolutional NeuralNetwork,CNN)、循环神经网络(Recurrent Neural Network,RNN)等网络结构对输入文本进行学习建模,侧重于文本浅层特征的自动学习,忽略了文本中其他蕴含情感信息的特征,特征表达能力不足。另一方面,情感倾向性分类的大部分研究都是假设各类的样本是平衡的,在实际场景中,不同类别的样本数目差距较大,普遍存在样本不平衡问题,从而影响分类的准确度。
发明内容
有鉴于此,本发明的目的在于提供一种融合词性和自注意力机制的情感倾向性分类方法及系统,克服现有方法忽略文本中其他蕴含情感信息的特征,特征表达能力不足的缺陷。
为达到上述目的,本发明提供如下技术方案:
一方面,本发明提供一种融合词性和自注意力机制的情感倾向性分类方法,包括以下步骤:
S1:对文本进行预处理,分词的同时进行词性标注,去除停用词和无用字符;
S2:将预处理后的文本进行向量表示;
S3:利用Transformer-Encoder模型学习文本语义特征;
S4:融合词性注意力挖掘句子中词语间的修饰搭配关系,学习更深层次的情感特征;
S5:将学习到的语义特征和情感特征拼接作为最终的文本特征用于情感倾向性分类。
进一步,步骤S2中所述文本的向量表示是对分词得到的词语及其词性和位置信息映射成向量,包括:
每个词语wi通过Word Embedding后得到词向量词语对应的位置信息通过Position Embedding得到位置向量词向量和位置向量相加得到词语最终的Embedding向量而每个词对应的词性pi通过POS Embedding得到词性向量其中词向量和位置向量有相同的维度dw,词性向量的维度为dpos。
进一步,通过Position Embedding将每个词语的位置编号,按照特定的构造公式将位置信息映射成一个dw维的位置向量zi,这个向量的第i个元素的数值为PEi(P),构造公式如下:
其中P为词语对应位置的序号。
进一步,步骤S3具体包括:将Embedding向量vi输入到由多头自注意力层和前馈神经网络组成的Transformer-Encoder模型中学习文本的语义特征,输出语义特征向量矩阵C。
进一步,所述多头自注意力层利用多头自注意力机制学习句子内部词语间的长距离依赖关系;多头自注意力机制能捕获来自不同位置的不同层次的特征信息;包括:
自注意力计算步骤:对于每一个词语设置三个向量:Query向量、Key向量、Value向量,首先将Query向量和每个Key向量进行相似度计算得到每个Key向量对应Value向量的权重系数;然后使用Softmax对权重进行归一化;最后将权重和对应的Value值进行加权求和得到最终的Attention值,数学描述如下:
其中L为句子长度;
多头自注意力机制计算过程是将自注意力计算步骤并行地做h次,将h次的结果进行拼接,
headi=Attention(QWi Q,KWi K,VWi V)
MultiHead(Q,K,V)=Concat(head1,…,headh)Wo
其中参数矩阵 dk为K、Q、V的维度,dmodel为计算h次自注意力后拼接向量的维度。
进一步,步骤S4中所述词性注意力是利用词性信息挖掘词语间的修饰搭配关系,获取更丰富的情感特征,具体包括:
对词性向量矩阵进行一系列运算得到包含每种词性对应Attention权值的向量β∈Rn,由向量β和语义特征向量矩阵C通过向量点积运算得到最终的词性注意力向量α∈Rn,其中n表示词语个数。
进一步地,步骤S5中所述情感倾向性分类,具体包括:
最终的向量表达μ经过Sigmoid激活函数映射成一个取值在[0,1]之间的数值概率,概率大于0.5时,文本的情感倾向预测为积极,概率小于0.5时则预测为消极;
模型输出的预测值如下:
其中为预测值,W和b为模型训练过程中需要学习的参数;
引入目标检测领域的Focal Loss作为损失函数,缓解样本不平衡问题对分类的影响,采用随机梯度下降算法最小化损失函数,损失函数公式如下:
其中n为样本个数,γ≥0为调制参数,样本标签yi取值为0或1,其对应情感极性为消极和积极。
另一方面,本发明还提供一种融合词性和自注意力机制的情感倾向性分类系统,采用如上所述的融合词性和自注意力机制的情感倾向性分类方法,具体包括:
预处理层:对文本进行分词和词性标注、去停用词以及使用正则表达式去除无用字符;
向量表示层:将词语与其对应的词性和位置信息进行向量表示;
文本表示层:利用Transformer-Encoder模型学习文本多层次的语义特征;
词性注意力层:融合词性注意力挖掘句子中词语间的修饰搭配关系,学习更深层次的情感特征;
分类层:将学习到的语义特征和情感特征拼接作为最终的文本特征用于情感倾向性分类。
本发明的有益效果在于:本发明利用自注意力机制来学习文本多层次的特征表达,融合词性注意力(POS-Attention)获取更丰富的情感特征,能更好地学习多层次的文本特征。
本发明抛弃了CNN、RNN等传统网络结构,完全借助自注意力机制学习句子中不同位置词语的语义关系,能够捕获到不同空间层次的特征信息,利用词性信息学习更深层次的情感特征,提高了情感倾向性分类方法的特征表达能力;引入Focal Loss损失函数缓解样本不平衡问题对分类的影响,有效提升了分类的准确率。
本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书来实现和获得。
附图说明
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作优选的详细描述,其中:
图1为本发明所述融合词性和自注意力机制的情感倾向性分类方法流程示意图;
图2为本发明所述融合词性和自注意力机制的情感倾向性分类系统框架示意图;
图3为本发明所述Transformer-Encoder模型的结构示意图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
其中,附图仅用于示例性说明,表示的仅是示意图,而非实物图,不能理解为对本发明的限制;为了更好地说明本发明的实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
本发明实施例的附图中相同或相似的标号对应相同或相似的部件;在本发明的描述中,需要理解的是,若有术语“上”、“下”、“左”、“右”、“前”、“后”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此附图中描述位置关系的用语仅用于示例性说明,不能理解为对本发明的限制,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。
如图1所示为本发明所述方法流程图,具体包括以下步骤:
步骤S1、对文本进行预处理,分词的同时进行词性标注,去除停用词和无用字符;
步骤S2、将预处理后的文本进行向量表示;
步骤S3、利用Transformer-Encoder模型学习文本语义特征;
步骤S4、融合词性注意力挖掘句子中词语间的修饰搭配关系,学习更深层次的情感特征;
步骤S5、将学习到的语义特征和情感特征拼接作为最终的文本特征用于情感倾向性分类;
其中步骤S1中预处理的具体实施步骤包括:利用分词工具进行分词和词性标注、去停用词以及使用正则表达式去除无用字符;
本发明所述步骤S2包括以下子步骤:
步骤S21、输入一个句子S=[w1,w2,w3,…,wn]以及句子中每个词对应的词性P=[p1,p2,p3,…,pn],其中n为句子中词语的个数。对于每一个词wi,通过Word Embedding后得到词向量其中dw表示词向量维度;
步骤S22、本发明所述方法使用自注意力机制代替了循环神经网络,使得模型无法像RNN一样对句子中词语的顺序进行建模,因此在输入词语中加入了相关的位置信息,将每个词语的位置编号,通过Position Embedding将序号为P的位置映射为一个dw维的位置向量zi,这个向量的第i个元素的数值为PEi(P),其构造公式如下:
词向量和位置向量相加得到词语最终的Embedding向量其中位置向量和词向量有相同的维度dw;
步骤S23、引入词性特征,对文本分词的同时进行词性标注,将每种词性作为一个向量表达进行学习。对于每个词对应的词性pi,通过POS Embedding得到词性向量其中dpos为词性向量的维度。
图3所示为本发明所述步骤S3利用Transformer-Encoder模型学习文本语义特征,步骤包括:从步骤S22得到的Embedding向量vi输入到由多头自注意力层和前馈神经网络组成的Transformer-Encoder模型中学习文本的语义特征,输出语义特征向量矩阵C;其中每层后面都加上残差连接和层归一化保证模型中的神经网络训练的稳定性,是神经网络设计中常用的优化策略;
多头自注意力层计算Attention值的步骤如下:
步骤S31、自注意力机制(Self-Attention)是一个基于内容的查询的过程,对于每一个词语设置三个向量:Query向量、Key向量、Value向量,并且每一个向量都是通过步骤S22所述的Embedding向量vi和训练过程中的参数矩阵相乘得到;
步骤S32、计算某个词语的自注意力时,该词语对应的Query向量和句子中每个词语的Key向量通过向量点积进行相似度计算,相似度计算公式如下:
f(Q,Ki)=QTKi
步骤S33、将步骤S32得到的相似度得分使用Softmax函数整理成所有元素权重之和为1的概率分布,
其中L为句子长度;
步骤S34、步骤S33的计算结果ai为Valuei对应的权重系数,然后进行加权求和得到Attention值,具体公式如下:
步骤S35、多头自注意力计算过程是将自注意力的步骤并行地做h次,然后将h次Self-Attention的结果进行拼接,
headi=Attention(QWi Q,KWi K,VWi V)
MultiHead(Q,K,V)=Concat(head1,…,headh)WO
其中参数矩阵dk为K、Q、V的维度,dmodel为计算h次自注意力后拼接向量的维度。
步骤S36、前馈神经网络为:
FNN(x)=max(0,xW1+b1)W2+b2
其中x为网络的输入,W1、W2为隐藏层的权重矩阵,b1、b2为偏置项,max为ReLU激活函数。
结合图2描述本发明所述步骤S4中词性注意力(POS-Attention),其具体计算步骤如下:
步骤S41、每个词对应的词性经过向量表示层后得到词性向量矩阵将词性向量矩阵EP乘以它的转置矩阵得到新的矩阵H,即H=EP×EP T∈Rn×n,矩阵中的值代表每种词性之间的相关性;
步骤S42、矩阵H按列做Softmax(Column-Softmax)后得到表示每种词性相关程度的关系矩阵E∈Rn×n,
其中矩阵E中每个值表示每种词性之间的相关程度;
步骤S43、矩阵E按行取平均(Row-Average)后得到了一个向量β∈Rn,该向量包含了每种词性对应的Attention权值,向量β计算公式如下:
步骤S44、引入词性注意力加强对词性特征的提取,使得模型充分考虑词性对情感倾向性分类的贡献,词性注意力向量α∈Rn由文本表示层输出的语义特征向量矩阵C和向量β通过向量点积运算得到,其公式描述如下:
α=C·β=C×βT
本发明所述步骤S5中情感倾向性分类的具体实施步骤如下:
步骤S51、文本最终的向量表达μ融合了文本语义信息和词性信息,由词性注意力向量α与包含了多种词性信息的全局向量拼接而成,即μ=[α,γ];
向量γ由词性向量矩阵EP按行取均值(Column-Average)得到,是包含了多种词性信息的一个全局向量,目的是为了降低句子中位置相近或者内容相关却并无修饰搭配关系的句子成分对分类的影响,
步骤S52、文本最终的向量表达μ经过Sigmoid激活函数映射成一个取值在[0,1]之间的数值概率,概率大于0.5时,文本的情感倾向预测为积极,概率小于0.5时则预测为消极;
模型输出的预测值如下:
其中为预测值,W和b为模型训练过程中需要学习的参数;
步骤S53、将目标检测领域的Focal Loss损失函数引入到本发明所述方法中,通过减少多数类样本对损失函数的贡献,使得模型在训练时更注重少数类样本,从而缓解样本不平衡问题对分类的影响。采用随机梯度下降算法最小化损失函数,损失函数公式如下:
其中n为样本个数,γ≥0为调制参数,样本标签yi取值为0或1,其对应情感极性为消极和积极。
另一方面,本发明还提供一种融合词性和自注意力机制的情感倾向性分类系统,采用如上所述的融合词性和自注意力机制的情感倾向性分类方法,具体包括:
预处理层:对文本进行分词和词性标注、去停用词以及使用正则表达式去除无用字符;
向量表示层:将词语与其对应的词性和位置信息进行向量表示;
文本表示层:利用Transformer-Encoder模型学习文本多层次的语义特征;
词性注意力层:融合词性注意力挖掘句子中词语间的修饰搭配关系,学习更深层次的情感特征;
分类层:将学习到的语义特征和情感特征拼接作为最终的文本特征用于情感倾向性分类。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (8)
1.一种融合词性和自注意力机制的情感倾向性分类方法,其特征在于:包括以下步骤:
S1:对文本进行预处理,分词的同时进行词性标注,去除停用词和无用字符;
S2:将预处理后的文本进行向量表示;
S3:利用Transformer-Encoder模型学习文本语义特征;
S4:融合词性注意力挖掘句子中词语间的修饰搭配关系,学习更深层次的情感特征;
S5:将学习到的语义特征和情感特征拼接作为最终的文本特征用于情感倾向性分类。
2.根据权利要求1所述的融合词性和自注意力机制的情感倾向性分类方法,其特征在于:步骤S2中所述文本的向量表示是对分词得到的词语及其词性和位置信息映射成向量,包括:
每个词语wi通过Word Embedding后得到词向量词语对应的位置信息通过Position Embedding得到位置向量词向量和位置向量相加得到词语最终的Embedding向量而每个词对应的词性pi通过POS Embedding得到词性向量其中词向量和位置向量有相同的维度dw,词性向量的维度为dpos。
3.根据权利要求2所述的融合词性和自注意力机制的情感倾向性分类方法,其特征在于:通过Position Embedding将每个词语的位置编号,按照特定的构造公式将位置信息映射成一个dw维的位置向量zi,这个向量的第i个元素的数值为PEi(P),构造公式如下:
其中P为词语对应位置的序号。
4.根据权利要求1所述的融合词性和自注意力机制的情感倾向性分类方法,其特征在于:步骤S3具体包括:将Embedding向量vi输入到由多头自注意力层和前馈神经网络组成的Transformer-Encoder模型中学习文本的语义特征,输出语义特征向量矩阵C。
5.根据权利要求4所述的融合词性和自注意力机制的情感倾向性分类方法,其特征在于:所述多头自注意力层利用多头自注意力机制学习句子内部词语间的长距离依赖关系;多头自注意力机制能捕获来自不同位置的不同层次的特征信息;包括:
自注意力计算步骤:对于每一个词语设置三个向量:Query向量、Key向量、Value向量,首先将Query向量和每个Key向量进行相似度计算得到每个Key向量对应Value向量的权重系数;然后使用Softmax对权重进行归一化;最后将权重和对应的Value值进行加权求和得到最终的Attention值,数学描述如下:
其中L为句子长度;
多头自注意力机制计算过程是将自注意力计算步骤并行地做h次,将h次的结果进行拼接,
headi=Attention(QWi Q,KWi K,VWi V)
MultiHead(Q,K,V)=Concat(head1,…,headh)WO
其中参数矩阵 dk为K、Q、V的维度,dmodel为计算h次自注意力后拼接向量的维度。
6.根据权利要求1所述的融合词性和自注意力机制的情感倾向性分类方法,其特征在于:步骤S4中所述词性注意力是利用词性信息挖掘词语间的修饰搭配关系,获取更丰富的情感特征,具体包括:
对词性向量矩阵进行一系列运算得到包含每种词性对应Attention权值的向量β∈Rn,由向量β和语义特征向量矩阵C通过向量点积运算得到最终的词性注意力向量α∈Rn,其中n表示词语个数。
7.根据权利要求1所述的融合词性和自注意力机制的情感倾向性分类方法,其特征在于:步骤S5中所述情感倾向性分类,具体包括:
最终的向量表达μ经过Sigmoid激活函数映射成一个取值在[0,1]之间的数值概率,概率大于0.5时,文本的情感倾向预测为积极,概率小于0.5时则预测为消极;
模型输出的预测值如下:
其中为预测值,W和b为模型训练过程中需要学习的参数;
引入目标检测领域的Focal Loss作为损失函数,缓解样本不平衡问题对分类的影响,采用随机梯度下降算法最小化损失函数,损失函数公式如下:
其中n为样本个数,γ≥0为调制参数,样本标签yi取值为0或1,其对应情感极性为消极和积极。
8.一种融合词性和自注意力机制的情感倾向性分类系统,其特征在于:基于如权利要求1-7任一所述的融合词性和自注意力机制的情感倾向性分类方法,具体包括:
预处理层:对文本进行分词和词性标注、去停用词以及使用正则表达式去除无用字符;
向量表示层:将词语与其对应的词性和位置信息进行向量表示;
文本表示层:利用Transformer-Encoder模型学习文本多层次的语义特征;
词性注意力层:融合词性注意力挖掘句子中词语间的修饰搭配关系,学习更深层次的情感特征;
分类层:将学习到的语义特征和情感特征拼接作为最终的文本特征用于情感倾向性分类。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910854430.2A CN110569508A (zh) | 2019-09-10 | 2019-09-10 | 融合词性和自注意力机制的情感倾向性分类方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910854430.2A CN110569508A (zh) | 2019-09-10 | 2019-09-10 | 融合词性和自注意力机制的情感倾向性分类方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110569508A true CN110569508A (zh) | 2019-12-13 |
Family
ID=68779077
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910854430.2A Pending CN110569508A (zh) | 2019-09-10 | 2019-09-10 | 融合词性和自注意力机制的情感倾向性分类方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110569508A (zh) |
Cited By (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110866398A (zh) * | 2020-01-07 | 2020-03-06 | 腾讯科技(深圳)有限公司 | 评论文本处理方法、装置、存储介质和计算机设备 |
CN111126067A (zh) * | 2019-12-23 | 2020-05-08 | 北大方正集团有限公司 | 实体关系抽取方法及装置 |
CN111178068A (zh) * | 2019-12-25 | 2020-05-19 | 华中科技大学鄂州工业技术研究院 | 一种基于对话情绪检测的催收暴力倾向评价方法和装置 |
CN111222344A (zh) * | 2020-01-03 | 2020-06-02 | 支付宝(杭州)信息技术有限公司 | 训练神经网络的方法、装置及电子设备 |
CN111259153A (zh) * | 2020-01-21 | 2020-06-09 | 桂林电子科技大学 | 一种完全注意力机制的属性级情感分析方法 |
CN111325571A (zh) * | 2019-12-30 | 2020-06-23 | 北京航空航天大学 | 一种多任务学习的商品评论标签自动生成方法、装置及系统 |
CN111339305A (zh) * | 2020-03-20 | 2020-06-26 | 北京中科模识科技有限公司 | 文本分类方法、装置、电子设备及存储介质 |
CN111581335A (zh) * | 2020-05-14 | 2020-08-25 | 腾讯科技(深圳)有限公司 | 一种文本表示方法及装置 |
CN111666373A (zh) * | 2020-05-07 | 2020-09-15 | 华东师范大学 | 一种基于Transformer的中文新闻分类方法 |
CN111680154A (zh) * | 2020-04-13 | 2020-09-18 | 华东师范大学 | 一种基于深度学习的评论文本属性级情感分析方法 |
CN111694940A (zh) * | 2020-05-14 | 2020-09-22 | 平安科技(深圳)有限公司 | 一种用户报告的生成方法及终端设备 |
CN111858945A (zh) * | 2020-08-05 | 2020-10-30 | 上海哈蜂信息科技有限公司 | 基于深度学习的评论文本方面级情感分类方法及系统 |
CN111966824A (zh) * | 2020-07-11 | 2020-11-20 | 天津大学 | 一种基于情感相似度注意力机制的文本情感识别方法 |
CN112069313A (zh) * | 2020-08-12 | 2020-12-11 | 北京工业大学 | 一种基于bert与双向lstm、注意力机制融合的灾难信息博文分类方法 |
CN112163080A (zh) * | 2020-10-12 | 2021-01-01 | 辽宁工程技术大学 | 一种基于多轮情绪分析的生成式对话系统 |
CN112199496A (zh) * | 2020-08-05 | 2021-01-08 | 广西大学 | 基于多头注意力机制与rcnn网络的电网设备缺陷文本分类方法 |
CN112232087A (zh) * | 2020-10-20 | 2021-01-15 | 中国民航大学 | 一种基于Transformer的多粒度注意力模型的特定方面情感分析方法 |
CN112329454A (zh) * | 2020-11-03 | 2021-02-05 | 腾讯科技(深圳)有限公司 | 语种识别方法、装置、电子设备及可读存储介质 |
CN112560503A (zh) * | 2021-02-19 | 2021-03-26 | 中国科学院自动化研究所 | 融合深度特征和时序模型的语义情感分析方法 |
CN112908315A (zh) * | 2021-03-10 | 2021-06-04 | 北京思图场景数据科技服务有限公司 | 一种基于声音特征和语音识别的问答意图判断方法 |
CN113011193A (zh) * | 2021-04-09 | 2021-06-22 | 广东外语外贸大学 | 基于Bi-LSTM算法的检测咨询语句重复性评价方法及系统 |
CN113139623A (zh) * | 2021-05-14 | 2021-07-20 | 中国人民解放军91977部队 | 舰船目标识别方法及装置 |
CN113191138A (zh) * | 2021-05-14 | 2021-07-30 | 长江大学 | 一种基于am-cnn算法的自动文本情感分析方法 |
CN113342970A (zh) * | 2020-11-24 | 2021-09-03 | 中电万维信息技术有限责任公司 | 一种多标签复杂文本分类方法 |
CN113515957A (zh) * | 2021-04-21 | 2021-10-19 | 南通大学 | 一种基于bart模型的正则表达式描述生成方法 |
CN113535904A (zh) * | 2021-07-23 | 2021-10-22 | 重庆邮电大学 | 一种基于图神经网络的方面级情感分析方法 |
CN113742482A (zh) * | 2021-07-19 | 2021-12-03 | 暨南大学 | 基于多重词特征融合的情感分类方法、介质 |
CN114020871A (zh) * | 2021-11-09 | 2022-02-08 | 丁健宇 | 基于特征融合的多模态社交媒体情感分析方法 |
CN114238577A (zh) * | 2021-12-17 | 2022-03-25 | 中国计量大学上虞高等研究院有限公司 | 融合多头注意力机制的多任务学习情感分类方法 |
CN114491040A (zh) * | 2022-01-28 | 2022-05-13 | 北京百度网讯科技有限公司 | 信息挖掘方法及装置 |
WO2022142010A1 (zh) * | 2020-12-30 | 2022-07-07 | 平安科技(深圳)有限公司 | 一种非均衡样本的分类方法、装置、设备及存储介质 |
CN114743020A (zh) * | 2022-04-02 | 2022-07-12 | 华南理工大学 | 一种结合标签语义嵌入和注意力融合的食物识别方法 |
CN114912549A (zh) * | 2022-07-11 | 2022-08-16 | 支付宝(杭州)信息技术有限公司 | 风险交易识别模型的训练方法、风险交易识别方法和装置 |
CN115906863A (zh) * | 2022-10-25 | 2023-04-04 | 华南师范大学 | 基于对比学习的情感分析方法、装置、设备以及存储介质 |
CN117786120A (zh) * | 2024-02-28 | 2024-03-29 | 山东省计算中心(国家超级计算济南中心) | 基于层次化注意力机制的文本情感分类方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108763204A (zh) * | 2018-05-21 | 2018-11-06 | 浙江大学 | 一种多层次的文本情感特征提取方法和模型 |
CN109543180A (zh) * | 2018-11-08 | 2019-03-29 | 中山大学 | 一种基于注意力机制的文本情感分析方法 |
CN109933795A (zh) * | 2019-03-19 | 2019-06-25 | 上海交通大学 | 基于上下文-情感词向量的文本情感分析系统 |
CN110147452A (zh) * | 2019-05-17 | 2019-08-20 | 北京理工大学 | 一种基于层级bert神经网络的粗粒度情感分析方法 |
-
2019
- 2019-09-10 CN CN201910854430.2A patent/CN110569508A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108763204A (zh) * | 2018-05-21 | 2018-11-06 | 浙江大学 | 一种多层次的文本情感特征提取方法和模型 |
CN109543180A (zh) * | 2018-11-08 | 2019-03-29 | 中山大学 | 一种基于注意力机制的文本情感分析方法 |
CN109933795A (zh) * | 2019-03-19 | 2019-06-25 | 上海交通大学 | 基于上下文-情感词向量的文本情感分析系统 |
CN110147452A (zh) * | 2019-05-17 | 2019-08-20 | 北京理工大学 | 一种基于层级bert神经网络的粗粒度情感分析方法 |
Non-Patent Citations (2)
Title |
---|
ASHISH VASWANI等: ""Attention is All You Need"", 《ARXIV.ORG》 * |
SONGWEN PEI 等: "DA-BERT:Enhancing Part-of-Speech Taggingof Aspect Sentiment Analysis Using BERT", 《ADVANCED PARALLEL PROCESSING TECHNOLOGIES》 * |
Cited By (54)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111126067A (zh) * | 2019-12-23 | 2020-05-08 | 北大方正集团有限公司 | 实体关系抽取方法及装置 |
CN111178068A (zh) * | 2019-12-25 | 2020-05-19 | 华中科技大学鄂州工业技术研究院 | 一种基于对话情绪检测的催收暴力倾向评价方法和装置 |
CN111325571A (zh) * | 2019-12-30 | 2020-06-23 | 北京航空航天大学 | 一种多任务学习的商品评论标签自动生成方法、装置及系统 |
CN111325571B (zh) * | 2019-12-30 | 2023-08-18 | 北京航空航天大学 | 一种多任务学习的商品评论标签自动生成方法、装置及系统 |
CN111222344B (zh) * | 2020-01-03 | 2023-07-18 | 支付宝(杭州)信息技术有限公司 | 训练神经网络的方法、装置及电子设备 |
CN111222344A (zh) * | 2020-01-03 | 2020-06-02 | 支付宝(杭州)信息技术有限公司 | 训练神经网络的方法、装置及电子设备 |
CN110866398A (zh) * | 2020-01-07 | 2020-03-06 | 腾讯科技(深圳)有限公司 | 评论文本处理方法、装置、存储介质和计算机设备 |
CN111259153A (zh) * | 2020-01-21 | 2020-06-09 | 桂林电子科技大学 | 一种完全注意力机制的属性级情感分析方法 |
CN111339305A (zh) * | 2020-03-20 | 2020-06-26 | 北京中科模识科技有限公司 | 文本分类方法、装置、电子设备及存储介质 |
CN111339305B (zh) * | 2020-03-20 | 2023-04-14 | 北京中科模识科技有限公司 | 文本分类方法、装置、电子设备及存储介质 |
CN111680154A (zh) * | 2020-04-13 | 2020-09-18 | 华东师范大学 | 一种基于深度学习的评论文本属性级情感分析方法 |
CN111680154B (zh) * | 2020-04-13 | 2023-06-27 | 华东师范大学 | 一种基于深度学习的评论文本属性级情感分析方法 |
CN111666373A (zh) * | 2020-05-07 | 2020-09-15 | 华东师范大学 | 一种基于Transformer的中文新闻分类方法 |
CN111694940A (zh) * | 2020-05-14 | 2020-09-22 | 平安科技(深圳)有限公司 | 一种用户报告的生成方法及终端设备 |
CN111581335B (zh) * | 2020-05-14 | 2023-11-24 | 腾讯科技(深圳)有限公司 | 一种文本表示方法及装置 |
CN111581335A (zh) * | 2020-05-14 | 2020-08-25 | 腾讯科技(深圳)有限公司 | 一种文本表示方法及装置 |
CN111966824B (zh) * | 2020-07-11 | 2024-02-09 | 天津大学 | 一种基于情感相似度注意力机制的文本情感识别方法 |
CN111966824A (zh) * | 2020-07-11 | 2020-11-20 | 天津大学 | 一种基于情感相似度注意力机制的文本情感识别方法 |
CN111858945B (zh) * | 2020-08-05 | 2024-04-23 | 上海哈蜂信息科技有限公司 | 基于深度学习的评论文本方面级情感分类方法及系统 |
CN112199496A (zh) * | 2020-08-05 | 2021-01-08 | 广西大学 | 基于多头注意力机制与rcnn网络的电网设备缺陷文本分类方法 |
CN111858945A (zh) * | 2020-08-05 | 2020-10-30 | 上海哈蜂信息科技有限公司 | 基于深度学习的评论文本方面级情感分类方法及系统 |
CN112069313A (zh) * | 2020-08-12 | 2020-12-11 | 北京工业大学 | 一种基于bert与双向lstm、注意力机制融合的灾难信息博文分类方法 |
CN112163080A (zh) * | 2020-10-12 | 2021-01-01 | 辽宁工程技术大学 | 一种基于多轮情绪分析的生成式对话系统 |
CN112232087A (zh) * | 2020-10-20 | 2021-01-15 | 中国民航大学 | 一种基于Transformer的多粒度注意力模型的特定方面情感分析方法 |
CN112232087B (zh) * | 2020-10-20 | 2022-09-02 | 中国民航大学 | 一种基于Transformer的多粒度注意力模型的特定方面情感分析方法 |
CN112329454A (zh) * | 2020-11-03 | 2021-02-05 | 腾讯科技(深圳)有限公司 | 语种识别方法、装置、电子设备及可读存储介质 |
CN113342970A (zh) * | 2020-11-24 | 2021-09-03 | 中电万维信息技术有限责任公司 | 一种多标签复杂文本分类方法 |
WO2022142010A1 (zh) * | 2020-12-30 | 2022-07-07 | 平安科技(深圳)有限公司 | 一种非均衡样本的分类方法、装置、设备及存储介质 |
CN112560503B (zh) * | 2021-02-19 | 2021-07-02 | 中国科学院自动化研究所 | 融合深度特征和时序模型的语义情感分析方法 |
US11194972B1 (en) | 2021-02-19 | 2021-12-07 | Institute Of Automation, Chinese Academy Of Sciences | Semantic sentiment analysis method fusing in-depth features and time sequence models |
CN112560503A (zh) * | 2021-02-19 | 2021-03-26 | 中国科学院自动化研究所 | 融合深度特征和时序模型的语义情感分析方法 |
CN112908315A (zh) * | 2021-03-10 | 2021-06-04 | 北京思图场景数据科技服务有限公司 | 一种基于声音特征和语音识别的问答意图判断方法 |
CN113011193A (zh) * | 2021-04-09 | 2021-06-22 | 广东外语外贸大学 | 基于Bi-LSTM算法的检测咨询语句重复性评价方法及系统 |
CN113515957A (zh) * | 2021-04-21 | 2021-10-19 | 南通大学 | 一种基于bart模型的正则表达式描述生成方法 |
CN113515957B (zh) * | 2021-04-21 | 2023-09-19 | 南通大学 | 一种基于bart模型的正则表达式描述生成方法 |
CN113191138B (zh) * | 2021-05-14 | 2023-10-31 | 长江大学 | 一种基于am-cnn算法的自动文本情感分析方法 |
CN113191138A (zh) * | 2021-05-14 | 2021-07-30 | 长江大学 | 一种基于am-cnn算法的自动文本情感分析方法 |
CN113139623A (zh) * | 2021-05-14 | 2021-07-20 | 中国人民解放军91977部队 | 舰船目标识别方法及装置 |
CN113139623B (zh) * | 2021-05-14 | 2021-11-09 | 中国人民解放军91977部队 | 舰船目标识别方法及装置 |
CN113742482B (zh) * | 2021-07-19 | 2024-05-31 | 暨南大学 | 基于多重词特征融合的情感分类方法、介质 |
CN113742482A (zh) * | 2021-07-19 | 2021-12-03 | 暨南大学 | 基于多重词特征融合的情感分类方法、介质 |
CN113535904A (zh) * | 2021-07-23 | 2021-10-22 | 重庆邮电大学 | 一种基于图神经网络的方面级情感分析方法 |
CN114020871A (zh) * | 2021-11-09 | 2022-02-08 | 丁健宇 | 基于特征融合的多模态社交媒体情感分析方法 |
CN114020871B (zh) * | 2021-11-09 | 2024-07-05 | 丁健宇 | 基于特征融合的多模态社交媒体情感分析方法 |
CN114238577A (zh) * | 2021-12-17 | 2022-03-25 | 中国计量大学上虞高等研究院有限公司 | 融合多头注意力机制的多任务学习情感分类方法 |
CN114238577B (zh) * | 2021-12-17 | 2024-04-26 | 中国计量大学上虞高等研究院有限公司 | 融合多头注意力机制的多任务学习情感分类方法 |
CN114491040A (zh) * | 2022-01-28 | 2022-05-13 | 北京百度网讯科技有限公司 | 信息挖掘方法及装置 |
CN114743020A (zh) * | 2022-04-02 | 2022-07-12 | 华南理工大学 | 一种结合标签语义嵌入和注意力融合的食物识别方法 |
CN114743020B (zh) * | 2022-04-02 | 2024-05-14 | 华南理工大学 | 一种结合标签语义嵌入和注意力融合的食物识别方法 |
CN114912549A (zh) * | 2022-07-11 | 2022-08-16 | 支付宝(杭州)信息技术有限公司 | 风险交易识别模型的训练方法、风险交易识别方法和装置 |
CN115906863B (zh) * | 2022-10-25 | 2023-09-12 | 华南师范大学 | 基于对比学习的情感分析方法、装置、设备以及存储介质 |
CN115906863A (zh) * | 2022-10-25 | 2023-04-04 | 华南师范大学 | 基于对比学习的情感分析方法、装置、设备以及存储介质 |
CN117786120A (zh) * | 2024-02-28 | 2024-03-29 | 山东省计算中心(国家超级计算济南中心) | 基于层次化注意力机制的文本情感分类方法及系统 |
CN117786120B (zh) * | 2024-02-28 | 2024-05-24 | 山东省计算中心(国家超级计算济南中心) | 基于层次化注意力机制的文本情感分类方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110569508A (zh) | 融合词性和自注意力机制的情感倾向性分类方法及系统 | |
CN108984724B (zh) | 利用高维表示提高特定属性情感分类准确率方法 | |
CN112001187B (zh) | 一种基于中文句法和图卷积神经网络的情感分类系统 | |
CN110297870B (zh) | 一种金融领域中文新闻标题情感分类方法 | |
CN110532557B (zh) | 一种无监督的文本相似度计算方法 | |
CN110321563B (zh) | 基于混合监督模型的文本情感分析方法 | |
CN112001185A (zh) | 一种结合中文句法和图卷积神经网络的情感分类方法 | |
CN110222178A (zh) | 文本情感分类方法、装置、电子设备及可读存储介质 | |
CN110287323B (zh) | 一种面向目标的情感分类方法 | |
CN112001186A (zh) | 一种利用图卷积神经网络和中文句法的情感分类方法 | |
CN112395417A (zh) | 基于深度学习的网络舆情演化仿真方法及系统 | |
CN114417851B (zh) | 一种基于关键词加权信息的情感分析方法 | |
CN109214006A (zh) | 图像增强的层次化语义表示的自然语言推理方法 | |
CN110874411A (zh) | 一种基于注意力机制融合的跨领域情感分类系统 | |
CN112989830B (zh) | 一种基于多元特征和机器学习的命名实体识别方法 | |
CN110851601A (zh) | 基于分层注意力机制的跨领域情感分类系统及方法 | |
US20230289528A1 (en) | Method for constructing sentiment classification model based on metaphor identification | |
CN115630156A (zh) | 一种融合Prompt和SRU的蒙古语情感分析方法与系统 | |
CN110297986A (zh) | 一种微博热点话题的情感倾向分析方法 | |
CN110569355A (zh) | 一种基于词块的观点目标抽取和目标情感分类联合方法及系统 | |
CN113255360A (zh) | 基于层次化自注意力网络的文档评级方法和装置 | |
CN113886562A (zh) | 一种ai简历筛选方法、系统、设备和存储介质 | |
CN116579347A (zh) | 一种基于动态语义特征融合的评论文本情感分析方法、系统、设备及介质 | |
CN114756681A (zh) | 一种基于多注意力融合的评教文本细粒度建议挖掘方法 | |
CN115757792A (zh) | 一种基于深度学习的微博文本情感分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191213 |