CN111507101A - 一种基于多层次语义胶囊路由的反讽检测方法 - Google Patents
一种基于多层次语义胶囊路由的反讽检测方法 Download PDFInfo
- Publication number
- CN111507101A CN111507101A CN202010141031.4A CN202010141031A CN111507101A CN 111507101 A CN111507101 A CN 111507101A CN 202010141031 A CN202010141031 A CN 202010141031A CN 111507101 A CN111507101 A CN 111507101A
- Authority
- CN
- China
- Prior art keywords
- capsule
- semantic
- level
- level semantic
- hidden layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000002775 capsule Substances 0.000 title claims abstract description 161
- 238000001514 detection method Methods 0.000 title claims abstract description 24
- 239000013598 vector Substances 0.000 claims abstract description 29
- 230000007246 mechanism Effects 0.000 claims abstract description 12
- 230000008451 emotion Effects 0.000 claims abstract description 9
- 238000000034 method Methods 0.000 claims abstract description 9
- 238000011176 pooling Methods 0.000 claims abstract description 8
- 230000005012 migration Effects 0.000 claims abstract description 4
- 238000013508 migration Methods 0.000 claims abstract description 4
- 238000006243 chemical reaction Methods 0.000 claims abstract description 3
- 230000004913 activation Effects 0.000 claims description 22
- 238000012552 review Methods 0.000 claims description 11
- 239000011159 matrix material Substances 0.000 claims description 8
- 230000006870 function Effects 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 4
- 230000002452 interceptive effect Effects 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 2
- 230000002996 emotional effect Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000026683 transduction Effects 0.000 description 1
- 238000010361 transduction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种基于多层次语义胶囊路由的反讽检测方法。本发明步骤:使用GloVe对网络评论和上下文进行词向量嵌入,分别获得网络评论和上下文的文本特征;并将文本特征输入到Transformer模型中进行向量的转换,分别获得网络评论和上下文的隐藏层特征;通过CNN把网络评论的隐藏层特征转化为网络评论的池化特征;把池化特征作为权重使用注意力机制对上下文的隐藏层特征进行权重偏移,获得新的隐藏层特征Ⅰ;把网络评论的隐藏层特征与SenticNet中获得的情感权重相结合,获得新的隐藏层特征Ⅱ;把隐藏层特征Ⅰ和Ⅱ作为低层次的语义胶囊,进行EM路由获得高层次的语义胶囊;最后把高层次的语义胶囊通过SoftMax函数获得最后的分类结果。本发明有效解决了反讽检测分类效果不佳等问题。
Description
技术领域
本发明涉及自然语言处理的反讽检测领域,具体涉及基于多层次语义胶囊路由的反讽检测方法。
背景技术
自动讽刺检测的文献分别集中于文本的词法、句法和语义层面的分析或者通过上下文假设、背景或常识来捕获用户的风格和个性描述。但是,在一组表示反讽的文本中,通常包含言语和情景两种类型的反讽文本。我们提出了一个基于多层次语义胶囊路由的反讽检测方法,用于在线社交媒体评论的反讽检测。对于前者,我们认为单个句子包含强烈的情感变化。因此,我们往句子上的每个单词上都通过SenticNet附加了情感权重。同样,有的时候单个句子无法判断是否包含反讽。为了让句子和上下文进行信息交互,我们使用局部注意力机制,从上下文获取用户的个性特征,从而对句子进行反讽检测。最后,我们通过语义胶囊路由来实现两种反讽检测方式的结合。
发明内容
本发明的目的是针对现有技术的不足,以解决反讽检测分类效果不佳等问题,提供一种基于多层次语义胶囊路由的反讽检测方法。
为实现以上的技术目的,本发明将采取以下技术方案:
一种基于多层次语义胶囊路由的反讽检测方法,按照如下步骤进行:
步骤(1)使用GloVe对网络评论和上下文进行词向量嵌入,分别获得网络评论的文本特征和上下文的文本特征;
步骤(2)分别将网络评论和上下文的文本特征输入到Transformer模型中进行向量的转换,分别获得网络评论和上下文隐藏层特征;
步骤(3)通过CNN把获得网络评论的隐藏层特征转化为网络评论的池化特征;
步骤(4)把池化特征作为权重使用注意力机制对上下文的隐藏层特征进行权重偏移,获得新的隐藏层特征Ⅰ;
步骤(5)把网络评论的隐藏层特征与SenticNet中获得情感权重相结合,获得新的隐藏层特征Ⅱ;
步骤(6)把隐藏层特征Ⅰ和Ⅱ作为低层次的语义胶囊,进行EM路由获得高层次的语义胶囊;
步骤(7)把高层次的语义胶囊通过SoftMax获得最后的分类结果。
其中步骤(2),Transformer模型在得到文本的词向量的过程中,还需要获得文本词向量的相对位置。
本发明进一步限定的技术方案为:
进一步的,步骤(1)具体为:使用glove.840B.300d的词向量文件把SARC数据集中的网络评论和上下文进行词向量嵌入,获得一个维度为300维的词向量矩阵;
进一步的,步骤(2)具体为:把网络评论和上下文的文本特征输入到Transformer模型中获得上下文相关的网络评论和上下文的隐藏层特征;
进一步的,步骤(3)中,利用CNN网络模型对步骤(2)获得网络评论的隐藏层特征进行Max-pooling操作,获得网络评论的池化特征;
进一步的,步骤(4)包括:使用网络评论的池化特征对上下文的词向量特征进行权重的偏移。具体来说,我们使用了缩放点积的注意力机制,可以将它描述为将query和key映射到单词级的权重上。
query是上下文的隐藏层特征的平均向量,以及网络评论的池化特征的平均向量,通过可训练的参数转化为dk维:
key包括上下文的隐藏层特征和网络评论的池化特征,通过可训练的参数转化为dk维:
网络评论到上下文的交互注意力权重可以计算如下:
根据公式(12)获得新的隐藏层特征Ⅰ。
进一步的,步骤(5)包括:使用SenticNet获得网络评论中每个单词对应的情感权重,然后使用注意力机制把网络评论的情感权重与步骤(2)中获得的网络评论的隐藏层特征进行权重偏移,获得新的隐藏层特征Ⅱ。
进一步的,步骤(6)包括:把步骤(4)和步骤(5)的输出的隐藏层特征Ⅰ和隐藏层特征Ⅱ作为输入,创建低层次的语义胶囊。低层次的语义胶囊i包含激活概率和高层次输出两个部分;
进一步的,步骤(7)包括:对步骤(6)中得到的低层次的语义胶囊i进行EM路由,获得高层次的语义胶囊j。
首先,利用公式(13)、公式(14)和公式(15)计算出低层次语义胶囊i到高层次语义胶囊j的均值和方差:
Voteij=GiWij#(13)
其中,权重矩阵Wij是可训练的参数;Gi表示低层次的语义胶囊i的高层次输出,它是可训练的参数,它的初始值是低层次语义胶囊的输入;Rij表示低层次的语义胶囊i到高层次的语义胶囊j的分配概率;表示低层次语义胶囊i到高层次的语义胶囊j的输出d维的均值;表示低层次语义胶囊i到高层次的语义胶囊j的d维的方差。
然后,根据步骤6-1计算出的低层次的语义胶囊i到高层次的语义胶囊j的均值和方差来计算分配概率。低层次的语义胶囊i到高层次的语义胶囊j的概率密度如公式(16)所示:
其次,低层次的语义胶囊i到高层次的语义胶囊j的分配概率如公式(17):
最后,根据分配概率来更新低层次语义胶囊j的高层次输出。
对于计算低层次语义胶囊i的激活概率,我们根据低层次语义胶囊i到高层次的语义胶囊j的均值和方差,我们使用公式(17)和公式(18)来计算低层次语义胶囊i到高层次语义胶囊j的激活概率:
其中,βu和βv都是可训练的参数;λ是一个固定值,被设置为1e-3;aj是低层次语义胶囊i到高层次的语义胶囊j的激活概率。
因此,整个EM路由算法步骤可以总结为:
其中,M步骤的具体流程如下:
1:根据低层次语义胶囊i到高层次语义胶囊j的激活概率,来更新低层次的语义胶囊i到高层次的语义胶囊j的分配概率:R'ij=Rij*ai,其中i和j分别表示低层次语义胶囊和高层次语义胶囊。
2:根据公式(13)、(14)和(15)计算均值μj和方差σj;
3:根据公式(18)和(19)计算激活概率aj。
E步骤的流程如下:
1:根据公式(16)和(17)计算高层次语义胶囊j的概率密度pj,然后根据pj来低层次的语义胶囊i到高层次的语义胶囊j的分配概率Rij。
进一步的,步骤(8)包括:把高层次的语义胶囊通过SoftMax输出最后的分类结果。
本发明有益效果如下:
本发明有效解决了现有的反讽检测方法过于片面的问题。这个问题具体表现为目前的反讽检测方法只针对于当个网络评论进行反讽检测,或只结合上下文信息进行反讽检测。当网络评论中的情感变化幅度比较大时,加入上下文信息反而会导致结果出错;又当网络评论信息不充分时,无法检测出用户是否使用了讽刺和反语的修辞手法。但是,本发明提出的反讽检测方法同时考虑了这两种情况,我们首先利用SenticNet对网络评论进行情感权重的偏移,获取到了解决第一种情况的语义胶囊。然后,我们又通过CNN把网络评论和上下文信息进行融合,获得了用于第二种情况的语义胶囊。之后,我们用两种语义胶囊组成了低层次的语义胶囊层。最后,我们通过EM路由的方式,获得了高层次的语义胶囊层,使用SoftMax函数输出反讽检测的结果。
附图说明
图1是本发明工艺实施方案的具体流程图;
图2是本发明的模型流程示意图;
具体实施方式
附图非限制性的公开了本发明所涉及优选实施例的流程示意图;以下将结合附图详细的说明本发明的技术方案。
步骤(1)具体实现如下:使用glove.840B.300d的词向量文件把SARC数据集中的网络评论和上下文进行词向量嵌入,获得一个维度为300维的词向量矩阵;
步骤(2)具体实现如下:
将步骤(1)中获得的上下文的文本特征和网络评论的文本特征输入到Transformer中获得上下文的隐藏层特征和网络评论的隐藏层特征,Transformer模型序列化传导模型不同于传统的模型(LSTM或GRU),它可以获得有效地获取长文本的上下文相关的文本特征,它原理如下具体实现如下:
大部分神经序列转导模型都有一个编码器-解码器结构。这里,编码器映射一个用符号表示的输入序列x1,…,xn到一个连续的表示z=(z1,…,zn)。根据z,解码器生成符号的一个输出序列(y1,…,ym),一次一个元素。在每一步中,模型都是自回归的,当生成下一个时,消耗先前生成的符号作为附加输入。
Transformer模型中编码器和解码器都使用self-attention堆叠和point-wise、完全连接的层。Attention函数可以描述为将query和一组key-value对映射到输出,其中query、key、value和输出都是向量。输出为value的加权和,其中分配给每个value的权重通过query与相应key的兼容函数来计算。
这里的attention为“缩放版的点积attention”。输入由query、dk维的key和dv维的value组成。我们计算query和所有key的点积、用相除,然后应用一个SoftMax函数以获得值的权重。在实践中,我们同时计算一组query的attention函数,并将它们组合成一个矩阵Q。key和value也一起打包成矩阵K和V。计算输出矩阵为:
多头注意力机制允许模型的不同表示子空间联合关注不同位置的信息。如果只有一个注意力头部,它的平均值会削弱这个信息。
MultiHead(Q,K,V)=Concat(head1,…,headn)WO#(24)
除了attention子层之外,编码器和解码器中的每个层都包含一个完全连接的前馈网络,该前馈网络单独且相同地应用于每个位置。它由两个线性变换组成,之间有一个ReLU激活。
FFN(x)=max(0,xW1+b1)W2+b2#(25)
其中,x是输入,W1,W2是可训练的权重参数,b1,b2是可训练的偏置参数。
由于Transformer不包含循环和卷积,为了让模型利用序列的顺序,模型必须注入序列中关于词符相对或者绝对位置的一些信息。为此,模型将“位置编码”添加到编码器和解码器堆栈底部的输入嵌入中。位置编码和嵌入的维度dmodel相同,所以它们俩可以相加。有多种位置编码可以选择,例如通过学习得到的位置编码和固定的位置编码。在这项工作中,模型使用不同频率的正弦和余弦函数:
其中pos是位置,i是维度,dmodel表示模型的维度。
在步骤(3)中,将步骤(2)获得的网络评论的隐藏层特征,使用CNN进行特征提取,然后通过Max-Pooling获得网络评论的池化特征。
在步骤(4)中,使用步骤(3)中获得的网络评论的池化特征,对上下文的隐藏层特征进行权重偏移。具体来说,我们使用了缩放点积的注意力机制,将注意力机制描述为将query和key映射到单词级别的权重上。
query包括上下文的隐藏层特征的平均向量,以及网络评论的池化特征的平均向量,通过可训练的参数转化为dk维:
key包括上下文的隐藏层特征和网络评论的池化特征,通过可训练的参数转化为dk维:
网络评论到上下文的交互注意力权重可以计算如下:
在步骤(5)中,使用SenticNet获得网络评论中每个单词对应的情感权重,然后使用注意力机制把网络评论的情感权重与步骤(2)中获得的网络评论的隐藏层特征进行权重偏移,获得新的隐藏层特征Ⅱ。
在步骤(6)中,把步骤(4)和步骤(5)的输出的隐藏层特征Ⅰ和隐藏层特征Ⅱ作为输入,创建低层次的语义胶囊。低层次的语义胶囊i包含激活概率和高层次输出两个部分。
在步骤(7)中,为了获得高层次的语义胶囊j,我们对低层次的语义胶囊i进行EM路由,它的具体过程实现如下:
首先,我们利用公式(13)、公式(14)和公式(15)计算出低层次语义胶囊i到高层次语义胶囊j的均值和方差:
Voteij=GiWij#(13)
其中,权重矩阵Wij是可训练的参数;Gi表示低层次的语义胶囊i的高层次输出,它是可训练的参数,它的初始值是低层次语义胶囊的输入;Rij表示低层次的语义胶囊i到高层次的语义胶囊j的分配概率;表示低层次语义胶囊i到高层次的语义胶囊j的输出d维的均值;表示低层次语义胶囊i到高层次的语义胶囊j的d维的方差。
我们根据6-1计算出的低层次的语义胶囊i到高层次的语义胶囊j的均值和方差来计算分配概率。低层次的语义胶囊i到高层次的语义胶囊j的概率密度如公式(16)所示:
其次,低层次的语义胶囊i到高层次的语义胶囊j的分配概率如公式(17):
最后,根据分配概率来更新低层次语义胶囊j的高层次输出。
根据低层次语义胶囊i到高层次的语义胶囊j的均值和方差,我们使用公式(17)和公式(18)来计算低层次语义胶囊i到高层次语义胶囊j的激活概率:
其中,βu和βv都是可训练的参数;λ是一个固定值,被设置为1e-3;aj是低层次语义胶囊i到高层次的语义胶囊j的激活概率。
因此,整个EM路由算法步骤可以总结为:
其中,M步骤的具体流程如下:
1:根据低层次语义胶囊i到高层次语义胶囊j的激活概率,来更新低层次的语义胶囊i到高层次的语义胶囊j的分配概率:R'ij=Rij*ai,其中i和j分别表示低层次语义胶囊和高层次语义胶囊。
2:根据公式(13)、(14)和(15)计算均值μj和方差σj;
3:根据公式(18)和(19)计算激活概率aj。
E步骤的流程如下:
1:根据公式(16)和(17)计算高层次语义胶囊j的概率密度pj,然后根据pj来低层次的语义胶囊i到高层次的语义胶囊j的分配概率Rij。
在步骤(8)中,把高层次的语义胶囊j通过SoftMax函数输出最后的分类结果。
Claims (7)
1.一种基于多层次语义胶囊路由的反讽检测方法,其特征在于包括如下步骤:
步骤(1)使用GloVe对网络评论和上下文进行词向量嵌入,分别获得网络评论的文本特征和上下文的文本特征;
步骤(2)分别将网络评论和上下文的文本特征输入到Transformer模型中进行向量的转换,分别获得网络评论的隐藏层特征和上下文的隐藏层特征;
步骤(3)通过CNN把网络评论的隐藏层特征转化为网络评论的池化特征;
步骤(4)把池化特征作为权重使用注意力机制对上下文的隐藏层特征进行权重偏移,获得新的隐藏层特征Ⅰ;
步骤(5)把网络评论的隐藏层特征与SenticNet中获得的情感权重相结合,获得新的隐藏层特征Ⅱ;
步骤(6)把隐藏层特征Ⅰ和Ⅱ作为低层次的语义胶囊,进行EM路由获得高层次的语义胶囊;
步骤(7)最后把高层次的语义胶囊通过SoftMax函数获得最后的分类结果。
2.根据权利要求1或2所述的一种基于多层次语义胶囊路由的反讽检测方法,其特征在于步骤(1)具体:使用glove.840B.300d的词向量文件把SARC数据集中的网络评论和上下文进行词向量嵌入,获得一个维度为300维的词向量矩阵。
3.根据权利要求2所述的一种基于多层次语义胶囊路由的反讽检测方法,其特征在于步骤(3)中,利用CNN网络模型对步骤(2)获得的网络评论的隐藏层特征进行Max-pooling操作,获得网络评论的池化特征。
4.根据权利要求3所述的一种基于多层次语义胶囊路由的反讽检测方法,其特征在于步骤(4)所述的把网络评论的池化特征作为权重使用注意力机制对上下文的隐藏层特征进行权重偏移,获得新的隐藏层特征Ⅰ,具体实现如下:
4-1.使用网络评论的池化特征对上下文的隐藏层特征进行词向量的偏移,具体:使用缩放点积的注意力机制,将注意力机制描述为将query和key映射到单词级别的权重上;
query包括上下文的隐藏层特征的平均向量,以及网络评论的池化特征的平均向量,通过可训练的参数转化为dk维:
key包括上下文的隐藏层特征和网络评论的池化特征,通过可训练的参数转化为dk维:
4-2.网络评论和上下文的交互注意力权重计算如下:
4-3.根据公式(12)获得新的隐藏层特征Ⅰ;
5.根据权利要求4所述的一种基于多层次语义胶囊路由的反讽检测方法,其特征在于步骤(5)把池化特征与SenticNet中获得的情感权重相结合,获得新的隐藏层特征Ⅱ,具体如下:
使用SenticNet获得网络评论中每个单词对应的情感权重,然后使用注意力机制把网络评论的情感权重与步骤(2)中获得的网络评论的隐藏层特征进行权重偏移,获得新的隐藏层特征Ⅱ。
6.根据权利要求5所述的一种基于多层次语义胶囊路由的反讽检测方法,其特征在于步骤(6):把步骤(4)和步骤(5)的输出的隐藏层特征Ⅰ和隐藏层特征Ⅱ作为输入,创建低层次的语义胶囊;低层次的语义胶囊i包含激活概率和高层次输出两个部分;为了获得高层次的语义胶囊j,对低层次的语义胶囊i进行EM路由,它的具体过程实现如下:
6-1.首先利用公式(13)、公式(14)和公式(15)计算出低层次语义胶囊i到高层次语义胶囊j的均值和方差:
Voteij=GiWij#(13)
其中,权重矩阵Wij是可训练的参数;Gi表示低层次的语义胶囊i的高层次输出,它是可训练的参数,它的初始值是低层次语义胶囊的输入;Rij表示低层次的语义胶囊i到高层次的语义胶囊j的分配概率;表示低层次语义胶囊i到高层次的语义胶囊j的输出d维的均值;表示低层次语义胶囊i到高层次的语义胶囊j的d维的方差;
6-2.根据步骤6-1计算出的低层次的语义胶囊i到高层次的语义胶囊j的均值和方差来计算分配概率;低层次的语义胶囊i到高层次的语义胶囊j的概率密度如公式(16)所示:
其次,低层次的语义胶囊i到高层次的语义胶囊j的分配概率如公式(17):
最后,根据分配概率来更新低层次语义胶囊j的高层次输出;
6-3.根据低层次语义胶囊i到高层次的语义胶囊j的均值和方差,使用公式(17)和公式(18)来计算低层次语义胶囊i到高层次语义胶囊j的激活概率:
其中,βu和βv都是可训练的参数;λ是一个固定值,被设置为1e-3;aj是低层次语义胶囊i到高层次的语义胶囊j的激活概率。
7.根据权利要求6所述的一种基于多层次语义胶囊路由的反讽检测方法,其特征在于对低层次的语义胶囊i进行EM路由,获得高层次的语义胶囊j,整体流程如下:
④对下面的公式(20)和公式(21)分别重复进行r次迭代:
其中公式(20)的具体实现流程如下:
(1)根据低层次语义胶囊i到高层次语义胶囊j的激活概率,来更新低层次的语义胶囊i到高层次的语义胶囊j的分配概率:R'ij=Rij*ai,其中i和j分别表示低层次语义胶囊和高层次语义胶囊;
(2)根据公式(13)、(14)和(15)计算均值μj和方差σj;
(3)根据公式(18)和(19)计算激活概率aj;
其中公式(21)的具体实现流程如下:
根据公式(16)和(17)计算高层次语义胶囊j的概率密度pj,然后根据pj来低层次的语义胶囊i到高层次的语义胶囊j的分配概率Rij。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010141031.4A CN111507101B (zh) | 2020-03-03 | 2020-03-03 | 一种基于多层次语义胶囊路由的反讽检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010141031.4A CN111507101B (zh) | 2020-03-03 | 2020-03-03 | 一种基于多层次语义胶囊路由的反讽检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111507101A true CN111507101A (zh) | 2020-08-07 |
CN111507101B CN111507101B (zh) | 2020-12-15 |
Family
ID=71868984
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010141031.4A Active CN111507101B (zh) | 2020-03-03 | 2020-03-03 | 一种基于多层次语义胶囊路由的反讽检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111507101B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112069804A (zh) * | 2020-09-08 | 2020-12-11 | 天津大学 | 基于动态路由的交互式胶囊网络的隐式篇章关系识别方法 |
CN112287197A (zh) * | 2020-09-23 | 2021-01-29 | 昆明理工大学 | 动态记忆案件描述的涉案微博评论讽刺句检测方法 |
CN118671517A (zh) * | 2024-08-22 | 2024-09-20 | 四川轻化工大学 | 一种基于改进胶囊网络的柔性直流配电网故障选线方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106997370A (zh) * | 2015-08-07 | 2017-08-01 | 谷歌公司 | 基于作者的文本分类和转换 |
CN110059741A (zh) * | 2019-04-15 | 2019-07-26 | 西安电子科技大学 | 基于语义胶囊融合网络的图像识别方法 |
CN110334210A (zh) * | 2019-05-30 | 2019-10-15 | 哈尔滨理工大学 | 一种基于bert与lstm、cnn融合的中文情感分析方法 |
CN110765269A (zh) * | 2019-10-30 | 2020-02-07 | 华南理工大学 | 基于动态词向量和层级神经网络的文档级情感分类方法 |
US10565305B2 (en) * | 2016-11-18 | 2020-02-18 | Salesforce.Com, Inc. | Adaptive attention model for image captioning |
CN110825848A (zh) * | 2019-06-10 | 2020-02-21 | 北京理工大学 | 一种基于短语向量的文本分类方法 |
-
2020
- 2020-03-03 CN CN202010141031.4A patent/CN111507101B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106997370A (zh) * | 2015-08-07 | 2017-08-01 | 谷歌公司 | 基于作者的文本分类和转换 |
US10565305B2 (en) * | 2016-11-18 | 2020-02-18 | Salesforce.Com, Inc. | Adaptive attention model for image captioning |
CN110059741A (zh) * | 2019-04-15 | 2019-07-26 | 西安电子科技大学 | 基于语义胶囊融合网络的图像识别方法 |
CN110334210A (zh) * | 2019-05-30 | 2019-10-15 | 哈尔滨理工大学 | 一种基于bert与lstm、cnn融合的中文情感分析方法 |
CN110825848A (zh) * | 2019-06-10 | 2020-02-21 | 北京理工大学 | 一种基于短语向量的文本分类方法 |
CN110765269A (zh) * | 2019-10-30 | 2020-02-07 | 华南理工大学 | 基于动态词向量和层级神经网络的文档级情感分类方法 |
Non-Patent Citations (2)
Title |
---|
JIANFENG ZHAO 等: ""Speech emotion recognition using deep 1D & 2D CNN LSTM networks"", 《BIOMEDICAL SIGNAL PROCESSING AND CONTROL》 * |
任智慧 等: ""基于LSTM网络的序列标注中文分词法"", 《计算机应用研究》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112069804A (zh) * | 2020-09-08 | 2020-12-11 | 天津大学 | 基于动态路由的交互式胶囊网络的隐式篇章关系识别方法 |
CN112069804B (zh) * | 2020-09-08 | 2023-12-19 | 天津大学 | 基于动态路由的交互式胶囊网络的隐式篇章关系识别方法 |
CN112287197A (zh) * | 2020-09-23 | 2021-01-29 | 昆明理工大学 | 动态记忆案件描述的涉案微博评论讽刺句检测方法 |
CN112287197B (zh) * | 2020-09-23 | 2022-07-19 | 昆明理工大学 | 动态记忆案件描述的涉案微博评论讽刺句检测方法 |
CN118671517A (zh) * | 2024-08-22 | 2024-09-20 | 四川轻化工大学 | 一种基于改进胶囊网络的柔性直流配电网故障选线方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111507101B (zh) | 2020-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107943784B (zh) | 基于生成对抗网络的关系抽取方法 | |
CN111507101B (zh) | 一种基于多层次语义胶囊路由的反讽检测方法 | |
CN110796160B (zh) | 一种文本分类方法、装置和存储介质 | |
CN109815476B (zh) | 一种基于中文语素和拼音联合统计的词向量表示方法 | |
CN113987187B (zh) | 基于多标签嵌入的舆情文本分类方法、系统、终端及介质 | |
CN106991085A (zh) | 一种实体的简称生成方法及装置 | |
Srikanth et al. | Extractive text summarization using dynamic clustering and co-reference on BERT | |
CA3135717A1 (en) | System and method for transferable natural language interface | |
CN112100401B (zh) | 面向科技服务的知识图谱构建方法、装置、设备及存储介质 | |
CN110781306A (zh) | 一种英文文本的方面层情感分类方法及系统 | |
KR102024845B1 (ko) | 화행 분석 장치 및 방법 | |
CN111368082A (zh) | 一种基于层次网络的领域自适应词嵌入的情感分析方法 | |
CN115204143B (zh) | 一种基于prompt的文本相似度计算方法及系统 | |
CN114372475A (zh) | 一种基于RoBERTa模型的网络舆情情感分析方法及系统 | |
CN115759092A (zh) | 一种基于albert的网络威胁情报命名实体识别方法 | |
CN114385806A (zh) | 一种基于深度学习的文本摘要方法及系统 | |
CN113486645A (zh) | 一种基于深度学习的文本相似度检测方法 | |
CN113012822A (zh) | 一种基于生成式对话技术的医疗问答系统 | |
Rhyu et al. | Translating melody to chord: Structured and flexible harmonization of melody with transformer | |
CN117972033A (zh) | 大模型幻觉检测方法、装置、计算机设备及存储介质 | |
CN115018941A (zh) | 一种基于改进版文本解析器的文本至图像生成算法 | |
CN114282592A (zh) | 一种基于深度学习的行业文本匹配模型方法及装置 | |
CN112463935A (zh) | 一种带有强泛化知识选择的开放域对话生成方法及模型 | |
CN113051897B (zh) | 一种基于Performer结构的GPT2文本自动生成方法 | |
CN110633363A (zh) | 一种基于nlp和模糊多准则决策的文本实体推荐方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
EE01 | Entry into force of recordation of patent licensing contract |
Application publication date: 20200807 Assignee: Hangzhou Yuanchuan New Technology Co.,Ltd. Assignor: HANGZHOU DIANZI University Contract record no.: X2021330000781 Denomination of invention: An irony detection method based on multi-level semantic capsule routing Granted publication date: 20201215 License type: Common License Record date: 20211206 |
|
EE01 | Entry into force of recordation of patent licensing contract |