CN110807320B - 基于cnn双向gru注意力机制的短文本情感分析方法 - Google Patents
基于cnn双向gru注意力机制的短文本情感分析方法 Download PDFInfo
- Publication number
- CN110807320B CN110807320B CN201911092403.2A CN201911092403A CN110807320B CN 110807320 B CN110807320 B CN 110807320B CN 201911092403 A CN201911092403 A CN 201911092403A CN 110807320 B CN110807320 B CN 110807320B
- Authority
- CN
- China
- Prior art keywords
- word
- emotion
- cnn
- vector
- gru
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 103
- 230000007246 mechanism Effects 0.000 title claims abstract description 29
- 238000004458 analytical method Methods 0.000 title claims abstract description 26
- 230000002457 bidirectional effect Effects 0.000 title claims abstract description 26
- 239000013598 vector Substances 0.000 claims abstract description 47
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 30
- 239000011159 matrix material Substances 0.000 claims abstract description 24
- 238000012512 characterization method Methods 0.000 claims abstract description 23
- 238000011176 pooling Methods 0.000 claims abstract description 12
- 125000004122 cyclic group Chemical group 0.000 claims abstract description 10
- 238000013528 artificial neural network Methods 0.000 claims abstract description 9
- 238000012549 training Methods 0.000 claims abstract description 8
- 238000005070 sampling Methods 0.000 claims abstract description 7
- 230000011218 segmentation Effects 0.000 claims abstract description 7
- 238000007781 pre-processing Methods 0.000 claims abstract description 6
- 238000000034 method Methods 0.000 claims description 21
- 230000004913 activation Effects 0.000 claims description 2
- 238000013507 mapping Methods 0.000 claims 1
- 230000006870 function Effects 0.000 description 5
- 238000002372 labelling Methods 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Machine Translation (AREA)
Abstract
一种基于CNN双向GRU注意力机制的短文本情感分析方法,包括:对短文本预处理,除噪、分词、词性标注、去除停用词;通过连续词袋模型(CBOW)将句子以词为单位通过负采样训练表示成一个词序列,并将其映射为一个多维向量来构造词向量集合;计算情感词在不同数据集文档出现频数计算情感分值继而转化成情感特征向量矩阵;词嵌入与特征嵌入拓扑作为卷积神经网络输入,通过卷积,池化得到句子表征;通过双向GRU循环神经网络,把否定词转折词设置为注意力机制的参数查询项来获取表征;两种表征拓扑结合作为全连接层输入,输出情感分析结果。
Description
技术领域
本发明属于自然语言处理领域,尤其涉及一种基于CNN双向GRU注意力机制的短文本情感分析方法
背景技术
随着互联网的高速发展,越来越多的用户通过社交媒体表达自己的观点抒发自己的情感评论,其中大多数评论以短文本的形式存在。热点事件会引起社会的广泛关注讨论,及时掌握舆情导向,获取用户情感倾向是一个极具挑战性任务。
情感分析通过对文本的预处理,分析,挖掘用户的情感倾向,可以了解到大众对热点事件的情感变化,也是自然语言处理的重要方向之一。情感分析研究方法主要分为基于词典的方法,基于机器学习的方法,基于深度学习的方法。基于词典的方法主要依赖于词典的构建与选择判断句子情感极性,不同的词语有着不用的情感得分,对句子情感分类的贡献度不同,但因其领域适应性较差,通常作为辅助方法。基于机器学习的方法依赖选取有效特征组合利用分类器进行情感分类,但这种方法需要大量人工标注数据集来训练模型,费时费力。基于深度学习的方法,可以挖掘深层的语义情感含义,应用广泛,但是有监督的深度学习仍需要大量标注,而无监督方法对于文本的语义关联要求较高,其中否定词、程度副词、转折词等的使用可能导致句子的情感极性偏移影响情感分析结果准确性,还需进一步发展改进。
发明内容
本发明针对上述问题:本发明提供一种基于CNN双向GRU注意力机制的短文本情感分析方法。充分利用情感词自身信息,根据情感词在数据集内不同极性的句子中出现的频率来计算情感得分得出情感特征向量矩阵融入卷积网络;对影响句子极性的否定词、转折词通过双向GRU注意力机制深入获取句子表征,从而提高情感分析结果的准确性;减少人工标注环节极大节省工时。
为实现上述目的,提出本发明的技术方案:基于CNN双向GRU注意力机制的短文本情感分析方法,根据情感词在数据集内不同极性的句子中出现的频率来计算情感得分,融入卷积神经网络,对影响句子极性的否定词转折词通过双向GRU注意力机制深入获取句子表征,从而提高情感分析结果的准确性。
本发明的技术方案包括:对短文本预处理,除噪、分词、词性标注、去除停用词;通过连续词袋模型(CBOW)将句子以词为单位通过负采样训练表示成一个词序列,并将其映射为一个多维向量来构造词向量集合;计算情感词在不同数据集文档出现频数计算情感分值继而转化成特征向量;词嵌入与特征嵌入拓扑作为卷积神经网络输入,卷积,池化得到句子表征;通过双向GRU循环神经网络,把否定词转折词设置为注意力机制的参数查询项来获取表征;两种表征拓扑结合作为全连接层输入,输出情感分析结果。
具体步骤如下:
(1)对短文本预处理,除噪、分词、词性标注、去除停用词。用中科院分词系统(NLPIR)对句子进行分词、词性标注,用哈工大停用词库去除停用词。
(2)通过连续词袋模型(CBOW)将句子以词为单位通过负采样训练表示成一个词序列,并将其映射为一个多维向量来构造词向量集合。即每一个词wi都会由一个多维的向量qi表示。
(3)计算情感词在不同数据集文档出现频数计算情感分值继而转化成特征向量。
使用Hownet情感词典,wi为情感词典的第i个情感词,为包含情感词wi的积极情感数据样本个数,为包含情感词wi的消极情感数据样本个数,F(wi)为情感词wi在数据集上的文档频数。Fmin为最小文档频数,Fmax为最大文档频数,S(wi)为包含情感词wi的情感得分。β、k为可调参数。对每一个情感词wi都会得到情感得S(wi)分值继而得到一个多维的连续值向量e(wi)。
(4)词嵌入与特征嵌入拓扑作为卷积神经网络输入,卷积,池化得到句子表征。若wi词为情感词,词嵌入与特征嵌入拓扑得出为xi,CNN可接收句子的平行化输入,卷积窗口长度为h,通过卷积核对输入矩阵x1:n进行卷积操作可得到卷积后特征向量:c=[c1,c2,…,cn-h+1]。
(5)通过双向GRU循环神经网络,把否定词转折词设置为注意力机制的参数查询项来获取表征。具体步骤如附图3所示。词嵌入表征经过双向GRU网络输出句子的隐含层表征向量ε。门控循环单元(GRU)如图2所示:
将否定词、转折词和程度副词作为参数化查询项va,由双向GRU网络输出的句子表征和参数化查询项va得到M,由M和参数化查询项va得到权重αi,由αi和εi得到关于否定词、转折词和程度副词作为参数化查询项注意力机制的特征向量&。
M=tanh(wsεi+wtva)
其中ws为特性向量εi的可调节权重矩阵,wt为参数化查询项va的可调节权重矩阵,MT为权重矩阵M的转置矩阵。
其中wp为权重矩阵,y为偏置项,soft max为CNN网络全连接层的回归函数,值域为[0,1]。
有益效果:
本发明提供一种基于CNN双向GRU注意力机制的短文本情感分析方法。充分利用情感词自身信息,根据情感词在数据集内不同极性的句子中出现的频率来计算情感得分得出情感特征向量矩阵融入卷积网络;对影响句子极性的否定词、转折词通过双向GRU注意力机制深入获取句子表征,从而提高情感分析结果的准确性;减少人工标注环节极大节省工时。
附图说明
图1本发明的方法流程图。
图2为本发明GRU网络内部结构图;
图3本发明双向GRU网络注意力机制模型。
具体实施方式
下面结合附图和具体实施方式对本发明进行描述。
其中,附图1描述了基于CNN双向GRU注意力机制的短文本情感分析方法方法处理过程。
如图1所示,本发明具体的实现步骤:
(1)对短文本预处理,除噪、分词、词性标注、去除停用词。用中科院分词系统(NLPIR)对句子进行分词、词性标注,用哈工大停用词库去除停用词。
(2)通过连续词袋模型(CBOW)将句子以词为单位训练表示成一个词序列,并将其映射为一个多维向量来构造词向量集合。连续词袋模型是Word2vec词嵌入的一种,基于某中心词在文本序列前后的背景词来生成该中心词,构建词向量矩阵。即每一个词wi都会由一个多维的向量qi表示。Word2vec词嵌入的训练方法主要有二次采样和负采样,负采样即对于一对中心词和背景词随机采样K个噪声词来进行近似训练,通过考虑同时含有正类样本和负类样本的相互独立事件来构造损失函数。每次让一个训练样本只更新部分权重,其他权重全部固定;减少计算量。
(3)计算情感词在不同数据集文档出现频数计算情感分值继而转化成特征向量。
使用Hownet情感词典,wi为情感词典的第i个情感词,为包含情感词wi的积极情感数据样本个数,为包含情感词wi的消极情感数据样本个数,F(wi)为情感词wi在数据集上的文档频数。Fmin为最小文档频数,Fmax为最大文档频数,S(wi)为包含情感词wi的情感得分。β、k为可调参数。对每一个情感词wi都会得到情感得S(wi)分值继而得到一个多维的连续值向量e(wi)。
(4)词嵌入与特征嵌入拓扑作为卷积神经网络输入,卷积,池化得到句子表征。若wi词为情感词,词嵌入与特征嵌入拓扑得出为:
CNN可接收句子的平行化输入,卷积窗口长度为h,通过卷积核对输入矩阵x1:n进行卷积操作:
ci=f(w·xi:i+h+1+b)
其中,w∈Rh×l为卷积核权重,l为xi的维度,b为偏置项,f为激活函数,xi:i+h+1为一个卷积窗口的词向量矩阵。长度为n的句子通过卷积操作可得到卷积后特征向量:c=[c1,c2,…,cn-h+1],其中c∈Rn-h+1。
(5)门控循环单元(GRU)如图2所示,图中更新门用于控制前一时刻的状态信息被带入到当前状态中的程度,更新门的值越大说明前一时刻的状态信息带入越多。重置门控制前一状态有多少信息被写入到当前的候选隐藏状态上,重置门越小,前一状态的信息被写入的越少。候选隐藏状态来辅助稍后的隐藏状态计算,如果重置门中元素值接近0,那么意味着重置对应隐藏状态元素为0,即丢弃上一时间步的隐藏状态。如果元素值接近1,那么表示保留上-时间步的隐藏状态。设隐藏单元个数为h,给定时间步t的小批量输入Xt∈Rn×d(样本数为n,输入个数为d和上一时间步隐藏状态Ht-1∈Rn×h。重置门Rt∈Rn×h和更新门Zt∈Rn×h的计算如下:
Rt=σ(XtWxr+Ht-1Whr+br)
Zt=σ(XtWxz+Ht-1Whz+bz)
其中Wxh∈Rd×h和Whh∈Rh×h是权重参数,bh∈R1×h是偏差参数;
时间步t的隐藏状态Ht∈Rn×h为:
通过双向GRU循环神经网络,把否定词转折词设置为注意力机制的参数查询项来获取表征。具体步骤如附图3所示。词嵌入表征经过双向GRU网络输出句子的隐含层表征向量ε。
将否定词、转折词和程度副词作为参数化查询项va注意力嵌入,由双向GRU网络输出的句子表征和参数化查询项va得到M,由M和参数化查询项va得到特征权重αi,最终由特征权重αi和双向GRU网络输出的表征εi得到关于否定词、转折词和程度副词作为参数化查询项注意力机制的特征向量&。
M=tanh(wsεi+wtva)
其中ws为特性向量εi的可调节权重矩阵,wt为参数化查询项va的可调节权重矩阵,MT为权重矩阵M的转置矩阵。
其中wp为权重矩阵,y为偏置项,soft max为CNN网络全连接层的回归函数,值域为[0,1],因而每个短文本最后输出的概率结果P值域为[0,1],即转换为一个二分类问题,以0.5为预值,概率大于0.5的为一类,概率小于0.5的为另一类,与之对应的分类是消极和积极,示例如表1所示。
表1经典短文本分析
尽管上面对本发明说明性的具体实施方式进行了描述,以便于本技术领域的技术人员理解本发明,且应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
Claims (5)
1.一种基于CNN双向GRU注意力机制的短文本情感分析方法,其特征在于:所述包括以下步骤:
步骤(1)对短文本预处理,除噪、分词、词性标注、去除停用词,用中科院分词系统(NLPIR)对句子进行分词、词性标注,用哈工大停用词库去除停用词;
步骤(2)通过连续词袋模型(CBOW)将句子以词为单位通过负采样训练表示成一个词序列,并将其映射为一个多维向量来构造词向量集合;
步骤(3)计算情感词在不同数据集文档出现频数计算情感分值继而转化成情感特征向量矩阵;
步骤(4)词嵌入与特征嵌入拓扑作为卷积神经网络输入,通过卷积,池化得到句子表征;
步骤(5)通过双向GRU循环神经网络,把否定词转折词设置为注意力机制的参数查询项来获取表征;所述步骤(5)中,通过双向GRU循环神经网络,把否定词转折词设置为注意力机制的参数查询项来获取表征,词嵌入表征经过双向GRU网络输出句子的隐含层表征向量ε,门控循环单元(GRU)表示为:
将否定词、转折词和程度副词作为参数化查询项va,由双向GRU网络输出的表征和参数化查询项va得到M,由M和参数化查询项va得到权重αi,由αi和εi得到关于否定词、转折词和程度副词作为参数化查询项注意力机制的特征向量&;
M=tanh(wsεi+wtva)
其中ws为特性向量εi的可调节权重矩阵,wt为参数化查询项va的可调节权重矩阵,MT为权重矩阵M的转置矩阵;
步骤(6)两种表征拓扑结合作为全连接层输入,输出情感分析结果。
2.根据权利要求1所述的基于CNN双向GRU注意力机制的短文本情感分析方法,其特征在于:
所述步骤(2)中,CBOW即连续词袋模型是Word2vec词嵌入的一种,基于某中心词在文本序列前后的背景词来生成该中心词,构建词向量矩阵,即每一个词wi都会由一个多维的向量qi表示。
4.根据权利要求1所述的基于CNN双向GRU注意力机制的短文本情感分析方法,其特征在于:
所述步骤(4)中,词嵌入与特征嵌入拓扑作为卷积神经网络输入,卷积,池化得到句子表征;具体包括:
若wi词为情感词,词嵌入与特征嵌入拓扑得出为:
CNN接收句子的平行化输入,卷积窗口长度为h,通过卷积核对输入矩阵x1:n进行卷积操作:
ci=f(w·xi:i+h+1+b)
其中,w∈Rh×l为卷积核权重,l为xi的维度,b为偏置项,f为激活函数,xi:i+h+1为一个卷积窗口的词向量矩阵;长度为n的句子通过卷积操作可得到卷积后特征向量:c=[c1,c2,···,cn-h+1],其中c∈Rn-h+1;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911092403.2A CN110807320B (zh) | 2019-11-11 | 2019-11-11 | 基于cnn双向gru注意力机制的短文本情感分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911092403.2A CN110807320B (zh) | 2019-11-11 | 2019-11-11 | 基于cnn双向gru注意力机制的短文本情感分析方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110807320A CN110807320A (zh) | 2020-02-18 |
CN110807320B true CN110807320B (zh) | 2023-05-19 |
Family
ID=69501752
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911092403.2A Active CN110807320B (zh) | 2019-11-11 | 2019-11-11 | 基于cnn双向gru注意力机制的短文本情感分析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110807320B (zh) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111696674B (zh) * | 2020-06-12 | 2023-09-08 | 电子科技大学 | 一种电子病历的深度学习方法及系统 |
CN111881291A (zh) * | 2020-06-19 | 2020-11-03 | 山东师范大学 | 一种文本情感分类方法及系统 |
CN112559842A (zh) * | 2020-07-07 | 2021-03-26 | 武汉纺织大学 | 基于深度学习注意力机制的电商评论数据分析方法及装置 |
CN112507723B (zh) * | 2020-12-03 | 2024-06-18 | 南京理工大学 | 基于多模型融合的新闻情感分析方法 |
CN112507115B (zh) * | 2020-12-07 | 2023-02-03 | 重庆邮电大学 | 一种弹幕文本中情感词的分类方法、装置及存储介质 |
CN112528672B (zh) * | 2020-12-14 | 2021-07-30 | 北京邮电大学 | 一种基于图卷积神经网络的方面级情感分析方法及装置 |
CN112598044B (zh) * | 2020-12-17 | 2024-04-02 | 中山大学 | 一种基于多通道图卷积的文本分类方法 |
CN112504971B (zh) * | 2021-02-08 | 2021-04-20 | 湖北鑫英泰系统技术股份有限公司 | 一种变压器油中特征气体的光声光谱识别方法与装置 |
CN113761910A (zh) * | 2021-03-17 | 2021-12-07 | 中科天玑数据科技股份有限公司 | 一种融合情感特征的评论文本细粒度情感分析方法 |
CN113033212B (zh) * | 2021-03-31 | 2024-04-30 | 中国邮政储蓄银行股份有限公司 | 文本数据处理方法及装置 |
CN113392881B (zh) * | 2021-05-27 | 2023-04-18 | 重庆大学 | 一种基于迁移学习的旋转机械故障诊断方法 |
CN113869065B (zh) * | 2021-10-15 | 2024-04-12 | 梧州学院 | 一种基于“单词-短语”注意力机制的情感分类方法和系统 |
CN115935075B (zh) * | 2023-01-30 | 2023-08-18 | 杭州师范大学钱江学院 | 融合推文信息和行为特征的社交网络用户抑郁症检测方法 |
CN116362237B (zh) * | 2023-04-17 | 2024-07-19 | 内蒙古工业大学 | 一种混合策略感知的文本情感强度标注方法及系统 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA3047353C (en) * | 2017-01-06 | 2023-05-23 | The Toronto-Dominion Bank | Learning document embeddings with convolutional neural network architectures |
CN108763326B (zh) * | 2018-05-04 | 2021-01-12 | 南京邮电大学 | 一种基于特征多样化的卷积神经网络的情感分析模型构建方法 |
CN110097089A (zh) * | 2019-04-05 | 2019-08-06 | 华南理工大学 | 一种基于注意力组合神经网络的文档级别的情感分类方法 |
-
2019
- 2019-11-11 CN CN201911092403.2A patent/CN110807320B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN110807320A (zh) | 2020-02-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110807320B (zh) | 基于cnn双向gru注意力机制的短文本情感分析方法 | |
CN112001185B (zh) | 一种结合中文句法和图卷积神经网络的情感分类方法 | |
CN108763326B (zh) | 一种基于特征多样化的卷积神经网络的情感分析模型构建方法 | |
CN111209738B (zh) | 一种联合文本分类的多任务命名实体识别方法 | |
CN108363743B (zh) | 一种智能问题生成方法、装置和计算机可读存储介质 | |
CN112001187B (zh) | 一种基于中文句法和图卷积神经网络的情感分类系统 | |
CN111160037B (zh) | 一种支持跨语言迁移的细粒度情感分析方法 | |
CN109325231B (zh) | 一种多任务模型生成词向量的方法 | |
CN106980608A (zh) | 一种中文电子病历分词和命名实体识别方法及系统 | |
CN112487143A (zh) | 一种基于舆情大数据分析的多标签文本分类方法 | |
CN106980609A (zh) | 一种基于词向量表示的条件随机场的命名实体识别方法 | |
CN110287323B (zh) | 一种面向目标的情感分类方法 | |
CN111274790B (zh) | 基于句法依存图的篇章级事件嵌入方法及装置 | |
CN111368086A (zh) | 一种基于CNN-BiLSTM+attention模型的涉案新闻观点句情感分类方法 | |
CN112001186A (zh) | 一种利用图卷积神经网络和中文句法的情感分类方法 | |
CN109726745B (zh) | 一种融入描述知识的基于目标的情感分类方法 | |
CN109086269B (zh) | 一种基于语义资源词表示和搭配关系的语义双关语识别方法 | |
CN111581364B (zh) | 一种面向医疗领域的中文智能问答短文本相似度计算方法 | |
CN111078833A (zh) | 一种基于神经网络的文本分类方法 | |
CN110765769A (zh) | 一种基于子句特征的实体属性依赖情感分析方法 | |
CN112836051A (zh) | 一种在线自学习的法院电子卷宗文本分类方法 | |
CN114417851B (zh) | 一种基于关键词加权信息的情感分析方法 | |
CN111222318A (zh) | 基于双通道双向lstm-crf网络的触发词识别方法 | |
CN111507093A (zh) | 一种基于相似字典的文本攻击方法、装置及存储介质 | |
CN114925205B (zh) | 基于对比学习的gcn-gru文本分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |