CN114254108A - 一种中文文本对抗样本生成的方法、系统及介质 - Google Patents
一种中文文本对抗样本生成的方法、系统及介质 Download PDFInfo
- Publication number
- CN114254108A CN114254108A CN202111518229.0A CN202111518229A CN114254108A CN 114254108 A CN114254108 A CN 114254108A CN 202111518229 A CN202111518229 A CN 202111518229A CN 114254108 A CN114254108 A CN 114254108A
- Authority
- CN
- China
- Prior art keywords
- data
- text
- model
- training
- word
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
- G06F40/247—Thesauruses; Synonyms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种中文文本对抗样本生成的方法,包括如下步骤:获取原始文本数据,且所述原始文本数据为中文文本分类器的输入数据;构建一个深度学习攻击模型,使用数据聚集的方法迭代生成训练数据,并使用强化学习的方法训练模型;使用训练好的攻击模型,输入到所述原始文本数据,以获得对抗样本。本发明提供了一种带有深度学习的中文文本对抗样本生成的方法,通过学习模型,适应中文文本,实现多种攻击策略,相对现有技术中英文对抗样本生成的方法,流程更加简单。
Description
技术领域
本发明涉及信息对抗技术领域,具体涉及一种中文文本对抗样本生成的方法、系统及介质。
背景技术
随着计算设备的更新和算力的提高,深度神经网络(DNN)在人工智能(AI)领域得到了广泛的应用,特别是在计算机视觉(CV)和自然语言处理(NLP)两大任务中,取得了惊人的成就。在深度模型取得优秀成果和广泛应用的同时,深度学习模型的安全问题也日益严重。
对抗攻击(Adversarial Attack)即人们通过给正常样本添加某些噪声,利用人无法感知的扰动,使正常的模型做出异常的预测。虽然深度学习模型在各类任务中表现出色,但是在现实生活生产中,样本总是含有噪声的,模型在对某些噪声数据进行任务的时候就会遇到很多问题。面临现实普遍存在的噪声样本和恶意构造的对抗样本,表现卓越的DNN模型遭受极大的安全威胁。
目前,国内外在自然语言处理对抗攻击领域的研究,主要有基于梯度的白盒攻击,例如TextFool使用了快速梯度下降法;还有黑盒攻击,基于置信度的文本替换等如DeepWordBug、TextBugger等。
在现实场景中,我们无法获取模型结构和参数信息,可能获取到模型的分类置信度信息,甚至只能获取到模型的最终决策标签,因此基于梯度的攻击方法受到限制。现有攻击流程复杂,需要对目标模型进行多次查询;攻击方法大多只是按照一定算法进行组合优化,不具有学习能力;攻击策略并没有考虑到中文文本的特点,攻击策略单一,借鉴英文文本的攻击策略不适用于中文文本。
发明内容
鉴于上述问题,本发明的目的在于提供一种中文文本对抗样本生成的方法,以实现强化学习,且实现多种攻击策略,以及对中文文本的适应,攻击流程简单。
本发明通过下述技术方案实现:
一种中文文本对抗样本生成的方法,包括如下步骤:
获取原始文本数据,且所述原始文本数据为中文文本分类器的输入数据;
构建一个深度学习攻击模型,使用数据聚集的方法迭代生成训练数据,并使用强化学习的方法训练模型;
使用训练好的攻击模型,输入到所述原始文本数据,以获得对抗样本。
在一些实施方式中,所述步骤构建一个深度学习攻击模型,使用数据聚集的方法迭代生成训练数据,并使用强化学习的方法训练模型中,构建一个深度学习攻击模型包括如下子步骤:
初始化一个攻击模型架构,所述攻击模型架构包括有嵌入层、编码层、解码层和线性层;
初始化攻击模型的参数。
在一些实施方式中,所述步骤初始化一个攻击模型架构,所述攻击模型架构包括有嵌入层、编码层、解码层和线性层中,所述嵌入层、编码层和解码层依次串联,且所述嵌入层长度最大为512,解码层和线性层之间用一个Dropout单元连接,所述线性层由768个输入神经单元和1个输出单元的多层感知机构成。
在一些实施方式中,所述步骤初始化攻击模型的参数中,包括如下子步骤:
使用预训练模型的参数来初始化嵌入层、编码层和解码层;
使用随机参数来初始化线性层。
在一些实施方式中,所述步骤构建一个深度学习攻击模型,使用数据聚集的方法迭代生成训练数据,并使用强化学习的方法训练模型中,使用数据聚集的方法迭代生成训练数据包括如下子步骤:
对原始文本数据的每一个句子,使用Jieba分词工具做分词操作,得到每个句子的词语集合s={w1,...,wi,...,wn},其中s表示当前句子,wi表示分词后的第i个词语;
对分词操作后的每个词语,计算其显著性,具体计算公式为 s={w1,…,wi,…,wn}和其中S(s,wi)表示句子s中第i个词wi的显著性,P(ytrue|s)表示原句子被中文文本分类器分类为ytrue的概率,表示句子s删除wi词语之后剩余的文本,表示文本被中文文本分类器分类为ytrue的概率;
对分词操作后的每个词语wi,利用WordNet,构建其同义词集合,作为替换的候选词集合Ci={c1,...,cn};
构建的候选词集合中的每一个候选词,计算其有效性,具体计算公式如下:E(s,wi,cj)=P(ytrue|s)-P(ytrue|s′i),s={w1,…,wi,…,wn}和s′i={w1,…,wi-1,cj,wi+1…,wn};其中E(s,wi,cj)表示句子s中第i个词wi的候选词cj的有效性,其中s′i表示句子s使用候选词cj替换词语wi之后的文本,P(ytrue|s′i)表示文本s′i被中文文本分类器分类为ytrue的概率;
对每一个wi,和每个词的候选词,给出一个替换的评分Score=S(s,wi)*E(s,wi,cj),选择其评分最高的候选词c′替换wi,定义为一次替换tpi(s,wi,c′),对整个句子合构成一个文本处理集合TP={tp1,…,tpn};
遍历集合TP,迭代地对原句子进行替换,生成的s′i数据构成对抗样本候选集;对抗样本候选集即训练数据集的文本数据;遍历对抗样本候选集,并且查询中文文本分类器,如果迭代完攻击策略,受害者模型的输出与原标签一致,则以最后一次迭代的索引作为标签添加进数据集;如果分类结果与原标签不一致,以当前句子在数据集中的索引作为标签添加进数据集;
遍历原数据集的每一个句子,实施以上操作步骤,即为迭代生成的训练数据集。
在一些实施方式中,所述步骤构建一个深度学习攻击模型,使用数据聚集的方法迭代生成训练数据,并使用强化学习的方法训练模型中,使用强化学习的方法训练模型包括如下子步骤:
使用每一次迭代获得的训练数据,对模型进行相应的一次迭代的训练;
把训练任务建模为一个多分类问题,对于每个原始句子产生的k条训练数据,输入攻击模型,输出k个分数,使用交叉熵损失函数更新模型参数;
完成一次迭代训练之后,继续迭代生成新的训练数据集,做下一次迭代训练。
在一些实施方式中,所述步骤使用训练好的攻击模型,输入到所述原始文本数据,以获得对抗样本中,获得对抗样本包括如下子步骤:
对原始数据的每一个句子,获得攻击模型的输入数据,所述输入数据为目标句子生成的对抗样本候选集;
输入获取的数据,攻击模型输出一个标签,映射这个标签对应的文本数据,即可获得攻击模型生成的对抗样本。
本发明的目的之二在于提供一种中文文本对抗样本生成的系统,包括:
文本处理模块,所述文本处理模块用于原数据文本的分词操作、词语同义词集构建、计算词语显著性、计算替换词有效性、生成文本处理集合;
训练数据生成模块,所述训练数据生成模块用于便利生成文本处理集合,对原始文本进行替换操作,生成训练数据的文本部分;查询中文文本分类器,生成训练数据的标签部分;
训练模块,所述训练模块用于初始化模型架构和参数,迭代地生成训练数据和训练模型;
攻击模块,所述攻击模块用于向训练好的攻击模型输入原数据,且攻击模型输出对抗样本。
本发明的目的之三在于提供一种中文文本对抗样本生成的系统,包括用于执行上述方法的单元。
本发明的目的之四在于提供一种一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序包括程序指令,所述程序指令当被处理器执行时,使所述处理器执行上述方法。
本发明与现有技术相比,具有如下的优点和有益效果:
本发明提供了一种带有深度学习的中文文本对抗样本生成的方法,通过学习模型,适应中文文本,实现多种攻击策略,相对现有技术中英文对抗样本生成的方法,流程更加简单。
附图说明
为了更清楚地说明本发明示例性实施方式的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。在附图中:
图1为本发明方法主步骤流程示意图;
图2为本发明方法一子步骤流程示意图;
图3为本发明方法一子步骤流程示意图;
图4为本发明方法一子步骤流程示意图;
图5为本发明方法一子步骤流程示意图;
图6为本发明方法的整体的流程框图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,下面结合实施例和附图,对本发明作进一步的详细说明,本发明的示意性实施方式及其说明仅用于解释本发明,并不作为对本发明的限定。
如图1和6所示,一种中文文本对抗样本生成的方法,包括如下步骤:
S100、获取原始文本数据,且所述原始文本数据为中文文本分类器的输入数据。
本步骤中,通过中文文本分类器对输入的数据进行分类,形成需要处理的原始文本数据。
S200、构建一个深度学习攻击模型,使用数据聚集的方法迭代生成训练数据,并使用强化学习的方法训练模型。
本步骤中利用深度学习技术,形成深度学习共计模型,并进行训练,以满足后续的样本生成。
S300、使用训练好的攻击模型,输入到所述原始文本数据,以获得对抗样本。
本步骤中通过训练好的攻击模型,并将中文文本的原始文本数据投入攻击模型,进而生成对抗样本。该对抗样本,即为适应的中文文本对抗样本。
如图2所示,在一些实施方式中,所述步骤S200中构建一个深度学习攻击模型包括如下子步骤:
S210、初始化一个攻击模型架构,所述攻击模型架构包括有嵌入层、编码层、解码层和线性层。
本步骤中利用现有的攻击模型架构,并进行初始化,以便于后续的适应性调整。
S220、初始化攻击模型的参数。
本不中,通过初始化攻击模型的参数,来进行模型整体的调整。
在一些实施方式中,所述步骤S210中,所述嵌入层、编码层和解码层依次串联,且所述嵌入层长度最大为512,解码层和线性层之间用一个Dropout单元连接,所述线性层由768个输入神经单元和1个输出单元的多层感知机构成。
本优选的实施方式中,对攻击模型架构中的嵌入层、编码层和解码层进行了连接及参数限定。
如图3所示,在一些实施方式中,所述步骤S220中,包括如下子步骤:
S221、使用预训练模型的参数来初始化嵌入层、编码层和解码层。
本步骤中,通过预训练模型的参数来处理嵌入层、编码层和解码层,以使得嵌入层、编码层和解码层在本方案中实现适应。
S222、使用随机参数来初始化线性层。
本步骤中,通过随机参数来初始化线性层,以使得线性层满足训练的需求。
在一些实施方式中,所述步骤S200中,使用数据聚集的方法迭代生成训练数据包括如下子步骤:
S201、对原始文本数据的每一个句子,使用Jieba分词工具做分词操作,得到每个句子的词语集合s={wi,...,wi,...,wn},其中s表示当前句子,wi表示分词后的第i个词语;
S202、对分词操作后的每个词语,计算其显著性,具体计算公式为 s={w1,…,wi,…,wn}和其中S(s,wi)表示句子s中第i个词wi的显著性,P(ytrue|s)表示原句子被中文文本分类器分类为ytrue的概率,表示句子s删除wi词语之后剩余的文本,表示文本被中文文本分类器分类为ytrue的概率;
S203、对分词操作后的每个词语wi,利用WordNet,构建其同义词集合,作为替换的候选词集合Ci={c1,…,cn};
S204、构建的候选词集合中的每一个候选词,计算其有效性,具体计算公式如下:E(s,wi,cj)=P(ytrue|s)-P(ytrue|s′i),s={w1,…,wi,…,wn}和s′i={w1,…,wi-1,cj,wi+1…,wn};其中E(s,wi,cj)表示句子s中第i个词wi的候选词cj的有效性,其中s′i表示句子s使用候选词cj替换词语wi之后的文本,P(ytrue|s′i)表示文本s′i被中文文本分类器分类为ytrue的概率;
S205、对每一个wi,和每个词的候选词,给出一个替换的评分Score=S(s,wi)*E(s,wi,cj),选择其评分最高的候选词c′替换wi,定义为一次替换tpi(s,wi,c′),对整个句子合构成一个文本处理集合TP={tp1,…,tpn};
S206、遍历集合TP,迭代地对原句子进行替换,生成的s′i数据构成对抗样本候选集;对抗样本候选集即训练数据集的文本数据;遍历对抗样本候选集,并且查询中文文本分类器,如果迭代完攻击策略,受害者模型的输出与原标签一致,则以最后一次迭代的索引作为标签添加进数据集;如果分类结果与原标签不一致,以当前句子在数据集中的索引作为标签添加进数据集;
S207、遍历原数据集的每一个句子,实施以上操作步骤,即为迭代生成的训练数据集。
本优选的实施方式中,给出了获取训练数据集的方法流程,以满足后续的需要。
如图4所示,在一些实施方式中,所述步骤S200中,使用强化学习的方法训练模型包括如下子步骤:
S2001、使用每一次迭代获得的训练数据,对模型进行相应的一次迭代的训练;
S2002、把训练任务建模为一个多分类问题,对于每个原始句子产生的k条训练数据,输入攻击模型,输出k个分数,使用交叉熵损失函数更新模型参数;
S2003、完成一次迭代训练之后,继续迭代生成新的训练数据集,做下一次迭代训练。
本优选的实施方中,针对强化学习的方法训练,具体给出了三个步骤实现。
在一些实施方式中,所述步骤S300中,获得对抗样本包括如下子步骤:
S310、对原始数据的每一个句子,获得攻击模型的输入数据,所述输入数据为目标句子生成的对抗样本候选集;
S320、输入获取的数据,攻击模型输出一个标签,映射这个标签对应的文本数据,即可获得攻击模型生成的对抗样本。
本优选的方式中,针对对抗样本的获得,提供了两个步骤实现。
如图5所示,一种中文文本对抗样本生成的系统,包括:
文本处理模块,所述文本处理模块用于原数据文本的分词操作、词语同义词集构建、计算词语显著性、计算替换词有效性、生成文本处理集合;
训练数据生成模块,所述训练数据生成模块用于便利生成文本处理集合,对原始文本进行替换操作,生成训练数据的文本部分;查询中文文本分类器,生成训练数据的标签部分;
训练模块,所述训练模块用于初始化模型架构和参数,迭代地生成训练数据和训练模型;
攻击模块,所述攻击模块用于向训练好的攻击模型输入原数据,且攻击模型输出对抗样本。
一种中文文本对抗样本生成的系统,包括用于执行上述方法的单元。
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序包括程序指令,所述程序指令当被处理器执行时,使所述处理器执行上述方法。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种中文文本对抗样本生成的方法,其特征在于,包括如下步骤:
获取原始文本数据,且所述原始文本数据为中文文本分类器的输入数据;
构建一个深度学习攻击模型,使用数据聚集的方法迭代生成训练数据,并使用强化学习的方法训练模型;
使用训练好的攻击模型,输入到所述原始文本数据,以获得对抗样本。
2.根据权利要求1所述的中文文本对抗样本生成的方法,其特征在于,所述步骤构建一个深度学习攻击模型,使用数据聚集的方法迭代生成训练数据,并使用强化学习的方法训练模型中,构建一个深度学习攻击模型包括如下子步骤:
初始化一个攻击模型架构,所述攻击模型架构包括有嵌入层、编码层、解码层和线性层;
初始化攻击模型的参数。
3.根据权利要求2所述的中文文本对抗样本生成的方法,其特征在于,所述步骤初始化一个攻击模型架构,所述攻击模型架构包括有嵌入层、编码层、解码层和线性层中,所述嵌入层、编码层和解码层依次串联,且所述嵌入层长度最大为512,解码层和线性层之间用一个Dropout单元连接,所述线性层由768个输入神经单元和1个输出单元的多层感知机构成。
4.根据权利要求2所述的中文文本对抗样本生成的方法,其特征在于,所述步骤初始化攻击模型的参数中,包括如下子步骤:
使用预训练模型的参数来初始化嵌入层、编码层和解码层;
使用随机参数来初始化线性层。
5.根据权利要求2所述的中文文本对抗样本生成的方法,其特征在于,所述步骤构建一个深度学习攻击模型,使用数据聚集的方法迭代生成训练数据,并使用强化学习的方法训练模型中,使用数据聚集的方法迭代生成训练数据包括如下子步骤:
对原始文本数据的每一个句子,使用Jieba分词工具做分词操作,得到每个句子的词语集合s={w1,...,wi,...,wn},其中s表示当前句子,wi表示分词后的第i个词语;
对分词操作后的每个词语,计算其显著性,具体计算公式为 s={w1,...,wi,...,wn}和其中S(s,wi)表示句子s中第i个词wi的显著性,P(ytrhe|s)表示原句子被中文文本分类器分类为ytrhe的概率,表示句子s删除wi词语之后剩余的文本,表示文本被中文文本分类器分类为ytrhe的概率;
对分词操作后的每个词语wi,利用WordNet,构建其同义词集合,作为替换的候选词集合Ci={c1,...,cn};
构建的候选词集合中的每一个候选词,计算其有效性,具体计算公式如下:E(s,wi,cj)=P(ytrue|s)-P(ytrue|s′i),s={w1,…,wi,…,wn}和s′i={w1,…,wi-1,cj,wi+1…,wn};其中E(s,wi,cj)表示句子s中第i个词wi的候选词cj的有效性,其中s′i表示句子s使用候选词cj替换词语wi之后的文本,P(ytrue|s′i)表示文本s′i被中文文本分类器分类为ytrue的概率;
对每一个wi,和每个词的候选词,给出一个替换的评分Score=S(s,wi)*E(s,wi,cj),选择其评分最高的候选词c′替换wi,定义为一次替换tpi(s,wi,c′),对整个句子合构成一个文本处理集合TP={tp1,…,tpn};
遍历集合TP,迭代地对原句子进行替换,生成的s′i数据构成对抗样本候选集;对抗样本候选集即训练数据集的文本数据;遍历对抗样本候选集,并且查询中文文本分类器,如果迭代完攻击策略,受害者模型的输出与原标签一致,则以最后一次迭代的索引作为标签添加进数据集;如果分类结果与原标签不一致,以当前句子在数据集中的索引作为标签添加进数据集;
遍历原数据集的每一个句子,实施以上操作步骤,即为迭代生成的训练数据集。
6.根据权利要求5所述的中文文本对抗样本生成的方法,其特征在于,所述步骤构建一个深度学习攻击模型,使用数据聚集的方法迭代生成训练数据,并使用强化学习的方法训练模型中,使用强化学习的方法训练模型包括如下子步骤:
使用每一次迭代获得的训练数据,对模型进行相应的一次迭代的训练;
把训练任务建模为一个多分类问题,对于每个原始句子产生的k条训练数据,输入攻击模型,输出k个分数,使用交叉熵损失函数更新模型参数;
完成一次迭代训练之后,继续迭代生成新的训练数据集,做下一次迭代训练。
7.根据权利要求1所述的中文文本对抗样本生成的方法,其特征在于,所述步骤使用训练好的攻击模型,输入到所述原始文本数据,以获得对抗样本中,获得对抗样本包括如下子步骤:
对原始数据的每一个句子,获得攻击模型的输入数据,所述输入数据为目标句子生成的对抗样本候选集;
输入获取的数据,攻击模型输出一个标签,映射这个标签对应的文本数据,即可获得攻击模型生成的对抗样本。
8.一种中文文本对抗样本生成的系统,其特征在于,包括:
文本处理模块,所述文本处理模块用于原数据文本的分词操作、词语同义词集构建、计算词语显著性、计算替换词有效性、生成文本处理集合;
训练数据生成模块,所述训练数据生成模块用于便利生成文本处理集合,对原始文本进行替换操作,生成训练数据的文本部分;查询中文文本分类器,生成训练数据的标签部分;
训练模块,所述训练模块用于初始化模型架构和参数,迭代地生成训练数据和训练模型;
攻击模块,所述攻击模块用于向训练好的攻击模型输入原数据,且攻击模型输出对抗样本。
9.一种中文文本对抗样本生成的系统,其特征在于,包括用于执行如权利要求1-7任一项权利要求所述的方法的单元。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序包括程序指令,所述程序指令当被处理器执行时,使所述处理器执行如权利要求1-7任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111518229.0A CN114254108A (zh) | 2021-12-13 | 2021-12-13 | 一种中文文本对抗样本生成的方法、系统及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111518229.0A CN114254108A (zh) | 2021-12-13 | 2021-12-13 | 一种中文文本对抗样本生成的方法、系统及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114254108A true CN114254108A (zh) | 2022-03-29 |
Family
ID=80792075
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111518229.0A Pending CN114254108A (zh) | 2021-12-13 | 2021-12-13 | 一种中文文本对抗样本生成的方法、系统及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114254108A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114925699A (zh) * | 2022-04-28 | 2022-08-19 | 电子科技大学 | 一种基于风格变换的高迁移性对抗文本生成方法 |
-
2021
- 2021-12-13 CN CN202111518229.0A patent/CN114254108A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114925699A (zh) * | 2022-04-28 | 2022-08-19 | 电子科技大学 | 一种基于风格变换的高迁移性对抗文本生成方法 |
CN114925699B (zh) * | 2022-04-28 | 2023-05-23 | 电子科技大学 | 一种基于风格变换的高迁移性对抗文本生成方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109597997B (zh) | 基于评论实体、方面级情感分类方法和装置及其模型训练 | |
CN111079532B (zh) | 一种基于文本自编码器的视频内容描述方法 | |
CN112633010B (zh) | 基于多头注意力和图卷积网络的方面级情感分析方法及系统 | |
CN110765775A (zh) | 一种融合语义和标签差异的命名实体识别领域自适应的方法 | |
CN110673840A (zh) | 一种基于标签图嵌入技术的自动代码生成方法及系统 | |
CN114757182A (zh) | 一种改进训练方式的bert短文本情感分析方法 | |
CN113220886A (zh) | 文本分类方法、文本分类模型训练方法及相关设备 | |
CN114090780B (zh) | 一种基于提示学习的快速图片分类方法 | |
CN112699222B (zh) | 基于量子启发式神经网络的文本分类方法及邮件分类方法 | |
CN115658954B (zh) | 一种基于提示学习的跨模态检索对抗防御方法 | |
US10643028B1 (en) | Transliteration of text entry across scripts | |
CN113282714B (zh) | 一种基于区分性词向量表示的事件检测方法 | |
JP2016170636A (ja) | 接続関係推定装置、方法、及びプログラム | |
CN113705196A (zh) | 基于图神经网络的中文开放信息抽取方法和装置 | |
CN113761868A (zh) | 文本处理方法、装置、电子设备及可读存储介质 | |
CN116975350A (zh) | 图文检索方法、装置、设备及存储介质 | |
CN114254108A (zh) | 一种中文文本对抗样本生成的方法、系统及介质 | |
CN113869005A (zh) | 一种基于语句相似度的预训练模型方法和系统 | |
US10810380B2 (en) | Transliteration using machine translation pipeline | |
CN116992049A (zh) | 一种基于双曲空间的加入实体描述的知识图谱嵌入方法 | |
CN110888944A (zh) | 基于多卷积窗尺寸注意力卷积神经网络实体关系抽取方法 | |
CN113343235B (zh) | 基于Transformer的应用层恶意有效负载检测方法、系统、设备及介质 | |
CN114238549A (zh) | 文本生成模型的训练方法、装置、存储介质及计算机设备 | |
CN114529908A (zh) | 一种离线手写化学反应式图像识别技术 | |
CN117252154B (zh) | 一种基于预训练语言模型的中文简繁字符转换方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |