CN114064891A - 对抗文本生成方法、介质、装置和计算设备 - Google Patents
对抗文本生成方法、介质、装置和计算设备 Download PDFInfo
- Publication number
- CN114064891A CN114064891A CN202111326264.2A CN202111326264A CN114064891A CN 114064891 A CN114064891 A CN 114064891A CN 202111326264 A CN202111326264 A CN 202111326264A CN 114064891 A CN114064891 A CN 114064891A
- Authority
- CN
- China
- Prior art keywords
- text
- word
- replaced
- alternative
- words
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/353—Clustering; Classification into predefined classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
Abstract
本公开的实施方式提供了一种对抗文本生成方法、介质、装置和计算设备。将用于训练文本识别模型的标准文本中的若干词作为待替换词,根据待替换词在标准文本中的上下文来预测可以用于替换待替换词的若干备选词。使用备选词替换待替换词之后,得到备选文本,将备选文本输入到文本识别模型进行识别,如果文本识别模型对备选文本的识别结果区别于对所述标准文本的识别结果,则说明备选文本是合格的对抗文本。
Description
技术领域
本公开的实施方式涉及人工智能技术领域,更具体地,本公开的实施方式涉及一种对抗文本生成方法、介质、装置和计算设备。
背景技术
对抗攻击是指在数据中故意添加细微的干扰后输入到模型中,导致模型针对干扰后的数据所输出预测结果,与模型针对干扰前的数据所输出的预测结果不一致。其中,细微的干扰通常是人类不容易察觉到的干扰。
为了使得模型可以防御对抗攻击,可以在训练模型所使用的标准样本的基础上故意添加细微的干扰,生成对抗样本,利用对抗样本对模型进行优化训练。
通常将文本识别领域的标准样本称为标准文本,将基于标准文本生成的对抗样本称为对抗文本,本公开旨在提供一种有效的对抗文本生成方案。
发明内容
在本上下文中,本公开的实施方式期望提供一种对抗文本生成方法、介质、装置和计算设备,以便得到更有效的对抗文本用于优化训练文本识别模型。
在本公开实施方式的第一方面中,提供了一种对抗文本生成方法,包括:
获取用于训练文本识别模型的标准文本,并从所述标准文本包括的各个词中确定若干待替换词;
根据所述标准文本中位于每个待替换词之前的词与之后的词,预测每个待替换词对应的若干备选词;
根据至少部分待替换词对应的备选词,对所述标准文本进行词替换操作,得到若干备选文本;
使用所述文本识别模型分别识别每个备选文本,将若干满足对抗条件的备选文本确定为对抗文本;
其中,所述对抗条件为,所述文本识别模型对该备选文本的识别结果区别于对所述标准文本的识别结果。
在本公开的一个实施例中,所述确定若干待替换词的步骤还包括:
计算所述标准文本中每个词的重要性程度表征值,其中每个词的重要性程度表征值正相关于该词对所述标准文本的内容含义的重要性程度;
按照重要性程度表征值由大到小的顺序,依次确定若干词为待替换词。
在本公开的一个实施例中,所述计算重要性程度表征值的步骤还包括:
根据文本识别模型对所述标准文本的识别结果以及所述标准文本的识别标签,计算文本识别模型的训练损失矩阵,并根据训练损失矩阵计算梯度矩阵;
根据所述梯度矩阵进行二范数计算得到重要性表征向量;所述重要性表征向量包含与所述标准文本的各个词一一对应的各个维度值,每个维度值作为对应的词的重要性程度表征值。
在本公开的一个实施例中,所述计算重要性表征向量的步骤还包括:
将所述梯度矩阵输入符号函数,得到输出的符号矩阵;
以所述符号矩阵为二范数计算的输入,计算得到重要性表征向量。
在本公开的一个实施例中,所述预测每个待替换词对应的若干备选词的步骤还包括:
针对每个待替换词执行以下步骤:
将所述标准文本中该待替换词的位置进行遮掩标记之后,将所述标准文本输入Bert模型,输出该遮掩标记对应的预测概率值集合;所述预测概率值集合包括:多个词分别对应的预测概率值,其中每个词对应的预测概率值用于,预测该词出现在该遮掩标记对应的位置上的概率;
按照预测概率值由大到小的顺序,依次确定除该待替换词之外的若干词为备选词;其中,所述预测概率值集合包括多个词分别对应的预测概率值,其中每个词对应的预测概率值用于预测该词出现在该遮掩标记对应的位置上的概率。
在本公开的一个实施例中,所述文本识别模型用于对目标业务场景下的文本进行识别;
在将所述标准文本输入Bert模型之前,所述方法还包括:
利用目标业务场景下的文本,对Bert模型进行场景自适应训练。
在本公开的一个实施例中,其中,所述方法还包括如下步骤:用所述标准文本充当目标文本,以及按照各个待替换词的顺序将第一个待替换词作为目标待替换词,其中,所述确定对抗文本的步骤还包括迭代执行的步骤:
针对所述目标待替换词对应的每个备选词,将所述目标文本中的该目标待替换词替换成该备选词,得到所述目标文本对应的一个备选文本;
使用文本识别模型分别识别所述目标文本对应的每个备选文本,得到所述目标文本对应的每个备选文本的识别结果;将所述目标文本对应的各个备选文本中满足对抗条件的备选文本添加至可用备选文本集合;
若所述可用备选文本集合不为空,则基于所述可用备选文本集合,确定对抗文本,并结束迭代;
若所述可用备选文本集合为空,则将所述目标文本对应的各个备选文本中满足预设差异条件的备选文本,重新作为所述目标文本,将下一个待替换词重新作为所述目标待替换词,开始下一次迭代;
其中,所述预设差异条件为,所述目标文本对应的各个备选文本中,该备选文本的识别结果对应的预测概率值,与所述标准文本的识别结果对应的预测概率值的差异最大。
在本公开的一个实施例中,其中,所述标准文本属于中文文本,确定备选词的步骤还包括:
针对至少部分待替换词,获取该待替换词对应的若干火星文词汇,作为该待替换词对应的备选词。
在本公开的一个实施例中,其中,所述标准文本属于中文文本,确定备选词的步骤还包括:
针对至少部分待替换词,获取该待替换词对应的拼音,作为该待替换词对应的备选词。
在本公开的一个实施例中,其中,所述标准文本属于中文文本,确定备选词的步骤还包括:
针对至少部分待替换词,获取该待替换词对应的若干同音词,作为该待替换词对应的备选词。
在本公开的一个实施例中,其中,所述标准文本属于中文文本,确定备选词的步骤还包括:
针对至少部分待替换词,将该待替换词进行形式转换,包括:将该待替换词包含的至少部分汉字进行部件拆分,将拆分出的每个部件作为独立字符;
将形式转换后的该待替换词作为相应的备选词。
在本公开的一个实施例中,所述标准文本属于中文文本;
在根据至少部分待替换词对应的备选词,对所述标准文本进行词替换操作之前,所述方法还包括:
针对至少部分待替换词,获取该待替换词包括的每个汉字对应的汉字图片;
针对该待替换词对应的每个汉字图片,将该汉字图片输入卷积神经网络,输出该汉字图片对应的特征表示;
以该汉字图片对应的特征表示输入汉字图片分类模型;所述汉字图片分类模型以不同汉字为不同类别;
获取该汉字图片分类模型输出的该汉字图片属于每个类别的预测概率,并按预测概率从大到小顺序,依次确定除该待替换词之外的若干汉字为备选词。
在本公开实施方式的第二方面中,提供了一种对抗文本生成装置,包括:
待替换词确定模块,获取用于训练文本识别模型的标准文本,并从所述标准文本包括的各个词中确定若干待替换词;
备选词确定模块,根据所述标准文本中位于每个待替换词之前的词与之后的词,预测每个待替换词对应的若干备选词;
备选文本确定模块,根据至少部分待替换词对应的备选词,对所述标准文本进行词替换操作,得到若干备选文本;
对抗文本确定模块,使用所述文本识别模型分别识别每个备选文本,将若干满足对抗条件的备选文本确定为对抗文本;
其中,所述对抗条件为,所述文本识别模型对该备选文本的识别结果区别于对所述标准文本的识别结果。
在本公开实施方式的第三方面中,提供了一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现对抗文本生成方法。
在本公开实施方式的第四方面中,提供了一种计算设备,包括存储器、处理器;所述存储器用于存储可在处理器上运行的计算机指令,所述处理器用于在执行所述计算机指令时实现对抗文本生成方法。
在上述技术方案中,将用于训练文本识别模型的标准文本中的若干词作为待替换词,根据待替换词在标准文本中的上下文来预测可以用于替换待替换词的若干备选词。使用备选词替换待替换词之后,得到备选文本,将备选文本输入到文本识别模型进行识别,如果文本识别模型对备选文本的识别结果区别于对所述标准文本的识别结果,则说明备选文本是合格的对抗文本。
通过上述技术方案,由于考虑了待替换词在标准文本中的上下文语境来确定备选词,因此,得到的备选文本与标准文本的含义是非常接近的,而将符合对抗条件的备选文本作为对抗文本,一方面,这样的对抗文本与标准文本的含义非常接近,另一方面,这样的对抗文本也足以使得优化前的文本识别模型发生误判。利用这样的对抗文本对文本识别模型进行优化训练,使得即便对于含义非常接近的两个不同类别的文本,文本识别模型也往往可以准确区分,分别针对这两个不同类别的文本输出不同的识别结果。
附图说明
通过参考附图阅读下文的详细描述,本公开示例性实施方式的上述以及其他目的、特征和优点将变得易于理解。在附图中,以示例性而非限制性的方式示出了本公开的若干实施方式,其中:
图1示例性提供一种对抗文本生成方法的流程;
图2示例性提供一种确定对抗文本的方法的流程;
图3示例性提供一种对抗文本生成装置的结构;
图4是本公开提供的一种计算机可读存储介质的示意图;
图5是本公开提供的一种计算设备的结构示意图。
在附图中,相同或对应的标号表示相同或对应的部分。附图中的任何元素数量均用于示例而非限制,以及任何命名都仅用于区分,而不具有任何限制含义。
具体实施方式
下面将参考若干示例性实施方式来描述本公开的原理和精神。应当理解,给出这些实施方式仅仅是为了使本领域技术人员能够更好地理解进而实现本公开,而并非以任何方式限制本公开的范围。相反,提供这些实施方式是为了使本公开更加透彻和完整,并且能够将本公开的范围完整地传达给本领域的技术人员。
本领域技术人员知道,本公开的实施方式可以实现为一种系统、装置、设备、方法或计算机程序产品。因此,本公开可以具体实现为以下形式,即:完全的硬件、完全的软件(包括固件、驻留软件、微代码等),或者硬件和软件结合的形式。
根据本公开的实施方式,提出了一种对抗文本生成方法、介质、装置和计算设备。
下面参考本公开的若干代表性实施方式,详细阐释本公开的原理和精神。
对抗文本通常需要满足两个要求。其中一个要求是,对抗文本为在标准文本的基础上添加细微的干扰得到的文本。此处所述的细微的干扰可以是指人类不容易察觉到的干扰,换言之,人类对于标准文本的含义理解与对于对抗文本的含义理解基本一致。例如,标准文本为“房间有点旧,应该要重新装修,不然将会走下坡路”,基于该标准文本得到的对抗样本可以为“房间有点旧,应该要重心装修,不然将会走下坡路”。可以看到,在上例中,标准文本的含义与对抗文本的含义几乎是一致的。
对抗文本通常需要满足的另一个要求是,对抗文本能够使得文本识别模型发生误判,即文本识别模型对于标准文本的识别结果,区别于文本识别模型对于对抗文本的识别结果。还是沿用上例,假设文本识别模型用于对文本所表达的情感是正向还是负向进行分类,那么,如果文本识别模型对标准文本“房间有点旧,应该要重新装修,不然将会走下坡路”的识别结果为负向情感,则文本识别模型对对抗文本“房间有点旧,应该要重心装修,不然将会走下坡路”的识别结果应当为正向情感。
因此,满足上述两个要求的对抗文本才是合格的对抗文本。
为了得到合格的对抗文本,本公开提供的技术方案为,将用于训练文本识别模型的标准文本中的若干词作为待替换词,根据待替换词在标准文本中的上下文来预测可以用于替换待替换词的若干备选词。使用备选词替换待替换词之后,得到备选文本,将备选文本输入到文本识别模型进行识别,如果文本识别模型对备选文本的识别结果区别于对所述标准文本的识别结果,则说明备选文本是合格的对抗文本。
通过上述技术方案,由于考虑了待替换词在标准文本中的上下文语境来确定备选词,因此,得到的备选文本与标准文本的含义是非常接近的,而将符合对抗条件的备选文本作为对抗文本。一方面,这样的对抗文本与标准文本的含义非常接近。另一方面,这样的对抗文本也足以使得优化前的文本识别模型发生误判。利用这样的对抗文本对文本识别模型进行优化训练,使得即便对于含义非常接近的两个不同类别的文本,文本识别模型也往往可以准确区分,并分别针对这两个不同类别的文本输出不同的识别结果。
图1示例性提供一种对抗文本生成方法的流程,包括以下步骤:
S100:获取用于训练文本识别模型的标准文本,并从所述标准文本包括的各个词中确定若干待替换词。
S102:根据所述标准文本中位于每个待替换词之前的词与之后的词,预测每个待替换词对应的若干备选词。
S104:根据至少部分待替换词对应的备选词,对所述标准文本进行词替换操作,得到若干备选文本。
S106:使用所述文本识别模型分别识别每个备选文本,将若干满足对抗条件的备选文本确定为对抗文本。
本文所述的文本识别模型可以是任何能够实现文本识别任务的人工智能模型。常见的文本识别任务是文本分类任务,文本分类任务可以是二分类任务,也可以是多分类任务。本说明书对此不做具体限定。
本说明书对文本识别模型的算法结构亦不做具体限定。举例来说,文本识别模型的算法结构可以包括TEXTCNN卷积神经网络和单层的双向LSTM网络。
本文所述的标准文本,可以是指用于训练得到文本识别模型的、符合自然语言规则的文本。符合自然语言规则,通常是指文本的语句通顺、没有错别字等。
在基于标准文本生成对抗文本之前,通常需要对标准文本进行分词操作。在步骤S100中,从标准文本包括的各个词中确定替换词的规则可以有多种。例如,可以从标准文本包括的各个词中随机确定一个或多个替换词。
在一些实施例中,可以从标准文本包括的各个词中确定对于标准文本的含义贡献较大的词作为待替换词。其中,所述对于标准文本的含义贡献较大的词是指标准文本中的重要词或关键词。由于文本识别模型通常是根据文本中的重要词来进行分析的,因此,将标准文本中的重要词进行替换后得到的文本,更容易使得文本识别模型发生误判。
具体而言,可以计算所述标准文本中每个词的重要性程度表征值,其中每个词的重要性程度表征值正相关于该词对所述标准文本的内容含义的重要性程度;然后可以按照重要性程度表征值由大到小的顺序,依次确定若干词为待替换词。
本领域技术人员可以想到多种方式实现对标准文本中每个词的重要性程度表征值的计算。本公开示例性提供一种计算标准文本包括的各个词的重要性程度表征值的方式:
本公开可以根据文本识别模型对所述标准文本的识别结果以及所述标准文本的识别标签,计算文本识别模型的训练损失矩阵,并根据训练损失矩阵计算梯度矩阵。然后,本公开可以根据所述梯度矩阵进行二范数计算得到重要性表征向量。其中,所述重要性表征向量包含与所述标准文本的各个词一一对应的各个维度值,每个维度值作为对应的词的重要性程度表征值。
进一步地,可以将所述梯度矩阵输入符号函数从而得到输出的符号矩阵,然后以所述符号矩阵作为二范数计算的输入计算得到重要性表征向量。
上述示例中的计算重要性程度表征值的方式,可以理解为利用了FGSM算法思想。在步骤S102中,针对每个待替换词在标准文本中的上下文来预测该待替换词对应的若干备选词,每个待替换词对应的备选词可以视为能够在标准文本的含义上起到与该待替换词相似作用的词。使用这样的备选词替换待替换词,可以尽可能使得文本的含义不会发生太大变化。
可以用于实现步骤S102的方法有多种,本公开示例性提供一种根据标准文本中位于每个待替换词之前的词与之后的词,预测每个待替换词对应的若干备选词的方法,可以针对每个待替换词执行以下步骤:
将所述标准文本中该待替换词的位置进行遮掩标记之后,将所述标准文本输入Bert模型,输出该遮掩标记对应的预测概率值集合。所述预测概率值集合包括:多个词分别对应的预测概率值,其中每个词对应的预测概率值用于,预测该词出现在该遮掩标记对应的位置上的概率。可以按照预测概率值由大到小的顺序,依次确定除该待替换词之外的若干词为备选词。
上述示例中,可以理解为采用了基于BERT模型实现MLM任务,即将输入到Bert模型的文本中待替换词的位置遮住,让BERT预测被遮住的位置上出现的词。例如,原始文本为“房间有点旧,应该要重新装修,不然会走下坡”,使用遮掩标记MASK将“重新”的位置遮住后,将原始文本输入Bert模型进行MLM生成,Bert模型可以输出对于原始文本中MASK位置上出现的词的预测。
进一步地,文本识别模型可以用于对目标业务场景下的文本进行识别,因此,可以在将所述标准文本输入Bert模型之前,利用目标业务场景下的文本,对Bert模型进行场景自适应训练。如此,Bert模型可以具有更加适用于目标业务场景的预测能力。
在步骤S104中,可以尝试将标准文本中的部分或全部待替换词替换为相应的备选词从而得到若干备选文本。需要说明的是,替换的待替换词越少,得到备选文本与标准文本的含义就越接近。
备选文本不一定可以作为对抗文本,因此文本识别模型不一定对备选文本发生误判。因此,在步骤S106中,可以尝试将每个备选文本输入到文本识别模型中进行识别,如果识别结果发生误判,则意味着备选文本可以作为对抗文本。识别结果发生误判,是指文本识别模型对该备选文本的识别结果区别于对所述标准文本的识别结果。
如图2所示,为了尽可能以替换较少的待替换词的代价,获得合格的对抗文本,本公开示例性提供一种确定对抗文本的方法,其包括如下步骤:
将所述标准文本作为目标文本,以及按照各个待替换词的顺序,将第一个待替换词作为目标待替换词,迭代执行以下步骤:
针对所述目标待替换词对应的每个备选词,将所述目标文本中的该目标待替换词替换成该备选词,得到所述目标文本对应的一个备选文本;
使用文本识别模型分别识别所述目标文本对应的每个备选文本,得到所述目标文本对应的每个备选文本的识别结果;将所述目标文本对应的各个备选文本中满足对抗条件的备选文本添加至可用备选文本集合;
若所述可用备选文本集合不为空,则基于所述可用备选文本集合确定对抗文本,并结束迭代;
若所述可用备选文本集合为空,则将所述目标文本对应的各个备选文本中满足预设差异条件的备选文本重新作为所述目标文本,将下一个待替换词重新作为所述目标待替换词开始执行下一次迭代;
其中,所述预设差异条件为:在所述目标文本对应的各个备选文本中,该备选文本的识别结果对应的预测概率值与所述标准文本的识别结果对应的预测概率值的差异最大。
通过图2所示的方法所得到的对抗文本是基于标准文本进行最小程度的修改后得到的,这样的对抗文本既可以满足能够使得文本识别模型发生误判的要求,又与标准文本的含义差别尽可能小,因此上述对抗文本是比较高质量的对抗文本。
此外,在标准文本为中文文本的情况下,为了得到同样是中文文本的对抗文本,还可以在图1所示方法流程的基础上进一步扩展以下实施例,对于以下实施例中采用的词替换方式,对于人类视角来说不会使得文本的含义发生太大变化,但是对于文本识别模型而言则会导致文本的表述形式发生较大变化,容易给模型的识别造成很大干扰,从而导致模型误判。
在一些实施例中,可以在根据至少部分待替换词对应的备选词对所述标准文本进行词替换操作之前,针对至少部分待替换词,获取该待替换词对应的若干火星文词汇,作为该待替换词对应的备选词。
例如,标准文本为“就是早餐需要改进”,使用火星文的备选词“僦湜”替换“就是”后,得到的备选文本为“僦湜早餐需要改进”。
在一些实施例中,可以在根据至少部分待替换词对应的备选词对所述标准文本进行词替换操作之前,针对至少部分待替换词获取该待替换词对应的拼音,作为该待替换词对应的备选词。
例如,标准文本为“你很帅”,使用拼音备选词“shuai”对“帅”进行替换后,得到的备选文本为“你很shuai”。
在一些实施例中,可以在根据至少部分待替换词对应的备选词对所述标准文本进行词替换操作之前,针对至少部分待替换词获取该待替换词对应的若干同音词,作为该待替换词对应的备选词。
例如,标准文本为“6点吃晚餐”,使用同音的备选词“碗”替换“晚”,得到的备选文本为“6点吃碗餐”。
在一些实施例中,可以在根据至少部分待替换词对应的备选词,对所述标准文本进行词替换操作之前,针对至少部分待替换词将该待替换词进行形式转换。其中,形式转换包括:将该待替换词包含的至少部分汉字进行部件拆分,将拆分出的每个部件作为独立字符。然后,可以将形式转换后的该待替换词作为相应的备选词。
例如,标准文本为“他出汗了”,将“汗”进行部件拆分,得到“氵干”,得到的备选文本为“他出氵干了”。
在一些实施例中,可以在根据至少部分待替换词对应的备选词对所述标准文本进行词替换操作之前,针对至少部分待替换词获取该待替换词包括的每个汉字对应的汉字图片。接着,可以针对该待替换词对应的每个汉字图片将该汉字图片输入卷积神经网络,输出该汉字图片对应的特征表示。接着,可以以该汉字图片对应的特征表示输入汉字图片分类模型,所述汉字图片分类模型以不同汉字为不同类别。然后,可以获取该汉字图片分类模型输出的该汉字图片属于每个类别的预测概率,并按预测概率从大到小顺序,依次确定除该待替换词之外的若干汉字为备选词。
此方式实际上是基于汉字的视觉层面上的特征进行词替换。进一步地,上述的卷积神经网络具体可以是田字格-卷积神经网络,在这样的卷积神经网络中,最后一个隐层的输出为2*2矩阵,表征一个汉字的田字格结构。
图3示例性提供一种对抗文本生成装置的结构,包括:
待替换词确定模块300,获取用于训练文本识别模型的标准文本,并从所述标准文本包括的各个词中确定若干待替换词;
备选词确定模块301,根据所述标准文本中位于每个待替换词之前的词与之后的词,预测每个待替换词对应的若干备选词;
备选文本确定模块302,根据至少部分待替换词对应的备选词,对所述标准文本进行词替换操作,得到若干备选文本;
对抗文本确定模块303,使用所述文本识别模型分别识别每个备选文本,将若干满足对抗条件的备选文本确定为对抗文本;
其中,所述对抗条件为,所述文本识别模型对该备选文本的识别结果区别于对所述标准文本的识别结果。
在一些实施例中,所述待替换词确定模块300,计算所述标准文本中每个词的重要性程度表征值,其中每个词的重要性程度表征值正相关于该词对所述标准文本的内容含义的重要性程度;按照重要性程度表征值由大到小的顺序,依次确定若干词为待替换词。
在一些实施例中,所述待替换词确定模块300,根据文本识别模型对所述标准文本的识别结果以及所述标准文本的识别标签,计算文本识别模型的训练损失矩阵,并根据训练损失矩阵计算梯度矩阵;根据所述梯度矩阵进行二范数计算得到重要性表征向量;所述重要性表征向量包含与所述标准文本的各个词一一对应的各个维度值,每个维度值作为对应的词的重要性程度表征值。
在一些实施例中,所述待替换词确定模块300,将所述梯度矩阵输入符号函数,得到输出的符号矩阵;以所述符号矩阵为二范数计算的输入,计算得到重要性表征向量。
在一些实施例中,所述备选词确定模块301,针对每个待替换词执行以下步骤:将所述标准文本中该待替换词的位置进行遮掩标记之后,将所述标准文本输入Bert模型,输出该遮掩标记对应的预测概率值集合;所述预测概率值集合包括:多个词分别对应的预测概率值,其中每个词对应的预测概率值用于,预测该词出现在该遮掩标记对应的位置上的概率;按照预测概率值由大到小的顺序,依次确定除该待替换词之外的若干词为备选词。
在一些实施例中,所述文本识别模型用于对目标业务场景下的文本进行识别;
所述备选词确定模块301,在将所述标准文本输入Bert模型之前,利用目标业务场景下的文本,对Bert模型进行场景自适应训练。
在一些实施例中,所述对抗文本确定模块303,将所述标准文本作为目标文本,以及按照各个待替换词的顺序,将第一个待替换词作为目标待替换词,迭代执行以下步骤:
针对所述目标待替换词对应的每个备选词,将所述目标文本中的该目标待替换词替换成该备选词,得到所述目标文本对应的一个备选文本;
使用文本识别模型分别识别所述目标文本对应的每个备选文本,得到所述目标文本对应的每个备选文本的识别结果;将所述目标文本对应的各个备选文本中满足对抗条件的备选文本添加至可用备选文本集合;
若所述可用备选文本集合不为空,则基于所述可用备选文本集合,确定对抗文本,并结束迭代;
若所述可用备选文本集合为空,则将所述目标文本对应的各个备选文本中满足预设差异条件的备选文本,重新作为所述目标文本,将下一个待替换词重新作为所述目标待替换词,开始下一次迭代;
其中,所述预设差异条件为,所述目标文本对应的各个备选文本中,该备选文本的识别结果对应的预测概率值,与所述标准文本的识别结果对应的预测概率值的差异最大。
在一些实施例中,所述标准文本属于中文文本;
所述备选词确定模块301,针对至少部分待替换词,获取该待替换词对应的若干火星文词汇,作为该待替换词对应的备选词。
所述标准文本属于中文文本;
所述备选词确定模块301,针对至少部分待替换词,获取该待替换词对应的拼音,作为该待替换词对应的备选词。
所述标准文本属于中文文本;
所述备选词确定模块301,针对至少部分待替换词,获取该待替换词对应的若干同音词,作为该待替换词对应的备选词。
所述标准文本属于中文文本;
所述备选词确定模块301,针对至少部分待替换词,将该待替换词进行形式转换,包括:将该待替换词包含的至少部分汉字进行部件拆分,将拆分出的每个部件作为独立字符;将形式转换后的该待替换词作为相应的备选词。
所述标准文本属于中文文本;
所述备选词确定模块301,针对至少部分待替换词,获取该待替换词包括的每个汉字对应的汉字图片;针对该待替换词对应的每个汉字图片,将该汉字图片输入卷积神经网络,输出该汉字图片对应的特征表示;以该汉字图片对应的特征表示输入汉字图片分类模型;所述汉字图片分类模型以不同汉字为不同类别;获取该汉字图片分类模型输出的该汉字图片属于每个类别的预测概率,并按预测概率从大到小顺序,依次确定除该待替换词之外的若干汉字为备选词。
应当注意,尽管在上文详细描述中提及了装置的若干单元/模块或子单元/模块,但是这种划分仅仅是示例性的并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多单元/模块的特征和功能可以在一个单元/模块中具体化。反之,上文描述的一个单元/模块的特征和功能可以进一步划分为由多个单元/模块来具体化。
图4是本公开提供的一种计算机可读存储介质的示意图,该介质140上存储有计算机程序,所述程序被处理器执行时实现本公开任一实施例的方法。
本公开还提供了一种计算设备,包括存储器、处理器;所述存储器用于存储可在处理器上运行的计算机指令,所述处理器用于在执行所述计算机指令时实现本公开任一实施例的方法。
图5是本公开提供的一种计算设备的结构示意图,该计算设备15可以包括但不限于:处理器151、存储器152、连接不同系统组件(包括存储器152和处理器151)的总线153。
其中,存储器152存储有计算机指令,该计算机指令可以被处理器131执行,使得处理器151能够执行本公开任一实施例的方法。存储器152可以包括随机存取存储单元RAM1521、高速缓存存储单元1522和/或只读存储单元ROM1523。该存储器152还可以包括:具有一组程序模块1524的程序工具1525,该程序模块1524包括但不限于:操作系统、一个或多个应用程序、其他程序模块和程序数据,这些程序模块一种或多种组合可以包含网络环境的实现。
总线153例如可以包括数据总线、地址总线和控制总线等。该计算设备15还可以通过I/O接口154与外部设备155通信,该外部设备155例如可以是键盘、蓝牙设备等。该计算设备15还可以通过网络适配器156与一个或多个网络通信,例如,该网络可以是局域网、广域网、公共网络等。该网络适配器156还可以通过总线153与计算设备15的其他模块进行通信。
此外,尽管在附图中以特定顺序描述了本公开方法的操作,但是,这并非要求或者暗示必须按照该特定顺序来执行这些操作,或是必须执行全部所示的操作才能实现期望的结果。附加地或备选地,可以省略某些步骤,将多个步骤合并为一个步骤执行,和/或将一个步骤分解为多个步骤执行。
虽然已经参考若干具体实施方式描述了本公开的精神和原理,但是应该理解,本公开并不限于所公开的具体实施方式,对各方面的划分也不意味着这些方面中的特征不能组合以进行受益,这种划分仅是为了表述的方便。本公开旨在涵盖所附权利要求的精神和范围内所包括的各种修改和等同布置。
Claims (10)
1.一种对抗文本生成方法,包括:
获取用于训练文本识别模型的标准文本,并从所述标准文本包括的各个词中确定若干待替换词;
根据所述标准文本中位于每个待替换词之前的词与之后的词,预测每个待替换词对应的若干备选词;
根据至少部分待替换词对应的备选词,对所述标准文本进行词替换操作,得到若干备选文本;
使用所述文本识别模型分别识别每个备选文本,将若干满足对抗条件的备选文本确定为对抗文本;
其中,所述对抗条件为,所述文本识别模型对该备选文本的识别结果区别于对所述标准文本的识别结果。
2.如权利要求1所述方法,所述确定若干待替换词的步骤还包括:
计算所述标准文本中每个词的重要性程度表征值,其中每个词的重要性程度表征值正相关于该词对所述标准文本的内容含义的重要性程度;
按照重要性程度表征值由大到小的顺序,依次确定若干词为待替换词。
3.如权利要求2所述方法,其中,所述计算重要性程度表征值的步骤还包括:
根据文本识别模型对所述标准文本的识别结果以及所述标准文本的识别标签,计算文本识别模型的训练损失矩阵,并根据训练损失矩阵计算梯度矩阵;
根据所述梯度矩阵进行二范数计算得到重要性表征向量,
其中,所述重要性表征向量包含与所述标准文本的各个词一一对应的各个维度值,每个维度值作为对应的词的重要性程度表征值。
4.如权利要求3所述方法,其中,所述计算重要性表征向量的步骤还包括:
将所述梯度矩阵输入符号函数,得到输出的符号矩阵;
以所述符号矩阵为二范数计算的输入,计算得到重要性表征向量。
5.如权利要求1所述方法,其中,所述预测每个待替换词对应的若干备选词的步骤还包括:
针对每个待替换词执行以下步骤:
将所述标准文本中该待替换词的位置进行遮掩标记之后,将所述标准文本输入Bert模型,输出该遮掩标记对应的预测概率值集合;
按照预测概率值由大到小的顺序,依次确定除该待替换词之外的若干词为备选词,
其中,所述预测概率值集合包括多个词分别对应的预测概率值,其中每个词对应的预测概率值用于预测该词出现在该遮掩标记对应的位置上的概率。
6.如权利要求5所述方法,其中,所述文本识别模型用于对目标业务场景下的文本进行识别,
其中,在将所述标准文本输入Bert模型之前,所述方法还包括:
利用目标业务场景下的文本对Bert模型进行场景自适应训练。
7.如权利要求1所述方法,其中,所述方法还包括如下步骤:用所述标准文本充当目标文本,以及按照各个待替换词的顺序将第一个待替换词作为目标待替换词,其中,所述确定对抗文本的步骤还包括迭代执行的以下步骤:
针对所述目标待替换词对应的每个备选词,将所述目标文本中的该目标待替换词替换成该备选词,得到所述目标文本对应的一个备选文本;
使用文本识别模型分别识别所述目标文本对应的每个备选文本,得到所述目标文本对应的每个备选文本的识别结果,并将所述目标文本对应的各个备选文本中满足对抗条件的备选文本添加至可用备选文本集合,
若所述可用备选文本集合不为空,则基于所述可用备选文本集合确定对抗文本,并结束迭代;
若所述可用备选文本集合为空,则将所述目标文本对应的各个备选文本中满足预设差异条件的备选文本重新作为所述目标文本,将下一个待替换词重新作为所述目标待替换词,开始执行下一次迭代,
其中,所述预设差异条件为:在所述目标文本对应的各个备选文本中,该备选文本的识别结果对应的预测概率值与所述标准文本的识别结果对应的预测概率值的差异最大。
8.一种对抗文本生成装置,包括:
待替换词确定模块,获取用于训练文本识别模型的标准文本,并从所述标准文本包括的各个词中确定若干待替换词;
备选词确定模块,根据所述标准文本中位于每个待替换词之前的词与之后的词,预测每个待替换词对应的若干备选词;
备选文本确定模块,根据至少部分待替换词对应的备选词,对所述标准文本进行词替换操作,得到若干备选文本;
对抗文本确定模块,使用所述文本识别模型分别识别每个备选文本,将若干满足对抗条件的备选文本确定为对抗文本;
其中,所述对抗条件为,所述文本识别模型对该备选文本的识别结果区别于对所述标准文本的识别结果。
9.一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现权利要求1至7任一项所述的方法。
10.一种计算设备,包括存储器、处理器;所述存储器用于存储可在处理器上运行的计算机指令,所述处理器用于在执行所述计算机指令时实现权利要求1至7任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111326264.2A CN114064891A (zh) | 2021-11-10 | 2021-11-10 | 对抗文本生成方法、介质、装置和计算设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111326264.2A CN114064891A (zh) | 2021-11-10 | 2021-11-10 | 对抗文本生成方法、介质、装置和计算设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114064891A true CN114064891A (zh) | 2022-02-18 |
Family
ID=80274541
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111326264.2A Pending CN114064891A (zh) | 2021-11-10 | 2021-11-10 | 对抗文本生成方法、介质、装置和计算设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114064891A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117874530A (zh) * | 2024-03-13 | 2024-04-12 | 中国电子产品可靠性与环境试验研究所((工业和信息化部电子第五研究所)(中国赛宝实验室)) | 对抗样本检测方法、装置、设备、介质和产品 |
-
2021
- 2021-11-10 CN CN202111326264.2A patent/CN114064891A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117874530A (zh) * | 2024-03-13 | 2024-04-12 | 中国电子产品可靠性与环境试验研究所((工业和信息化部电子第五研究所)(中国赛宝实验室)) | 对抗样本检测方法、装置、设备、介质和产品 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7031101B2 (ja) | 方法、システムおよび有形コンピュータ可読デバイス | |
CN107729313B (zh) | 基于深度神经网络的多音字读音的判别方法和装置 | |
CN111767405A (zh) | 文本分类模型的训练方法、装置、设备及存储介质 | |
US11443209B2 (en) | Method and system for unlabeled data selection using failed case analysis | |
US11610060B2 (en) | Automatic lexical sememe prediction system using lexical dictionaries | |
KR102285142B1 (ko) | 챗봇을 위한 학습 데이터 추천 장치 및 방법 | |
JP5809381B1 (ja) | 自然言語処理システム、自然言語処理方法、および自然言語処理プログラム | |
US11669687B1 (en) | Systems and methods for natural language processing (NLP) model robustness determination | |
CN110929524A (zh) | 数据筛选方法、装置、设备及计算机可读存储介质 | |
CN111435362B (zh) | 用于生成相关响应的对抗性训练数据增强 | |
CN111858898A (zh) | 基于人工智能的文本处理方法、装置及电子设备 | |
JP7155625B2 (ja) | 検査装置、検査方法、プログラム及び学習装置 | |
WO2021001517A1 (en) | Question answering systems | |
CN112101042A (zh) | 文本情绪识别方法、装置、终端设备和存储介质 | |
JPWO2014073206A1 (ja) | 情報処理装置、及び、情報処理方法 | |
CN114444476B (zh) | 信息处理方法、装置和计算机可读存储介质 | |
CN114064891A (zh) | 对抗文本生成方法、介质、装置和计算设备 | |
CN113591998A (zh) | 分类模型的训练和使用方法、装置、设备以及存储介质 | |
CN115357720B (zh) | 基于bert的多任务新闻分类方法及装置 | |
CN111161730A (zh) | 语音指令匹配方法、装置、设备及存储介质 | |
US20220319504A1 (en) | Generating aspects from attributes identified in digital video audio tracks | |
JP6817690B2 (ja) | 抽出装置、抽出方法とそのプログラム、及び、支援装置、表示制御装置 | |
CN114610887A (zh) | 坐席违规话术识别方法、装置、电子设备、存储介质 | |
CN114398482A (zh) | 一种词典构造方法、装置、电子设备及存储介质 | |
CN114091434A (zh) | 文本中词的重要性程度确定方法、介质、装置和计算设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |