CN117648990A - 一种用于黑盒攻击的语音对抗样本生成方法及其系统 - Google Patents
一种用于黑盒攻击的语音对抗样本生成方法及其系统 Download PDFInfo
- Publication number
- CN117648990A CN117648990A CN202210958911.XA CN202210958911A CN117648990A CN 117648990 A CN117648990 A CN 117648990A CN 202210958911 A CN202210958911 A CN 202210958911A CN 117648990 A CN117648990 A CN 117648990A
- Authority
- CN
- China
- Prior art keywords
- sample
- original audio
- audio
- challenge
- preset
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 238000004458 analytical method Methods 0.000 claims abstract description 16
- 238000004590 computer program Methods 0.000 claims description 7
- 238000013136 deep learning model Methods 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 235000000332 black box Nutrition 0.000 description 1
- 210000003477 cochlea Anatomy 0.000 description 1
- 210000000860 cochlear nerve Anatomy 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Circuit For Audible Band Transducer (AREA)
Abstract
本发明涉及一种用于黑盒攻击的语音对抗样本生成方法及其系统,包括:对原始音频样本进行音频处理分析以确定原始音频样本的高幅度区域;对原始音频样本的高幅度区域添加噪声ε以生成初始对抗样本,并使得初始对抗样本与原始音频样本之间的相似度满足预设的第一条件;将初始对抗样本输入语音模型进行识别获得第一识别结果;获取语音模型对原始音频样本进行识别得到的第二识别结果;当第一识别结果与第二识别结果之间的相似度满足预设的第二条件时,确定初始对抗样本为合格的对抗样本;并且,当第一识别结果与第二识别结果之间的相似度不满足预设的第二条件时,确定重新进行对抗样本的生成。通过本发明,能够提高语音对抗样本生成效率和攻击成功率。
Description
技术领域
本发明涉及智能语音技术领域,具体涉及一种用于黑盒攻击的语音对抗样本生成方法及其系统。
背景技术
对抗样本攻击指的是构造对抗样本,将该对抗样本按正常数据一样输入机器学习模型并得到欺骗的识别结果,利用攻击成功的对抗样本能够促进深度学习模型的优化,让深度学习模型达到更加高的准确率和更加低的错误率。
其中,根据攻击者掌握机器学习模型信息的多少,对抗样本攻击可以分为如下两种情况:①白盒攻击:攻击者能够获知机器学习所使用的算法,以及算法所使用的参数;攻击者在产生对抗性攻击数据的过程中能够与机器学习的系统有所交互;②黑盒攻击:攻击者并不知道机器学习所使用的算法和参数,但攻击者仍能与机器学习的系统有所交互,比如可以通过传入任意输入观察输出,判断输出。
从攻击者的角度来看,白盒攻击和黑盒攻击的主要区别在于它们对目标模型的访问权限;而目前较为成功的语音对抗样本攻击技术大多基于白盒攻击,但只能在实验环境中达到攻击条件;而现有的黑盒语音对抗样本攻击技术的攻击成功率和效率无法兼得。
发明内容
本发明的目的在于提出一种用于黑盒攻击的语音对抗样本生成方法及其系统,以提高语音对抗样本生成效率和攻击成功率。
为实现上述目的,本发明的第一方面提出一种用于黑盒攻击的语音对抗样本生成方法,包括:
获取原始音频样本,并对所述原始音频样本进行音频处理分析以确定所述原始音频样本的高幅度区域;
对所述原始音频样本的高幅度区域添加噪声ε以生成初始对抗样本,并使得所述初始对抗样本与所述原始音频样本之间的相似度满足预设的第一条件;
将所述初始对抗样本输入语音模型进行识别获得第一识别结果;
获取所述语音模型对所述原始音频样本进行识别得到的第二识别结果;
当所述第一识别结果与所述第二识别结果之间的相似度满足预设的第二条件时,确定所述初始对抗样本为合格的对抗样本;并且,当所述第一识别结果与所述第二识别结果之间的相似度不满足预设的第二条件时,确定重新进行对抗样本的生成。
优选地,所述对所述原始音频样本进行音频处理分析以确定所述原始音频样本的高幅度区域,包括:
对所述原始音频样本进行音频处理分析获得每一个样本的音频特征值;其中所述原始音频样本包括多个样本;
根据所述每一个样本的音频特征值与预设阈值的比较结果获得音频峰值最为显著的一个或多个样本;
以所述音频峰值最为显著的一个或多个样本为中心划定一个或多个高幅度区域。
优选地,所述对所述原始音频样本进行音频处理分析获得每一个样本的音频特征值,包括:
计算每一个样本与其相邻的前k个样本和后k个样本之间的距离,即得到2k个距离;并根据所述2k个距离计算样本的音频特征值;k为预设值。
优选地,所述根据所述每一个样本的音频特征值与预设阈值的比较结果获得音频峰值最为显著的一个或多个样本,包括:
当任一个样本的音频特征值大于预设阈值时,则将该一个样本确定为音频峰值最为显著的一个样本。
优选地,所述高幅度区域包括所述音频峰值最为显著的一个样本,以及与所述音频峰值最为显著的一个样本相邻的前k个样本和后k个样本;k为预设值。
优选地,k为所述原始音频样本的样本数量的1/10。
优选地,所述对所述原始音频样本的高幅度区域添加噪声ε以生成初始对抗样本,并使得所述初始对抗样本与所述原始音频样本之间的相似度满足预设的第一条件,包括:
计算所述原始音频样本与所述初始对抗样本之间的相似度;
如果该相似度不满足预设的第一条件,则重新调整所述初始对抗样本的噪声ε,直至调整后的初始对抗样本与所述原始音频样本之间的相似度满足预设的第一条件。
优选地,所述重新调整所述初始对抗样本的噪声ε,包括:
令噪声ε=ε+α·dis获得新的噪声ε,并对所述原始音频样本的高幅度区域添加噪声ε以生成新的初始对抗样本;其中,dis为预设的噪声的步进范围,α为预设的噪声常量。
本发明的第二方面提出一种用于黑盒攻击的语音对抗样本生成系统,用于实现上述的用于黑盒攻击的语音对抗样本生成方法,所述系统包括:
高幅度区域确定模块,用于获取原始音频样本,并对所述原始音频样本进行音频处理分析以确定所述原始音频样本的高幅度区域;
初始对抗样本生成模块,用于对所述原始音频样本的高幅度区域添加噪声ε以生成初始对抗样本,并使得所述初始对抗样本与所述原始音频样本之间的相似度满足预设的第一条件;
第一识别结果获取模块,用于将所述初始对抗样本输入语音模型进行识别获得第一识别结果;
第二识别结果获取模块,用于获取所述语音模型对所述原始音频样本进行识别得到的第二识别结果;以及
对抗样本判定模块,用于当所述第一识别结果与所述第二识别结果之间的相似度满足预设的第二条件时,确定所述初始对抗样本为合格的对抗样本;并且,当所述第一识别结果与所述第二识别结果之间的相似度不满足预设的第二条件时,确定重新进行对抗样本的生成。
本发明的第三方面提出一种计算机可读的存储介质,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时完成上述的用于黑盒攻击的语音对抗样本生成方法。
本发明具有以下有益效果:
本发明利用高幅度音频数据的遮盖性,寻找原始音频样本的高幅度区域,只对高幅度区域中添加噪声,并在对抗样本与原始音频样本保持高相似度的情况下生成对抗样本,大幅度缩减了对抗样本生成时间的同时简化了生成步骤;在达到人耳无法区分的前提下,对抗样本与原始音频样本保持高相似度能够提高黑盒攻击的成功率和效率,利用黑盒攻击成功的对抗样本能够促进深度学习模型的优化,提高深度学习模型的抗攻击能力,让深度学习模型达到更加高的准确率和更加低的错误率。
本发明的其它特征和优点将在随后的说明书中阐述。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的实施例中一种语音对抗样本生成方法的流程图。
图2为本发明的实施例中一种语音对抗样本生成系统的示意图。
具体实施方式
以下将参考附图详细说明本公开的各种示例性实施例、特征和方面。另外,为了更好的说明本发明,在下文的具体实施例中给出了众多的具体细节。本领域技术人员应当理解,没有某些具体细节,本发明同样可以实施。在一些实例中,对于本领域技术人员熟知的手段未作详细描述,以便于凸显本发明的主旨。
参阅图1,本发明一实施例提出一种用于黑盒攻击的语音对抗样本生成方法,包括以下步骤:
步骤S1、获取原始音频样本,并对所述原始音频样本进行音频处理分析以确定所述原始音频样本的高幅度区域;
具体而言,当声音进过耳蜗之后,相对高频的声音到达听觉神经较快,而低频的声音到达的较慢,当添加的噪声(也称为扰动)和原始音频样本的高幅度声音很接近时,人耳不能够区分出来,因此本实施例中寻求原始音频样本中的高幅度区域,基于该高幅度区域来生成对抗样本;
步骤S2、对所述原始音频样本的高幅度区域添加噪声ε以生成初始对抗样本,并使得所述初始对抗样本与所述原始音频样本之间的相似度满足预设的第一条件;
具体而言,所述预设的第一条件指的是所述初始对抗样本与所述原始音频样本之间的相似度大于等于预设的相似度阈值,使得生成的对抗样本与原始音频样本保持高相似度,有助于提高对抗样本攻击的成功率和效率;
其中,所述初始对抗样本与所述原始音频样本之间的相似度的计算可以通过计算两者的数学距离来度量;所述数学距离指的是欧氏距离、曼哈顿距离、切比雪夫距离等;
步骤S3、将所述初始对抗样本输入语音模型进行识别获得第一识别结果;
具体而言,所述语音模型指的是利用所述原始音频样本训练得到的语音识别模型,例如是采用深度学习神经网络结构搭建的;
步骤S4、获取所述语音模型对所述原始音频样本进行识别得到的第二识别结果;
步骤S5、当所述第一识别结果与所述第二识别结果之间的相似度满足预设的第二条件时,确定所述初始对抗样本为合格的对抗样本;并且,当所述第一识别结果与所述第二识别结果之间的相似度不满足预设的第二条件时,确定重新进行对抗样本的生成;
具体而言,所述预设的第二条件指的是所述第一识别结果与所述第二识别结果之间的相似度大于预设的相似度阈值,如果所述第一识别结果与所述第二识别结果之间的相似度满足预设的第二条件,则表示语音模型将对抗样本识别错误识别,此时表示攻击成功,对应的对抗样本则是合格的,输出该合格的对抗样本;否则,需要重新进行对抗样本的生成,即重复步骤S2-S5,调整噪声ε,生成其他的对抗样本;
其中,所述第一识别结果与所述第二识别结果之间的相似度的计算可以通过计算两者的数学距离来度量;所述数学距离指的是欧氏距离、曼哈顿距离、切比雪夫距离等。
优选地,所述步骤S1中,对所述原始音频样本进行音频处理分析以确定所述原始音频样本的高幅度区域,包括:
步骤S11、对所述原始音频样本进行音频处理分析获得每一个样本的音频特征值;其中所述原始音频样本包括多个样本;
步骤S12、根据所述每一个样本的音频特征值与预设阈值的比较结果获得音频峰值最为显著的一个或多个样本;
步骤S13、以所述音频峰值最为显著的一个或多个样本为中心划定一个或多个高幅度区域。
优选地,所述步骤S11,包括:
计算每一个样本与其相邻的前k个样本和后k个样本之间的距离,即得到2k个距离;并根据所述2k个距离计算样本的音频特征值;k为预设值。
具体而言,设定一个认为音频处于高幅度信号的预设阈值T,为了使得该阈值具有通用性,本发明将预设阈值T设定为多组音频迭代后最大值的均值,设所述原始音频样本的数据为X={x1,x2,...,xn},xi为各个样本,i=1~n中的任一个值,n为大于1的值,具体取决于所述原始音频样本的数据量,通过样本xi的前、后k个相邻的平均距离计算样本xi的音频特征值S(xi),如以下公式所示:
举例而言,xi-xi-1表示xi和xi-1之间的数学距离,以此类推;
将所有的高幅度区域提取出来之后,需要对其进行噪声ε的添加,噪声ε的生成和添加过程如下:
为了控制噪声ε的强度,需要将噪声ε控制在音频的幅值范围内,即设定噪声范围为ε∈[Vmin,Vmax];其中,Vmin为当前语音样本数据幅值的最小值,Vmax为当前语音样本数据幅值的最大值,初始化噪声ε为符合正态随机分布的任意噪声;
将噪声ε加入到事先挑选出的所有的高幅度区域中来生成对抗样本X';例如,{x1,x2,...,x15}和{x101,x102,...,x200}是高幅度区域,则生成的对抗样本
优选地,所述根据所述每一个样本的音频特征值与预设阈值的比较结果获得音频峰值最为显著的一个或多个样本,包括:
当任一个样本的音频特征值大于预设阈值时,则将该一个样本确定为音频峰值最为显著的一个样本;
具体而言,当任一个样本xi的音频特征值S(xi)大于预设阈值T时,则该一个样本xi为音频峰值最为显著的一个样本,通过计算各个样本的音频特征值并与预设阈值T进行比较,可以得到音频峰值最为显著的一个或多个样本,对应地,可以得到一个或多个高幅度区域。
优选地,所述高幅度区域包括所述音频峰值最为显著的一个样本,以及与所述音频峰值最为显著的一个样本相邻的前k个样本和后k个样本;k为预设值。
优选地,根据实验分析,k优选但不限于为所述原始音频样本的样本数量的1/10。
优选地,所述步骤S2,包括:
步骤S21、计算所述原始音频样本与所述初始对抗样本之间的相似度;
步骤S22、如果步骤S21计算得到的该相似度不满足预设的第一条件,则重新调整所述初始对抗样本的噪声ε,直至调整后的初始对抗样本与所述原始音频样本之间的相似度满足预设的第一条件。
优选地,所述重新调整所述初始对抗样本的噪声ε,包括:
令噪声ε=ε+α·dis获得新的噪声ε,并对所述原始音频样本的高幅度区域添加噪声ε以生成新的初始对抗样本;其中,dis为预设的噪声的步进范围,α为预设的噪声常量;
进一步地,为保证每次的噪声更新幅度,以及对抗样本与原始样本的高相似度,本实施例中优选但不限于为0.3;
更进一步地,在获得新的初始对抗样本之后,判断其与所述原始音频样本之间的相似度是否满足预设的第一条件,若满足,则继续重复步骤S3-S5;若不满足,则继续重新调整所述初始对抗样本的噪声ε,直至调整后的初始对抗样本与所述原始音频样本之间的相似度满足预设的第一条件。
本实施例方法结束的条件有两个,满足其一即结束,一个是得到合格的初始对抗样本,预期的目标;另一个是重复步骤的迭代次数达到上限。
本发明的另一实施例提出一种用于黑盒攻击的语音对抗样本生成系统,用于实现上述的用于黑盒攻击的语音对抗样本生成方法,所述系统包括:
高幅度区域确定模块,用于获取原始音频样本,并对所述原始音频样本进行音频处理分析以确定所述原始音频样本的高幅度区域;
初始对抗样本生成模块,用于对所述原始音频样本的高幅度区域添加噪声ε以生成初始对抗样本,并使得所述初始对抗样本与所述原始音频样本之间的相似度满足预设的第一条件;
第一识别结果获取模块,用于将所述初始对抗样本输入语音模型进行识别获得第一识别结果;
第二识别结果获取模块,用于获取所述语音模型对所述原始音频样本进行识别得到的第二识别结果;以及
对抗样本判定模块,用于当所述第一识别结果与所述第二识别结果之间的相似度满足预设的第二条件时,确定所述初始对抗样本为合格的对抗样本;并且,当所述第一识别结果与所述第二识别结果之间的相似度不满足预设的第二条件时,确定重新进行对抗样本的生成。
以上所描述的实施例的系统仅仅是示意性的,其中所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络模块上。可以根据实际的需要选择其中的部分或者全部模块来实现实施例的系统的方案的目的。
需说明的是,本实施例的用于黑盒攻击的语音对抗样本生成系统与上述实施例的用于黑盒攻击的语音对抗样本生成方法对应,因此,本实施例的用于黑盒攻击的语音对抗样本生成系统未详述的部分可以参阅上述实施例的用于黑盒攻击的语音对抗样本生成方法的内容得到,故此处不进行赘述。
并且,上述实施例的系统若以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。
本发明的又一实施例提出一种计算机可读的存储介质,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时完成上述的用于黑盒攻击的语音对抗样本生成方法。
具体而言,所述计算机可读存储介质可以包括:能够携带所述计算机程序指令的任何实体或记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。
以上已经描述了本发明的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和更换都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。
Claims (10)
1.一种用于黑盒攻击的语音对抗样本生成方法,其特征在于,包括:
获取原始音频样本,并对所述原始音频样本进行音频处理分析以确定所述原始音频样本的高幅度区域;
对所述原始音频样本的高幅度区域添加噪声ε以生成初始对抗样本,并使得所述初始对抗样本与所述原始音频样本之间的相似度满足预设的第一条件;
将所述初始对抗样本输入语音模型进行识别获得第一识别结果;
获取所述语音模型对所述原始音频样本进行识别得到的第二识别结果;
当所述第一识别结果与所述第二识别结果之间的相似度满足预设的第二条件时,确定所述初始对抗样本为合格的对抗样本;并且,当所述第一识别结果与所述第二识别结果之间的相似度不满足预设的第二条件时,确定重新进行对抗样本的生成。
2.根据权利要求1所述的用于黑盒攻击的语音对抗样本生成方法,其特征在于,所述对所述原始音频样本进行音频处理分析以确定所述原始音频样本的高幅度区域,包括:
对所述原始音频样本进行音频处理分析获得每一个样本的音频特征值;其中所述原始音频样本包括多个样本;
根据所述每一个样本的音频特征值与预设阈值的比较结果获得音频峰值最为显著的一个或多个样本;
以所述音频峰值最为显著的一个或多个样本为中心划定一个或多个高幅度区域。
3.根据权利要求2所述的用于黑盒攻击的语音对抗样本生成方法,其特征在于,所述对所述原始音频样本进行音频处理分析获得每一个样本的音频特征值,包括:
计算每一个样本与其相邻的前k个样本和后k个样本之间的距离,即得到2k个距离;并根据所述2k个距离计算样本的音频特征值;k为预设值。
4.根据权利要求2所述的用于黑盒攻击的语音对抗样本生成方法,其特征在于,所述根据所述每一个样本的音频特征值与预设阈值的比较结果获得音频峰值最为显著的一个或多个样本,包括:
当任一个样本的音频特征值大于预设阈值时,则将该一个样本确定为音频峰值最为显著的一个样本。
5.根据权利要求2所述的用于黑盒攻击的语音对抗样本生成方法,其特征在于,所述高幅度区域包括所述音频峰值最为显著的一个样本,以及与所述音频峰值最为显著的一个样本相邻的前k个样本和后k个样本;k为预设值。
6.根据权利要求3或5所述的用于黑盒攻击的语音对抗样本生成方法,其特征在于,k为所述原始音频样本的样本数量的1/10。
7.根据权利要求1所述的用于黑盒攻击的语音对抗样本生成方法,其特征在于,所述对所述原始音频样本的高幅度区域添加噪声ε以生成初始对抗样本,并使得所述初始对抗样本与所述原始音频样本之间的相似度满足预设的第一条件,包括:
计算所述原始音频样本与所述初始对抗样本之间的相似度;
如果该相似度不满足预设的第一条件,则重新调整所述初始对抗样本的噪声ε,直至调整后的初始对抗样本与所述原始音频样本之间的相似度满足预设的第一条件。
8.根据权利要求7所述的用于黑盒攻击的语音对抗样本生成方法,其特征在于,所述重新调整所述初始对抗样本的噪声ε,包括:
令噪声ε=ε+α·dis获得新的噪声ε,并对所述原始音频样本的高幅度区域添加噪声ε以生成新的初始对抗样本;其中,dis为预设的噪声的步进范围,α为预设的噪声常量。
9.一种用于黑盒攻击的语音对抗样本生成系统,其特征在于,用于实现上述权利要求1-8中任一项所述的用于黑盒攻击的语音对抗样本生成方法,所述系统包括:
高幅度区域确定模块,用于获取原始音频样本,并对所述原始音频样本进行音频处理分析以确定所述原始音频样本的高幅度区域;
初始对抗样本生成模块,用于对所述原始音频样本的高幅度区域添加噪声ε以生成初始对抗样本,并使得所述初始对抗样本与所述原始音频样本之间的相似度满足预设的第一条件;
第一识别结果获取模块,用于将所述初始对抗样本输入语音模型进行识别获得第一识别结果;
第二识别结果获取模块,用于获取所述语音模型对所述原始音频样本进行识别得到的第二识别结果;以及
对抗样本判定模块,用于当所述第一识别结果与所述第二识别结果之间的相似度满足预设的第二条件时,确定所述初始对抗样本为合格的对抗样本;并且,当所述第一识别结果与所述第二识别结果之间的相似度不满足预设的第二条件时,确定重新进行对抗样本的生成。
10.一种计算机可读的存储介质,其特征在于,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时完成权利要求1至8任一项中所述的用于黑盒攻击的语音对抗样本生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210958911.XA CN117648990A (zh) | 2022-08-10 | 2022-08-10 | 一种用于黑盒攻击的语音对抗样本生成方法及其系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210958911.XA CN117648990A (zh) | 2022-08-10 | 2022-08-10 | 一种用于黑盒攻击的语音对抗样本生成方法及其系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117648990A true CN117648990A (zh) | 2024-03-05 |
Family
ID=90046529
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210958911.XA Pending CN117648990A (zh) | 2022-08-10 | 2022-08-10 | 一种用于黑盒攻击的语音对抗样本生成方法及其系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117648990A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117877506A (zh) * | 2024-03-11 | 2024-04-12 | 北京建筑大学 | 一种对语音内容进行增强的对抗性攻击方法、装置和系统 |
-
2022
- 2022-08-10 CN CN202210958911.XA patent/CN117648990A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117877506A (zh) * | 2024-03-11 | 2024-04-12 | 北京建筑大学 | 一种对语音内容进行增强的对抗性攻击方法、装置和系统 |
CN117877506B (zh) * | 2024-03-11 | 2024-05-10 | 北京建筑大学 | 一种对语音内容进行增强的对抗性攻击方法、装置和系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109599109B (zh) | 针对白盒场景的对抗音频生成方法及系统 | |
CN111753881B (zh) | 一种基于概念敏感性量化识别对抗攻击的防御方法 | |
CN108922543B (zh) | 模型库建立方法、语音识别方法、装置、设备及介质 | |
CN113704758B (zh) | 一种黑盒攻击对抗样本生成方法及系统 | |
CN113571067A (zh) | 一种基于边界攻击的声纹识别对抗样本生成方法 | |
CN116488942B (zh) | 一种面向智能声纹识别系统的后门安全性评估方法 | |
Aravind et al. | Audio spoofing verification using deep convolutional neural networks by transfer learning | |
CN113140018A (zh) | 训练对抗网络模型的方法、建立字库的方法、装置和设备 | |
CN115497481B (zh) | 一种虚假语音的识别方法、装置、电子设备及存储介质 | |
KR20200080921A (ko) | 일반화된 사용자 모델을 이용한 사용자 인증 방법 및 장치 | |
CN117648990A (zh) | 一种用于黑盒攻击的语音对抗样本生成方法及其系统 | |
KR20190028880A (ko) | 봇넷 탐지 시스템을 학습하기 위한 학습 데이터를 생성하는 방법 및 그 장치 | |
CN114640518B (zh) | 一种基于音频隐写的个性化触发器后门攻击方法 | |
CN110119621B (zh) | 异常系统调用的攻击防御方法、系统及防御装置 | |
CN113113023B (zh) | 面向自动声纹识别系统的黑盒定向对抗攻击方法及系统 | |
CN111144347B (zh) | 一种数据处理方法、装置、平台及存储介质 | |
CN117454187A (zh) | 一种基于频域限制目标攻击的集成模型训练方法 | |
CN117636857A (zh) | 一种语音对抗样本生成方法及其系统、存储介质 | |
CN112435672A (zh) | 一种声纹识别方法、装置、设备及存储介质 | |
CN113673349B (zh) | 基于反馈机制的图像生成中文文本方法、系统及装置 | |
CN112466310A (zh) | 深度学习声纹识别方法、装置、电子设备及存储介质 | |
CN110706712A (zh) | 家居环境下的录音重放检测方法 | |
CN112201270B (zh) | 语音噪声的处理方法、装置、计算机设备及存储介质 | |
CN113421574B (zh) | 音频特征提取模型的训练方法、音频识别方法及相关设备 | |
CN116434758A (zh) | 声纹识别模型训练方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |