CN114036521B - 一种Windows恶意软件对抗样本生成方法 - Google Patents
一种Windows恶意软件对抗样本生成方法 Download PDFInfo
- Publication number
- CN114036521B CN114036521B CN202111435104.1A CN202111435104A CN114036521B CN 114036521 B CN114036521 B CN 114036521B CN 202111435104 A CN202111435104 A CN 202111435104A CN 114036521 B CN114036521 B CN 114036521B
- Authority
- CN
- China
- Prior art keywords
- disturbance
- sample
- file
- challenge
- countermeasure
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000013507 mapping Methods 0.000 claims abstract description 21
- 238000005457 optimization Methods 0.000 claims abstract description 13
- 238000006243 chemical reaction Methods 0.000 claims abstract description 8
- 239000011159 matrix material Substances 0.000 claims description 20
- 238000001514 detection method Methods 0.000 claims description 17
- 239000013598 vector Substances 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 6
- 230000003068 static effect Effects 0.000 claims description 4
- 230000008676 import Effects 0.000 claims description 3
- 238000010801 machine learning Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 5
- 238000011160 research Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000035772 mutation Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 206010033799 Paralysis Diseases 0.000 description 1
- 230000002155 anti-virotic effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000002498 deadly effect Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- ZXQYGBMAQZUVMI-GCMPRSNUSA-N gamma-cyhalothrin Chemical compound CC1(C)[C@@H](\C=C(/Cl)C(F)(F)F)[C@H]1C(=O)O[C@H](C#N)C1=CC=CC(OC=2C=CC=CC=2)=C1 ZXQYGBMAQZUVMI-GCMPRSNUSA-N 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/50—Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
- G06F21/55—Detecting local intrusion or implementing counter-measures
- G06F21/56—Computer malware detection or handling, e.g. anti-virus arrangements
- G06F21/562—Static detection
Landscapes
- Engineering & Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Virology (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Devices For Executing Special Programs (AREA)
- Stored Programmes (AREA)
Abstract
本发明通过网络安全领域的方法,实现了一种Windows恶意软件对抗样本生成方法。以恶意软件可执行文件作为输入二进制转图像模块,以映射策略将对抗方法生成的对抗扰动添加的位置在指定的位置形成图像文件;之后,将图像通过对抗样本生成模块中的样本对抗生成器根据对抗样本生成方法生成原始图像的对抗样本,之后执行基于微分进化算法的扰动规模优化算法将对抗扰动添加到图像上;最后,以图像转二进制模块通过逆映射策略和调试两步形成最终抗样本输出。本发明提供的方法在保证生成原始样本的逻辑功能不被破坏且生成的对抗样本可以正常执行前提下,将扰动的位置设置于可执行文件各个区域;并实现了对扰动的规模有效控制。
Description
技术领域
本发明涉及网络安全技术领域,尤其涉及一种Windows恶意软件对抗样本生成方法。
背景技术
目前,恶意软件的威胁越来越大。Malwarebytes Labs在发布的《2020恶意软件威胁态势报告》中指出,2019年全球共检测到50510960次恶意软件攻击,其中Windows恶意软件检测量相较于2018年增加13%,针对商业终端的恶意软件安全威胁数量增长13%,攻击性广告软件、特洛伊木马和黑客工具位居首位。除此之外,随着互联网和电商的发展及兴起,黑客们可以通过恶意软件窃取商业机密或者财富,以较低的成本获得高收益,这也诱惑黑客不断开发新的恶意程序,成为恶意软件开发的主要动力。
面对不断出现的新型恶意软件,传统的基于签名的恶意软件检测方法已经越来越力不从心。因此,商业防病毒公司开始使用机器学习方法检测恶意软件。基于机器学习的检测器可以有效检测大量恶意软件并且一般可以达到较高的准确率,因此越来越多的研究将机器学习方法应用到恶意软件检测与分类上。通过静态或者动态方法提取样本的特征向量,并使用机器学习方法对特征向量进行分析,以达到分类的目的。基于机器学习的恶意软件检测方法适应了更庞大的恶意软件规模并且提高了分析的速度。
然而,在2014年,Szegedy人表明深度神经网络(DNN)容易受到对抗性攻击,即对原始样本添加轻微扰动,生成的对抗样本就能以较高的置信度逃避模型的检测,使模型产生错误的分类结果。Grosse等人在此基础上发现该漏洞并不是深度学习模型所独有的,对于其他机器学习模型同样存在该问题,而且该漏洞对恶意软件检测器和分类器也适用。自从这项工作以来,已经出现了许多针对基于机器学习的模型(例如MalConv)的对抗样本攻击。虽然其中许多攻击并不会产生实际的恶意软件,而是生成可以逃避恶意软件检测的特征向量,由于逆特征映射的困难,生成给定特征向量的可执行程序是不切实际的,但是这仍然在不断提醒恶意软件检测领域工作的研究者们,基于机器学习方法进行恶意软件检测仍然存在致命的不足。
在这种情况下,针对恶意软件检测模型的对抗样本技术研究一方面可以加深研究人员对机器学习模型的认识,促进机器学习方法在恶意软件检测领域的发展进步;另一方面,可以提高恶意软件检测器的对对抗样本的抵抗能力,提高检测模型的鲁棒性。
恶意软件通常被用于窃取机密信息,散布广告,破坏数据,攻击服务器等一系列目的,因此众多企业和用户都面临着巨大的安全威胁。在近些年发生的多起大型攻击活动是网络犯罪分子获利最多的方式之一,攻击者经常索取上百万美金的赎金,为企业带来了空前的混乱。攻击者还尝试把敏感数据作为武器,使得受害者面临更大的压力。近五年来,发生过多起恶意程序攻击事件,其中最著名的勒索软件之一SamSam使得亚特兰大市的多家医疗机构和科罗拉多交通局遭遇瘫痪。除了个人与企业之外,犯罪分子甚至还会窃取国家机密、攻击基础设施以扰乱社会正常运转、破坏他国防御系统等,从而严重威胁国家安全。
鉴于恶意软件的规模迅速扩张,基于特征的机器学习方法在恶意软件检测上得到了应用,且应用范围不断扩大。但近几年,研究发现机器学习方法存在致命漏洞,在原始样本添加微小扰动就能导致检测模型对恶意软件误分类,从而导致恶意软件绕过检测,入侵计算机系统。
现有的恶意软件对抗样本的生成方法主要有两种:1、基于梯度的对抗样本生成。该方法选择可执行文件的头部未使用的字段或者在文件的尾部进行填充,然后使用FGSM方法生成对抗样本;2、基于强化学习的对抗样本生成。该方法也选择可执行文件不重要的位置或者在文件的尾部进行填充,然后使用随机添加扰动,对扰动后生成的对抗样本评价,给代理进行反馈,不断迭代。这两种方法都存在巨大的缺陷:1、为了保证生成原始样本的逻辑功能不被破坏且生成的对抗样本可以正常执行,将扰动的位置局限于可执行文件不重要的区域或者在文件的尾部填充;2、扰动的规模无法控制,即最终的对抗样本的扰动的数量一定是在对抗攻击前就已经确定了的,在生成对抗样本后无法更改,导致生成的对抗样本的扰动规模无法控制,要么扰动规模过小导致攻击无效无法生成对抗样本,要么扰动规模过大导致根据文件大小的变化就能发现。
在这样的情况下,本发明提出了基于对抗攻击和微分进化的恶意软件对抗样本生成方法,提出了基于多规则的对抗扰动位置选择策略和基于微分进化算法的扰动规模优化算法。
发明内容
为此,本发明首先提出一种Windows恶意软件对抗样本生成方法,以恶意软件可执行文件作为输入二进制转图像模块,以映射策略将对抗方法生成的对抗扰动添加的位置在指定的位置形成图像文件;之后,将图像通过对抗样本生成模块中的样本对抗生成器根据对抗样本生成方法生成原始图像的对抗样本,之后执行基于微分进化算法的扰动规模优化算法将对抗扰动添加到图像上;最后,以图像转二进制模块通过逆映射策略和调试两步形成最终抗样本输出。
所述映射策略向二进制文件嵌入“0”,对于可执行文件:“.text”节,包含代码指令;“.idata”节:包含文件中使用的导入表信息,即DLL文件信息;“.rdata”节,包含初始化全局和静态变量;“.rsrc”节,包含资源信息,用于存放程序使用的资源数据,在PE文件指定位置生成对抗扰动,具体方法为,通过在每条指令之间插入连续的“0”来标记扰动生成的位置规则如下所示:
规则1:在“.text”节中,在相邻指令间嵌入十六进制的“00”,该对抗扰动只能用一个十六进制表示;
规则2:在“.rdata”节中,在相邻指令间连续嵌入16个十六进制的“00”;
规则3:在二进制文件的尾部追加十六进制“00”,数量不受限制;
最终,该策略会、生成一个添加了原始扰动的初始对抗样本和一个相应的掩码矩阵,其中,掩码矩阵是一个矩阵,矩阵的每一个元素都是0或者1,0表示相应位置的元素是原始样本的内容,属于不可修改的部分,1便是相应位置的元素是扰动的位置,可以对其进行修改。
所述原始图像的对抗样本的生成方法为:输入“二进制转图像”模块的输出,即原始样本xi∈RNxM,检测模型F;目标类别y*;决定两个个体是否交叉运算的概率CR,该值的取值范围在0-1.0之间,CR的值越大,算法的收敛速度越快,根据研究,CR的取值一般在0.5-1.0之间,在本文中,取0.5;对于每个样本都存在一个相应的掩码矩阵Ip i∈RNxM,Ip i和xi相同的维度,Ip i是一个二进制向量,元素值为0或者1,为1表示相应位置的字节为嵌入的“00”,为0则表示相应位置的字节为原始文件内容,属于不可更改的,当向检测模型中输入一个恶意软件时,通过对抗样本生成方法生成初始的对抗样本。
所述对抗样本生成方法为FGSM或JSMA。
所述基于微分进化算法的扰动规模优化算法根据掩码矩阵选择该图像的所需要的对抗扰动,基于微分进化算法实现,具体地,微分进化算法对扰动的数量进行限制,并通过随机选择种群中的当前代两个个体的差集作为第三个个体的变异,生成下一代突变个体,并根据交叉概率决定下一代算子采用突变个体或原始样本个体,之后选择最优个体作为新的个体,得到最优的扰动位置集合更新扰动嵌入位置集合。
所述逆映射策略将扰动替换为合适的内容,替换策略为:
规则1:在“.text”节中,通过计算每个扰动像素和死代码指令之间的L1范数,选择L1范数最小的死代码指令替换扰动像素;
规则2:在“.rdata”节中,通过计算扰动像素到API或者系统调用指令之间的欧几里得距离,并用最近的API或者系统调用替换扰动像素;
规则3:在文件末尾,通过计算每个扰动像素和死代码指令之间的L1范数,选择距离最近的死代码指令替换扰动像素;
之后在将生成的对抗扰动代码嵌入到二进制文件中的“.text”和“.rdata”段后,原始代码中指令、变量和数据保持不变,并通过反汇编工具将扰动后的对抗样本转换为恶意软件代码,具体过程为:首先,需要标记指令在二进制文件中扰动的位置;其次,根据上述规则,在汇编代码中添加到相应的指令上;最后,通过汇编工具编译汇编文件,生成可执行的二进制文件。
本发明所要实现的技术效果在于:
在保证生成原始样本的逻辑功能不被破坏且生成的对抗样本可以正常执行前提下,将扰动的位置设置于可执行文件各个区域;
对扰动的规模有效控制,使对抗样本具有有效攻击且不易根据文件大小的变化发现的能力。
附图说明
图1Windows恶意软件对抗样本生成方法架构;
图2指定位置的约束优化过程;
具体实施方式
以下是本发明的优选实施例并结合附图,对本发明的技术方案作进一步的描述,但本发明并不限于此实施例。
本发明提出了一种Windows恶意软件对抗样本生成方法。恶意软件对抗样本模型系统架构如图1所示。该模型可以生成可运行的恶意软件对抗样本,以恶意软件可执行文件作为输入,以对抗样本作为输出。该模型主要包括以下三个模块:二进制转图像模块、对抗样本生成模块和图像转二进制模块。如图1所示,二进制转图像模块主要包含映射策略。同样,图像转二进制模块包含逆映射策略和调试步骤。映射策略是一个位置感知策略,其主要目的为添加到样本中的扰动占位,能保证对抗方法生成的对抗扰动添加的位置在指定的位置,不会干扰原始样本的恶意功能。逆映射策略和调试步骤主要用来将添加到样本中的扰动再次优化,保证生成的对抗样本是可以执行的。对抗样本生成模块保证包含一个对抗样本生成器和一个优化器。优化器的目的是为了限制扰动的规模,避免扰动规模过大。
基于多规则的对抗扰动位置选择策略
对于可执行文件,主要包括以下部分:“.text”节,包含代码指令;“.idata”节:包含文件中使用的导入表信息,即DLL文件信息;“.rdata”节,包含初始化全局和静态变量;“.rsrc”节,包含资源信息,用于存放程序使用的资源数据。
为保证原始恶意软件的语义功能不被破坏,我们在PE文件指定位置生成对抗扰动。
具体方法为,通过在每条指令之间插入连续的“0”来标记扰动生成的位置,因为当向原始恶意软件样本插入对抗扰动时不会影响对抗样本。具体来说,通过向原始样本中嵌入连续的“0”来标识特定的位置,这些特定的位置即可用来添加对抗扰动。映射策略,即向二进制文件嵌入“0”的规则如下所示:
规则1:在“.text”节中,在相邻指令间嵌入十六进制的“00”。通过这种方式,使得只能在相邻指令间添加到对抗扰动,且该对抗扰动只能用一个十六进制表示;
规则2:在“.rdata”节中,在相邻指令间连续嵌入16个十六进制的“00”。因此,对抗扰动只能用十六进制的数字表示,且只能添加到相邻指令之间;
规则3:在二进制文件的尾部追加十六进制“00”,数量不受限制。
通过以上三条规则,将扰动限制到指定位置。最终,该策略会生成一个添加了原始扰动的初始对抗样本和一个相应的掩码矩阵。其中,掩码矩阵是一个矩阵,矩阵的每一个元素都是0或者1,0表示相应位置的元素是原始样本的内容,属于不可修改的部分,1便是相应位置的元素是扰动的位置,可以对其进行修改。
如前文所述,图像转二进制模块主要包括逆映射策略和调试两步。逆映射策略是映射策略的反过程,主要目的是将插入到二进制文件中的替换为合适的指令。为避免替换后的指令影响恶意软件的功能,我们需要将扰动替换为合适的内容。替换策略如下所示:
规则1:在“.text”节中,通过计算每个扰动像素和死代码指令(如:NOP、WAIT指令)之间的L1范数,选择L1范数最小的死代码指令替换扰动像素;
规则2:在“.rdata”节中,通过计算扰动像素到API或者系统调用指令之间的欧几里得距离,并用最近的API或者系统调用替换扰动像素;
规则3:在文件末尾,通过计算每个扰动像素和死代码指令之间的L1范数,选择距离最近的死代码指令替换扰动像素。
在将生成的对抗扰动代码嵌入到二进制文件中的“.text”和“.rdata”段后,原始代码中指令、变量和数据保持不变。但是对“.text”和“.rdata”段的修改可能会导致执行文件无法执行。例如,跳转指令可能会因为添加指令导致指令位置的改变而无法找到对应的指令。因此,我们需要通过反汇编工具将扰动后的对抗样本转换为恶意软件代码时,具体过程如下:首先,需要标记指令在二进制文件中扰动的位置;其次,根据上述规则,在汇编代码中添加到相应的指令上;最后,我们需要通过汇编工具(如IDAPro)编译汇编文件,生成可执行的二进制文件。
基于多规则的对抗扰动位置选择策略为我们生成的对抗样本扰动限定了位置,既可以在非重要的区域插入扰动,也可以在重要的代码段区域内插入扰动,生成的对抗样本不仅可以攻击基于深度神经网络的检测模型,对基于机器学习的检测方法也有一定的攻击效果。
基于微分进化算法的扰动规模优化算法
扰动规模优化算法主要位于对抗样本生成模块内部。对抗样本生成模块首先根据对抗样本生成方法生成原始图像的对抗样本,然后根据掩码矩阵选择该图像的所需要的对抗扰动。将对抗扰动添加到原始图像上,形成最终的对抗样本。
模型的输入是“二进制转图像”模块的输出,即xi∈RNxM,对于每个样本都存在一个相应的掩码矩阵Ip i∈RNxM,Ip i和xi相同的维度。具体地说,Ip i是一个二进制向量,元素值为0或者1,为1表示相应位置的字节为嵌入的“00”,为0则表示相应位置的字节为原始文件内容,属于不可更改的。当向检测模型中输入一个恶意软件时,会首先通过对抗样本生成方法(如FGSM、JSMA)生成初始的对抗样本,然后掩码矩阵会将指定位置的对抗扰动添加到原始样本中。指定位置的约束优化过程如图2所示。
为保证对抗扰动尽可能隐蔽,不被发现,扰动的数量应该尽可能小。在对抗样本生成过程中,通过掩码矩阵将扰动限制在指定的位置,保证样本的语义功能不被破坏。但是由于对抗扰动的数量过大,很容易被发现。
为解决扰动数量过大的问题,引入了微分进化算法来处理。微分进化算法是一种基于群体的随机优化算法,通过不断迭代获取候选解,常被用来对问题的解进行优化。在优化过程中,通过使用微分进化算法的变异算子优化对抗扰动的嵌入位置。如果一个新的种群成员的逃避检测的效果有所提高,那么将该成员作为种群的一员。
整个算法如下表1所示。其中,xi表示原始样本,F表示用来进行恶意软件检测模型;y*表示目标类别,即良性样本;k用来对最终结果长度进行限制;T表示微分进化算法的迭代次数;F表示缩放系数;CR表示交叉概率,该值的取值范围在0-1.0之间,CR的值越大,算法的收敛速度越快,根据研究,CR的取值一般在0.5-1.0之间,在本文中,取0.5,当随机数大于该值时,意味着需要进行交叉运算,即变异后的个体作为种群的下一代;idxi和len(idxi)表示扰动嵌入位置集合和长度,表示在对抗攻击方法下(如FGSM或者JSMA)生成的初始的对抗样本。
通过该算法对扰动的位置和数量进行限制。步骤4-步骤17是微分进化算法,用来对扰动的数量进行限制;步骤8实现了微分进化算法中的变异算子,通过随机选择种群中的两个个体的差集作为第三个个体的变异,生成第g+1代突变个体;步骤9-步骤12实现了交叉算子,U指代种群的下一代个体;步骤13-步骤16实现了“选择”算子,选择最优个体作为新的个体;微分进化算法的输出是best_idxi,即最优的扰动位置集合。最终,使用best_idxi更新idxi。
表1:基于微分进化算法的扰动规模优化算法
最终,经过微分进化算法优化后的对抗样本会用作图像转二进制模块的输入,用来对其中的扰动进行进一步的逆映射策略,将扰动替换为合法的指令,并经过调试生成最终的对抗样本。
Claims (1)
1.一种Windows恶意软件对抗样本生成方法,其特征在于:以恶意软件可执行文件作为输入二进制转图像模块,以映射策略将对抗方法生成的对抗扰动添加的位置在指定的位置形成图像文件;之后,将图像通过对抗样本生成模块中的样本对抗生成器根据对抗样本生成方法生成原始图像的对抗样本,之后执行基于微分进化算法的扰动规模优化算法将对抗扰动添加到图像上;最后,以图像转二进制模块通过逆映射策略和调试两步形成最终抗样本输出;
所述映射策略向二进制文件嵌入“0”,对于可执行文件:“.text”节,包含代码指令;“.idata”节:包含文件中使用的导入表信息,即DLL文件信息;“.rdata”节,包含初始化全局和静态变量;“.rsrc”节,包含资源信息,用于存放程序使用的资源数据,在PE文件指定位置生成对抗扰动,具体方法为,通过在每条指令之间插入连续的“0”来标记扰动生成的位置规则如下所示:
规则1:在“.text”节中,在相邻指令间嵌入十六进制的“00”,该对抗扰动只能用一个十六进制表示;
规则2:在“.rdata”节中,在相邻指令间连续嵌入16个十六进制的“00”;
规则3:在二进制文件的尾部追加十六进制“00”,数量不受限制;
该策略会生成一个添加了原始扰动的初始对抗样本和一个相应的掩码矩阵,其中,掩码矩阵是一个矩阵,矩阵的每一个元素都是0或者1,0表示相应位置的元素是原始样本的内容,属于不可修改的部分,1便是相应位置的元素是扰动的位置,可以对其进行修改;
所述原始图像的对抗样本的生成方法为:输入“二进制转图像”模块的输出,即原始样本xi∈RNxM,检测模型F;目标类别y*;决定两个个体是否交叉运算的概率CR,该值为0.5;对于每个样本都存在一个相应的掩码矩阵Ip i∈RNxM,Ip i和xi相同的维度,Ip i是一个二进制向量,元素值为0或者1,为1表示相应位置的字节为嵌入的“00”,为0则表示相应位置的字节为原始文件内容,属于不可更改的,当向检测模型中输入一个恶意软件时,通过对抗样本生成方法生成初始的对抗样本;
所述对抗样本生成方法为FGSM或JSMA;
所述基于微分进化算法的扰动规模优化算法根据掩码矩阵选择该图像的所需要的对抗扰动,基于微分进化算法实现,微分进化算法对扰动的数量进行限制,并通过随机选择种群中的当前代两个个体的差集作为第三个个体的变异,生成下一代突变个体,并根据交叉概率决定下一代算子采用突变个体或原始样本个体,之后选择最优个体作为新的个体,得到最优的扰动位置集合更新扰动嵌入位置集合;
所述逆映射策略将扰动替换为合适的内容,替换策略为:
规则1:在“.text”节中,通过计算每个扰动像素和死代码指令之间的L1范数,选择L1范数最小的死代码指令替换扰动像素;
规则2:在“.rdata”节中,通过计算扰动像素到API或者系统调用指令之间的欧几里得距离,并用最近的API或者系统调用替换扰动像素;
规则3:在文件末尾,通过计算每个扰动像素和死代码指令之间的L1范数,选择距离最近的死代码指令替换扰动像素;
之后在将生成的对抗扰动代码嵌入到二进制文件中的“.text”和“.rdata”段后,原始代码中指令、变量和数据保持不变,并通过反汇编工具将扰动后的对抗样本转换为恶意软件代码,具体过程为:首先,需要标记指令在二进制文件中扰动的位置;其次,根据上述规则,在汇编代码中添加到相应的指令上;最后,通过汇编工具编译汇编文件,生成可执行的二进制文件。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111435104.1A CN114036521B (zh) | 2021-11-29 | 2021-11-29 | 一种Windows恶意软件对抗样本生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111435104.1A CN114036521B (zh) | 2021-11-29 | 2021-11-29 | 一种Windows恶意软件对抗样本生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114036521A CN114036521A (zh) | 2022-02-11 |
CN114036521B true CN114036521B (zh) | 2024-05-03 |
Family
ID=80145880
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111435104.1A Active CN114036521B (zh) | 2021-11-29 | 2021-11-29 | 一种Windows恶意软件对抗样本生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114036521B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114266050B (zh) * | 2022-03-03 | 2022-10-04 | 西南石油大学 | 一种跨平台恶意软件对抗样本生成方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109446808A (zh) * | 2018-10-30 | 2019-03-08 | 中国人民解放军国防科技大学 | 基于DCGAN的Android对抗样本生成方法及系统 |
CN110826059A (zh) * | 2019-09-19 | 2020-02-21 | 浙江工业大学 | 面向恶意软件图像格式检测模型的黑盒攻击的防御方法及其装置 |
CN112231703A (zh) * | 2020-11-09 | 2021-01-15 | 北京理工大学 | 一种结合api模糊处理技术的恶意软件对抗样本生成方法 |
WO2021018929A1 (en) * | 2019-07-30 | 2021-02-04 | Leap In Value, Sl | A computer-implemented method, a system and a computer program for identifying a malicious file |
CN113158190A (zh) * | 2021-04-30 | 2021-07-23 | 河北师范大学 | 一种基于生成式对抗网络的恶意代码对抗样本自动生成方法 |
-
2021
- 2021-11-29 CN CN202111435104.1A patent/CN114036521B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109446808A (zh) * | 2018-10-30 | 2019-03-08 | 中国人民解放军国防科技大学 | 基于DCGAN的Android对抗样本生成方法及系统 |
WO2021018929A1 (en) * | 2019-07-30 | 2021-02-04 | Leap In Value, Sl | A computer-implemented method, a system and a computer program for identifying a malicious file |
CN110826059A (zh) * | 2019-09-19 | 2020-02-21 | 浙江工业大学 | 面向恶意软件图像格式检测模型的黑盒攻击的防御方法及其装置 |
CN112231703A (zh) * | 2020-11-09 | 2021-01-15 | 北京理工大学 | 一种结合api模糊处理技术的恶意软件对抗样本生成方法 |
CN113158190A (zh) * | 2021-04-30 | 2021-07-23 | 河北师范大学 | 一种基于生成式对抗网络的恶意代码对抗样本自动生成方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114036521A (zh) | 2022-02-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Iwendi et al. | Keysplitwatermark: Zero watermarking algorithm for software protection against cyber-attacks | |
Demetrio et al. | Adversarial exemples: A survey and experimental evaluation of practical attacks on machine learning for windows malware detection | |
Alazab | Profiling and classifying the behavior of malicious codes | |
Li et al. | CNN-based malware variants detection method for internet of things | |
Zhu et al. | Android malware detection based on multi-head squeeze-and-excitation residual network | |
US8707436B2 (en) | Defining code by its functionality | |
Sun et al. | Effective malware detection scheme based on classified behavior graph in IIoT | |
Yang et al. | Deepmal: maliciousness-preserving adversarial instruction learning against static malware detection | |
CN114036521B (zh) | 一种Windows恶意软件对抗样本生成方法 | |
Li et al. | An IRL-based malware adversarial generation method to evade anti-malware engines | |
Jia et al. | MAGIC: Detecting Advanced Persistent Threats via Masked Graph Representation Learning | |
Labone et al. | Unidirectional and bidirectional machine learning models for ransomware detection via malicious opcode discovery | |
Guo et al. | Malware detection with convolutional neural network using hardware events | |
Greco et al. | Explaining binary obfuscation | |
Cheng et al. | Malware clustering using family dependency graph | |
CN111506313A (zh) | 一种基于神经网络的程序控制流混淆方法及系统 | |
Bostami et al. | Deep learning meets malware detection: an investigation | |
Nadeem et al. | Intelligent malware defenses | |
Sanda et al. | A deep learning approach for host-based cryptojacking malware detection | |
Prasad et al. | Application of Hidden Markov Model for classifying metamorphic virus | |
Murali et al. | A conceptual direction on automatically evolving computer malware using genetic and evolutionary algorithms | |
BOODAI et al. | DEEP LEARNING FOR MALWARE DETECTION: LITERATURE REVIEW | |
Zeng et al. | PatchFinger: A Model Fingerprinting Scheme Based on Adversarial Patch | |
Madhekar et al. | A Literature Review of Various Analysis Methods and Classification techniques of Malware | |
Tang et al. | APT Detector: Detect and Identify APT Malware Based on Deep Learning Framework |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |