CN112926052A - 基于遗传算法的深度学习模型安全漏洞测试和修复方法、装置和系统 - Google Patents
基于遗传算法的深度学习模型安全漏洞测试和修复方法、装置和系统 Download PDFInfo
- Publication number
- CN112926052A CN112926052A CN202110204104.4A CN202110204104A CN112926052A CN 112926052 A CN112926052 A CN 112926052A CN 202110204104 A CN202110204104 A CN 202110204104A CN 112926052 A CN112926052 A CN 112926052A
- Authority
- CN
- China
- Prior art keywords
- deep learning
- learning model
- image
- security vulnerability
- genetic algorithm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013136 deep learning model Methods 0.000 title claims abstract description 149
- 238000012360 testing method Methods 0.000 title claims abstract description 92
- 230000002068 genetic effect Effects 0.000 title claims abstract description 58
- 238000000034 method Methods 0.000 title claims abstract description 28
- 230000006870 function Effects 0.000 claims abstract description 35
- 230000008439 repair process Effects 0.000 claims abstract description 19
- 238000012549 training Methods 0.000 claims abstract description 12
- 230000035772 mutation Effects 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 12
- 238000001514 detection method Methods 0.000 claims description 12
- 238000005457 optimization Methods 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 6
- 238000010276 construction Methods 0.000 claims description 3
- 238000012216 screening Methods 0.000 claims description 3
- 230000003211 malignant effect Effects 0.000 abstract description 7
- 230000002787 reinforcement Effects 0.000 abstract description 2
- 238000010998 test method Methods 0.000 abstract description 2
- 238000005516 engineering process Methods 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 238000011161 development Methods 0.000 description 4
- 238000007792 addition Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 241000282414 Homo sapiens Species 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- ZXQYGBMAQZUVMI-GCMPRSNUSA-N gamma-cyhalothrin Chemical compound CC1(C)[C@@H](\C=C(/Cl)C(F)(F)F)[C@H]1C(=O)O[C@H](C#N)C1=CC=CC(OC=2C=CC=CC=2)=C1 ZXQYGBMAQZUVMI-GCMPRSNUSA-N 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000005067 remediation Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/50—Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
- G06F21/55—Detecting local intrusion or implementing counter-measures
- G06F21/554—Detecting local intrusion or implementing counter-measures involving event detection and direct action
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/50—Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
- G06F21/57—Certifying or maintaining trusted computer platforms, e.g. secure boots or power-downs, version controls, system software checks, secure updates or assessing vulnerabilities
- G06F21/577—Assessing vulnerabilities and evaluating computer system security
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/086—Learning methods using evolutionary algorithms, e.g. genetic algorithms or genetic programming
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Security & Cryptography (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Hardware Design (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Computational Biology (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physiology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于遗传算法的深度学习模型安全漏洞测试和修复方法、装置和系统,通过根据输入图像在深度学习模型中标签的类别预测值差异和添加的噪声最小化构建评价函数,利用该评价函数优化生成能覆盖深度学习模型边界和识别差距大的恶性图像,当能够得到恶性图像说明原始深度学习模型不安全,反之则安全,以此来实现对深度学习模型的安全性测试,该安全测试方法简单且准确;利用获得的测试图像对原始深度学习模型进行强化训练,以修复深度学习模型,来提高深度学习模型的识别结果准确率。
Description
技术领域
本发明属于深度学习安全技术领域,具体涉及一种基于遗传算法的深度学习模型安全漏洞测试和修复方法、装置和系统。
背景技术
人工智能技术在计算机视觉和自然语言处理等领域取得突破,使人工智能迎来了新一轮的爆炸式发展。深度学习作为这些突破中的关键技术,已经逐渐成为人工智能领域的研究热点和主流发展方向。深度学习是由多个处理层组成的计算模型,学习具有多个抽象层次的数据表示的机器学习技术。深度学习代表了机器学习和人工智能研究的主要发展方向,给机器学习和计算机视觉等领域带来了革命性的进步。其中,基于卷积神经网络(Convolutional Neural Networks,CNN)的图像分类技术已经超过了人眼的精度,基于深度神经网络(Deep Neural Network,DNN)的语音识别技术已经达到了95%的精度,基于深度神经网络的机器翻译技术已经接近了人类的平均翻译水平。随着精度的迅速提高,计算机视觉和自然语言处理已经进入产业化阶段,并带动了新兴产业的兴起。
DNN取得了很好的进展,这促进了DNN驱动的自动驾驶汽车的发展。它们通过传感器如摄像机、激光雷达等感知环境,就可以在无人辅助的情况下自动驾驶。主要的制造商包括通用、福特、特斯拉、宝马,和waymo谷歌正致力于建造和测试不同类型的自动驾驶汽车。
然而,尽管DNN取得了惊人的进展,就像传统的软件一样,却常常暴露出不正确或不符预期的极端情形行为,这些可能会导致潜在的致命碰撞。几起自动驾驶汽车涉事的真实世界的事故已经发生,其中一个还导致了死亡。深度学习模型已经应用于多个领域,包括图像识别、语音识别,同时自动驾驶及流氓软件的检测等问题上也已经开始使用。尤其是类似自动驾驶问题,对安全性要求极强,所以迫切需要对深度学习模型有效的测试方法,来验证深度学习模型是否可靠。
同时预先训练的DNN可能包含通过训练或通过转换内部神经元权重注入的后门成为木马模型。当提供常规输入时,这些木马模型正常工作,当输入被印上触发器的特殊模式时,对特定的输出标签进行错误分类。例如,一个基于DNN的面部识别系统,它被训练成每当一个非常特定的符号在人脸上或附近被检测到时,它将人脸识别为“比尔盖茨”,或者一种可以将任何交通标志变成绿灯的贴纸。后门可以在训练时插入到模型中,例如由公司的流氓员工负责培训模型,或在最初的模型培训之后插入后门,若完成得很好,这些后门对正常输入的分类结果的影响很小,使得它们几乎无法检测。但是对于受到后门攻击的模型的测试工作却较少,因此提出了针对深度学习模型安全漏洞的测试方法。
发明内容
鉴于上述,本发明的目的是提供一种基于遗传算法的深度学习模型安全漏洞测试和修复方法、装置和系统,以实现对深度学习模型的安全漏洞检测和修复。
为实现上述发明目的,本发明提供以下技术方案:
第一方面,一种基于遗传算法的深度学习模型安全漏洞测试方法,包括以下步骤:
(1)获取图像数据集和待测试深度学习模型,利用测试深度学习模型对图像进行测试以筛选能够正确识别的图像组成干净图像数据集;
(2)从所述干净图像数据集中随机选择若干图像作为测试种子图像,并对测试种子图像添加初始扰动;
(3)将添加扰动的图像输入至待测试深度学习模型获得预测标签,依据添加扰动最小化和预测标签与真实标签不同构建的适应度函数来选择图像作为父辈,并进行交叉产生子代图像,对子代图像添加扰动以进行变异;
(4)重复执行步骤(3),直到满足迭代终止条件,在满足迭代终止时,若能获得满足添加扰动最小化和预测标签与真实标签不同的添加扰动的图像时,即认为测试深度学习模型存在安全漏洞。
优选地,所述适应度函数obj3为:
obj3=obj1+λ·obj2
obj2=f(x′)[c]≠c
其中,obj1表示添加扰动最小化函数,x表示原图像,x′表示添加扰动图像,ε表示很小的扰动值以确保扰动最小化,取值范围为(0,10],表示二范数的平方,obj2表示预测标签与真实标签不同函数,f(x′)[c]表示图像x′输入深度学习模型中针对真实标签c的预测类标,λ表示超参数。
优选地,每次迭代时,变异概率根据动量更新调整:
其中,Pnew表示更新后的变异概率,表示pold表示原变异概率,currScore表示所在代图像根据适应度函数的评分,prevScore表示上一代图像根据适应度函数的评分,β和γ为超参数,给子代添加噪声,取值范围(0,1];
利用更新后的变异概率对子代图像进行变异。
优选地,步骤(1)中,将图像输入至待测试深度学习模型中得到预测标签,若预测标签与真实标签一致,则认为图像能够被正确识别,用于组成干净图像数据集。
优选地,图像数据集为MNIST数据集、Imagenet数据集或Driving数据集;所述待测试深度学习模型为自动驾驶模型或人脸识别模型。
第二方面,一种基于遗传算法的深度学习模型安全漏洞修复方法,包括以下步骤:
(1)利用上述基于遗传算法的深度学习模型安全漏洞测试方法测试待测试深度学习模型存在安全漏洞,且获得添加扰动的图像作为测试图像;
(2)利用测试图像对待测试深度学习模型进行优化训练,以实现对待测试深度学习模型的安全漏洞进行修复。
第三方面,一种基于遗传算法的深度学习模型安全漏洞测试装置,包括:
构建模块,用于获取图像数据集和待测试深度学习模型,利用测试深度学习模型对图像进行测试以筛选能够正确识别的图像组成干净图像数据集;
筛选模块,用于从所述干净图像数据集中随机选择若干图像作为测试种子图像,并对测试种子图像添加初始扰动;
检测模块,用于将添加扰动的图像输入至待测试深度学习模型获得预测标签,依据添加扰动最小化和预测标签与真实标签不同构建的适应度函数来选择图像作为父辈,并进行交叉产生子代图像,对子代图像添加扰动以进行变异,重复迭代选择、交叉以及变异过程,直到满足迭代终止条件,在满足迭代终止时,若能获得满足添加扰动最小化和预测标签与真实标签不同的添加扰动的图像时,即认为测试深度学习模型存在安全漏洞。
第四方面,一种基于遗传算法的深度学习模型安全漏洞修复装置,包括:
检测单元,用于上述基于遗传算法的深度学习模型安全漏洞测试装置测试待测试深度学习模型存在安全漏洞,且获得添加扰动的图像作为测试图像;
修复单元,利用测试图像对待测试深度学习模型进行优化训练,以实现对待测试深度学习模型的安全漏洞进行修复。
第五方面,一种基于遗传算法的深度学习模型安全漏洞测试系统,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上执行的计算机程序,所述处理器执行所述计算机程序时实现上述基于遗传算法的深度学习模型安全漏洞测试方法。
第六方面,一种基于遗传算法的深度学习模型安全漏洞修复系统,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上执行的计算机程序,所述处理器执行所述计算机程序时实现上述基于遗传算法的深度学习模型安全漏洞修复方法。
与现有技术相比,本发明实施例提供的基于遗传算法的深度学习模型安全漏洞测试和修复方法、装置和系统具有的有益效果至少包括:
通过遗传算法寻优添加扰动的图像,根据寻优结果以判断深度学习模型是否安全,实现对深度学习模型的安全漏洞测试,该测试方法简单且准确,最后利用生成的图像实现对深度学习模型的修复,以提高待测试深度学习模型的预测准确性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图做简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动前提下,还可以根据这些附图获得其他附图。
图1是本发明实施例提供的基于遗传算法的深度学习模型安全漏洞测试方法的流程图;
图2是本发明实施例提供的基于遗传算法的深度学习模型安全漏洞修复方法的流程图;
图3是本发明实施例提供的基于遗传算法的深度学习模型安全漏洞测试装置的结构示意图;
图4是本发明实施例提供的基于遗传算法的深度学习模型安全漏洞修复装置的结构示意图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例对本发明进行进一步的详细说明。应当理解,此处所描述的具体实施方式仅仅用以解释本发明,并不限定本发明的保护范围。
自动驾驶模型或人脸识别模型,这种模型安全性要求高,因此需要对上述两种模型进行测试来验证模型是否可靠。然而,针对自动驾驶模型的大多数测试技术都依赖于人工收集测试数据,耗时且昂贵。为了实现对自动驾驶模型或人脸识别模型等深度学习模型的安全漏洞检测和修复,实施例提供了一种基于遗传算法的深度学习模型安全漏洞测试方法、装置和系统,在测试安全漏洞的时候生成质量高的添加扰动的图像用作测试图像。还提供一种基于遗传算法的深度学习模型安全漏洞修复方法、装置和系统。利用测试样本来修复深度学习模型,来提升深度学习模型评判结果的准确性。
实施例1
为了实现对自动驾驶模型或人脸识别模型等深度学习模型的安全漏洞检测,如图1所示,实施例提供的深度学习模型安全漏洞测试方法包括以下步骤:
步骤1,获取图像数据集与待测试深度学习模型。
实施例中,图片数据集为MNIST数据集、Imagenet数据集或Driving数据集。深度学习模型为LeNet深度学习模型、VGG19深度学习模型或ResNet50深度学习模型。
步骤2,利用测试深度学习模型对图像进行测试以筛选能够正确识别的图像组成干净图像数据集。
具体为将步骤S1中的图像输入待测试深度学习模型中,测试深度学习模型将输出输入图像的预测标签,若预测标签与图像的真实标签一致,则该图像能够被待测试深度学习模型正确识别,放入干净图像数据集。
步骤3,从所述干净图像数据集中随机选择若干图像作为测试种子图像,并对测试种子图像添加初始扰动。
实施例中,具体可以从干净图像数据集中随机选取k张图像作为测试种子。再添加初始扰动时,保证添加的噪声扰动的尺寸与图像的尺寸相同,对于尺寸为H*W的原图像x,增加扰动后为尺寸为H*W的扰动图像x′。
步骤4,将添加扰动的图像输入至待测试深度学习模型获得预测标签,依据添加扰动最小化和预测标签与真实标签不同构建的适应度函数来选择图像作为父辈,并进行交叉产生子代图像,对子代图像添加扰动以进行变异。
实施例中,根据输入图像在待测试深度学习模型中标签的类别预测值差异和添加的噪声最小化构建适应度函数。利用遗传算法生成的表示恶性图像的边界案例需要满足一个联合优化问题,即满足添加扰动最小化和输入图像在待测试深度学习模型中的分类结果不同两个要求,因此,作为目标函数的适应度函数可分为两部分。
第二部分为输入图像在待测试深度学习模型中的分类结果不同,表示为:obj2=f(x′)[c]≠c,f(x′)[c]表示输入图像x′输入待测试深度学习模型中针对真实标签c的预测标签。
基于第一部分和第二部分,目标函数的适应度函数为obj3=obj1+λ·obj2,λ是为超参数,取值范围为(0,1]。
基于遗传算法生成添加扰动的图像时,种群大小设为100,精英数量设为10,最大迭代次数设为3000。仅依靠输入和输出对扰动进行迭代优化。使用L2范数衡量添加的扰动大小。具体过程为:复制选取的测试种子图像至设置的种群数量,在每个个体图像上添加随机噪声进行变异,通过适应度函数给所有个体进行评分,根据评价函数的评分选择最好的10个个体形成精英群体。从精英群体中,根据适应度函数,选择100次,形成父辈1,根据适应度函数再选择100次形成父辈2,进行交叉产生子代。根据动量更新,给子代添加噪声进行变异,进行下一次迭代。直到获得最优的添加扰动图像作为测试样本。
根据动量更新来更新突变的概率,突变的概率在每次迭代中都会根据以下指数加权的移动平均值的更新公式而调整大小:
其中,其中,Pnew表示更新后的变异概率,表示pold表示原变异概率,currScore表示所在代图像根据适应度函数的评分,prevScore表示上一代图像根据适应度函数的评分,β和γ为超参数,给子代添加噪声,取值范围为(0,1];利用更新后的变异概率对子代图像进行变异。
步骤5,重复执行步骤4,直到满足迭代终止条件,在满足迭代终止时,若能获得满足添加扰动最小化和预测标签与真实标签不同的添加扰动的图像时,即认为测试深度学习模型存在安全漏洞。
生成的添加扰动的图像可以用作测试图像,用来对待测试深度学习模型进行修复。
实施例提供的基于遗传算法的深度学习模型安全漏洞测试方法,通过根据输入图像在深度学习模型中标签的类别预测值差异和添加的噪声最小化构建评价函数,利用该评价函数优化生成能覆盖深度学习模型边界和识别差距大的恶性图像,当能够得到恶性图像说明原始深度学习模型不安全,反之则安全,以此来实现对深度学习模型的安全性测试,该安全测试方法简单且准确
实施例2
为了实现对自动驾驶模型或人脸识别模型等深度学习模型的安全漏洞的修复,如图2所示,实施例提供的基于遗传算法的深度学习模型安全漏洞修复方法包括以下步骤:
步骤1,利用上述基于遗传算法的深度学习模型安全漏洞测试方法测试待测试深度学习模型存在安全漏洞,且获得添加扰动的图像作为测试图像;
步骤2,利用测试图像对待测试深度学习模型进行优化训练,以实现对待测试深度学习模型的安全漏洞进行修复。
实施例提供的基于遗传算法的深度学习模型安全漏洞修复方法,利用获得的测试图像对原始深度学习模型进行强化训练,以修复深度学习模型,来提高深度学习模型的识别结果准确率。
实施例3
为了实现对自动驾驶模型或人脸识别模型等深度学习模型的安全漏洞检测,如图3所示,实施例提供的深度学习模型安全漏洞测试装置300包括:
构建模块301,用于获取图像数据集和待测试深度学习模型,利用测试深度学习模型对图像进行测试以筛选能够正确识别的图像组成干净图像数据集;
筛选模块302,用于从所述干净图像数据集中随机选择若干图像作为测试种子图像,并对测试种子图像添加初始扰动;
检测模块303,用于将添加扰动的图像输入至待测试深度学习模型获得预测标签,依据添加扰动最小化和预测标签与真实标签不同构建的适应度函数来选择图像作为父辈,并进行交叉产生子代图像,对子代图像添加扰动以进行变异,重复迭代选择、交叉以及变异过程,直到满足迭代终止条件,在满足迭代终止时,若能获得满足添加扰动最小化和预测标签与真实标签不同的添加扰动的图像时,即认为测试深度学习模型存在安全漏洞。
需要说明的是,实施例3提供的基于遗传算法的深度学习模型安全漏洞测试装置在进行基于遗传算法的深度学习模型安全漏洞测试时,应以上述各功能模块的划分进行举例说明,可以根据需要将上述功能分配由不同的功能模块完成,即在终端或服务器的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,实施例3提供的基于遗传算法的深度学习模型安全漏洞测试装置与实施例1提供的基于遗传算法的深度学习模型安全漏洞测试方法实施例属于同一构思,其具体实现过程详见基于遗传算法的深度学习模型安全漏洞测试方法实施例,这里不再赘述。
实施例4
为了实现对自动驾驶模型或人脸识别模型等深度学习模型的安全漏洞的修复,如图4所示,实施例提供的基于遗传算法的深度学习模型安全漏洞修复装置400,包括:
检测单元401,用于利用上述基于遗传算法的深度学习模型安全漏洞测试装置测试待测试深度学习模型存在安全漏洞,且获得添加扰动的图像作为测试图像;
修复单元402,利用测试图像对待测试深度学习模型进行优化训练,以实现对待测试深度学习模型的安全漏洞进行修复。
需要说明的是,实施例4提供的基于遗传算法的深度学习模型安全漏洞修复装置在进行基于遗传算法的深度学习模型安全漏洞修复时,应以上述各功能模块的划分进行举例说明,可以根据需要将上述功能分配由不同的功能模块完成,即在终端或服务器的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,实施例4提供的基于遗传算法的深度学习模型安全漏洞修复装置与实施例2提供的基于遗传算法的深度学习模型安全漏洞修复方法实施例属于同一构思,其具体实现过程详见基于遗传算法的深度学习模型安全漏洞修复方法实施例,这里不再赘述。
实施例5
为了实现对自动驾驶模型或人脸识别模型等深度学习模型的安全漏洞检测,实施例提供了一种基于遗传算法的深度学习模型安全漏洞测试系统,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上执行的计算机程序,所述处理器执行所述计算机程序时实现实施例1提供的基于遗传算法的深度学习模型安全漏洞测试方法。
实施例6
为了实现对自动驾驶模型或人脸识别模型等深度学习模型的安全漏洞的修复,一种基于遗传算法的深度学习模型安全漏洞修复系统,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上执行的计算机程序,所述处理器执行所述计算机程序时实现实施例2提供的基于遗传算法的深度学习模型安全漏洞修复方法。
在实际应用中,处理器可以由基站服务器的中央处理器(CPU)、微处理器(MPU)、数字信号处理器(DSP)、或现场可编程门阵列(FPGA)等实现。
以上所述的具体实施方式对本发明的技术方案和有益效果进行了详细说明,应理解的是以上所述仅为本发明的最优选实施例,并不用于限制本发明,凡在本发明的原则范围内所做的任何修改、补充和等同替换等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于遗传算法的深度学习模型安全漏洞测试方法,其特征在于,包括以下步骤:
(1)获取图像数据集和待测试深度学习模型,利用测试深度学习模型对图像进行测试以筛选能够正确识别的图像组成干净图像数据集;
(2)从所述干净图像数据集中随机选择若干图像作为测试种子图像,并对测试种子图像添加初始扰动;
(3)将添加扰动的图像输入至待测试深度学习模型获得预测标签,依据添加扰动最小化和预测标签与真实标签不同构建的适应度函数来选择图像作为父辈,并进行交叉产生子代图像,对子代图像添加扰动以进行变异;
(4)重复执行步骤(3),直到满足迭代终止条件,在满足迭代终止时,若能获得满足添加扰动最小化和预测标签与真实标签不同的添加扰动的图像时,即认为测试深度学习模型存在安全漏洞。
4.根据权利要求1所述的基于遗传算法的深度学习模型安全漏洞测试方法,其特征在于,步骤(1)中,将图像输入至待测试深度学习模型中得到预测标签,若预测标签与真实标签一致,则认为图像能够被正确识别,用于组成干净图像数据集。
5.根据权利要求1所述的基于遗传算法的深度学习模型安全漏洞测试方法,其特征在于,图像数据集为MNIST数据集、Imagenet数据集或Driving数据集;所述待测试深度学习模型为自动驾驶模型或人脸识别模型。
6.一种基于遗传算法的深度学习模型安全漏洞修复方法,其特征在于,包括以下步骤:
(1)利用权利要求1~5任一项所述的基于遗传算法的深度学习模型安全漏洞测试方法测试待测试深度学习模型存在安全漏洞,且获得添加扰动的图像作为测试图像;
(2)利用测试图像对待测试深度学习模型进行优化训练,以实现对待测试深度学习模型的安全漏洞进行修复。
7.一种基于遗传算法的深度学习模型安全漏洞测试装置,其特征在于,包括:
构建模块,用于获取图像数据集和待测试深度学习模型,利用测试深度学习模型对图像进行测试以筛选能够正确识别的图像组成干净图像数据集;
筛选模块,用于从所述干净图像数据集中随机选择若干图像作为测试种子图像,并对测试种子图像添加初始扰动;
检测模块,用于将添加扰动的图像输入至待测试深度学习模型获得预测标签,依据添加扰动最小化和预测标签与真实标签不同构建的适应度函数来选择图像作为父辈,并进行交叉产生子代图像,对子代图像添加扰动以进行变异,重复迭代选择、交叉以及变异过程,直到满足迭代终止条件,在满足迭代终止时,若能获得满足添加扰动最小化和预测标签与真实标签不同的添加扰动的图像时,即认为测试深度学习模型存在安全漏洞。
8.一种基于遗传算法的深度学习模型安全漏洞修复装置,其特征在于,包括:
检测单元,用于利用权利要求7所述的基于遗传算法的深度学习模型安全漏洞测试装置测试待测试深度学习模型存在安全漏洞,且获得添加扰动的图像作为测试图像;
修复单元,利用测试图像对待测试深度学习模型进行优化训练,以实现对待测试深度学习模型的安全漏洞进行修复。
9.一种基于遗传算法的深度学习模型安全漏洞测试系统,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上执行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1~5任一项所述的基于遗传算法的深度学习模型安全漏洞测试方法。
10.一种基于遗传算法的深度学习模型安全漏洞修复系统,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上执行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求6所述的基于遗传算法的深度学习模型安全漏洞修复方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110204104.4A CN112926052B (zh) | 2021-02-23 | 2021-02-23 | 基于遗传算法的深度学习模型安全漏洞测试和修复方法、装置和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110204104.4A CN112926052B (zh) | 2021-02-23 | 2021-02-23 | 基于遗传算法的深度学习模型安全漏洞测试和修复方法、装置和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112926052A true CN112926052A (zh) | 2021-06-08 |
CN112926052B CN112926052B (zh) | 2024-03-29 |
Family
ID=76170626
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110204104.4A Active CN112926052B (zh) | 2021-02-23 | 2021-02-23 | 基于遗传算法的深度学习模型安全漏洞测试和修复方法、装置和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112926052B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113762335A (zh) * | 2021-07-27 | 2021-12-07 | 北京交通大学 | 一种基于不确定性的智能系统测试数据生成方法 |
CN115131609A (zh) * | 2021-06-23 | 2022-09-30 | 黑芝麻智能科技有限公司 | 图像处理系统、方法以及多媒体处理系统 |
CN118094176A (zh) * | 2024-04-22 | 2024-05-28 | 杭州海康威视数字技术股份有限公司 | 多模态智能模型系统化安全防护方法、装置及设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102058012A (zh) * | 2010-11-03 | 2011-05-18 | 广东海洋大学 | 一种基于神经网络系统优化的牡蛎呈味肽可控酶解工艺 |
CN110458213A (zh) * | 2019-07-29 | 2019-11-15 | 四川大学 | 一种分类模型鲁棒性能评估方法 |
CN110991549A (zh) * | 2019-12-13 | 2020-04-10 | 成都网域复兴科技有限公司 | 一种针对图像数据的对抗样本生成方法及系统 |
CN112052933A (zh) * | 2020-08-31 | 2020-12-08 | 浙江工业大学 | 基于粒子群优化的深度学习模型的安全性测试方法和修复方法 |
-
2021
- 2021-02-23 CN CN202110204104.4A patent/CN112926052B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102058012A (zh) * | 2010-11-03 | 2011-05-18 | 广东海洋大学 | 一种基于神经网络系统优化的牡蛎呈味肽可控酶解工艺 |
CN110458213A (zh) * | 2019-07-29 | 2019-11-15 | 四川大学 | 一种分类模型鲁棒性能评估方法 |
CN110991549A (zh) * | 2019-12-13 | 2020-04-10 | 成都网域复兴科技有限公司 | 一种针对图像数据的对抗样本生成方法及系统 |
CN112052933A (zh) * | 2020-08-31 | 2020-12-08 | 浙江工业大学 | 基于粒子群优化的深度学习模型的安全性测试方法和修复方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115131609A (zh) * | 2021-06-23 | 2022-09-30 | 黑芝麻智能科技有限公司 | 图像处理系统、方法以及多媒体处理系统 |
CN113762335A (zh) * | 2021-07-27 | 2021-12-07 | 北京交通大学 | 一种基于不确定性的智能系统测试数据生成方法 |
CN113762335B (zh) * | 2021-07-27 | 2022-05-13 | 北京交通大学 | 一种基于不确定性的智能系统测试数据生成方法 |
CN118094176A (zh) * | 2024-04-22 | 2024-05-28 | 杭州海康威视数字技术股份有限公司 | 多模态智能模型系统化安全防护方法、装置及设备 |
Also Published As
Publication number | Publication date |
---|---|
CN112926052B (zh) | 2024-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110084296B (zh) | 一种基于特定语义的图表示学习框架及其多标签分类方法 | |
CN111160474B (zh) | 一种基于深度课程学习的图像识别方法 | |
Kumar et al. | Image based tomato leaf disease detection | |
CN109190665B (zh) | 一种基于半监督生成对抗网络的通用图像分类方法和装置 | |
CN107273936B (zh) | 一种gan图像处理方法及系统 | |
US12039247B2 (en) | Test pattern generation systems and methods | |
CN112132014B (zh) | 基于非督导金字塔相似性学习的目标重识别方法及系统 | |
CN113010683B (zh) | 基于改进图注意力网络的实体关系识别方法及系统 | |
CN104869126A (zh) | 一种网络入侵异常检测方法 | |
CN112052933B (zh) | 基于粒子群优化的深度学习模型的安全性测试方法和修复方法 | |
CN112905997B (zh) | 面向深度学习模型中毒攻击的检测方法、装置及系统 | |
CN111753986A (zh) | 面向深度学习模型的动态测试方法及其装置 | |
CN112926052A (zh) | 基于遗传算法的深度学习模型安全漏洞测试和修复方法、装置和系统 | |
CN113420619A (zh) | 一种遥感影像建筑物提取方法 | |
CN112364974B (zh) | 一种基于激活函数改进的YOLOv3算法 | |
CN118070682A (zh) | 基于人工智能的螺旋栓吊环受损评估方法及装置 | |
CN114048817A (zh) | 一种基于变异策略的深度学习输入集优先级测试方法 | |
WO2023212804A1 (en) | Producing an augmented dataset to improve performance of a machine learning model | |
CN103559510B (zh) | 一种利用相关主题模型识别社会群体行为的方法 | |
CN115346125B (zh) | 一种基于深度学习的目标检测方法 | |
CN110705695A (zh) | 搜索模型结构的方法、装置、设备和存储介质 | |
US11609936B2 (en) | Graph data processing method, device, and computer program product | |
Kavitha et al. | Explainable AI for Detecting Fissures on Concrete Surfaces Using Transfer Learning | |
Sobieska et al. | Investigation of the possibility of using artificial neural networks in the process of assessing the threat of lightning. | |
Yi et al. | A Coverage-Guided Fuzzing Framework based on Genetic Algorithm for Neural Networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |