CN115631333A - 提高目标检测模型鲁棒性的对抗训练方法及目标检测方法 - Google Patents

提高目标检测模型鲁棒性的对抗训练方法及目标检测方法 Download PDF

Info

Publication number
CN115631333A
CN115631333A CN202211662670.0A CN202211662670A CN115631333A CN 115631333 A CN115631333 A CN 115631333A CN 202211662670 A CN202211662670 A CN 202211662670A CN 115631333 A CN115631333 A CN 115631333A
Authority
CN
China
Prior art keywords
target detection
layer
convolution
net2
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211662670.0A
Other languages
English (en)
Other versions
CN115631333B (zh
Inventor
王中元
程季康
方砚
王骞
邵振峰
邹勤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN202211662670.0A priority Critical patent/CN115631333B/zh
Publication of CN115631333A publication Critical patent/CN115631333A/zh
Application granted granted Critical
Publication of CN115631333B publication Critical patent/CN115631333B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种提高目标检测模型鲁棒性的对抗训练方法及目标检测方法,具体应用于Single‑Shot object Detector(SSD)骨架上。本发明通过一种可以感知对抗强度的方式来提高网络鲁棒性。首先将待检测的图像I预处理成300×300×3的大小,然后将I输入到辨别器Net1中以判断I的对抗样本的攻击强度,攻击强度为零则是干净样本,并以此为依据输出1×3权重向量W(I)。W(I)被用于引导检测器Net2感知对抗样本强度,按W(I)分配动态卷积的权重,进行特征提取与目标检测。本发明能有效的提高目标检测模型的对抗防御能力,并且针对不同强度的对抗攻击依然能保持强鲁棒性。

Description

提高目标检测模型鲁棒性的对抗训练方法及目标检测方法
技术领域
本发明属于人工智能技术领域,涉及一种对抗训练方法及目标检测方法,具体涉及一种基于对抗攻击强度感知的提高目标检测模型鲁棒性的对抗训练方法及目标检测方法。
背景技术
人工智能技术目前使用的算法与人类大脑的工作方式并不一样,人类能够借助某些伎俩来欺骗人工智能系统,比如在图像上叠加肉眼难以识别的修改,就可以欺骗主流的深度学习模型。这种经过修改的对机器具有欺骗能力而人类无法觉察出差别的样本被称为对抗样本(adversarial samples),机器接受对抗样本后做出的后续操作可能给无人驾驶之类智能无人系统造成灾难性后果。例如,已有研究者构造出一个图片,在人眼看来是一个stop 标志,但是在汽车看来是一个限速60的标志。当前学术界已经披露了几十种针对深度学习模型的对抗性攻击(adversarial attacks)手段,人工智能系统尤其是基于深度学习的智能系统的可靠性面临严峻挑战。
目前针对目标检测的深度学习模型的对抗攻击手段大多是基于PGD (ProjectGradient Descent)攻击。这种对抗攻击方法基于输入的图片进行迭代优化,优化目标为模型预测的目标种类损失L cls 或目标定位损失L loc 。通过这种方式可以对目标检测器的种类预测或位置预测做出有效的攻击,亦可通过L cls L loc 结合的方式,同时攻击二者,这种专门针对目标检测模型的对抗攻击方法被称为MTD。
现有针对深度学习模型对抗攻击的防御手段主要包括4种类型。对抗性样本检测:发现具有潜在危险的对抗样本,并将他们排除在处理范围之内;鲁棒优化:设计能够对扰动(perturbation)的影响完全鲁棒的目标模型,正确预测样本的原始类别;对抗训练:将对抗样本添加到训练集中进行针对性训练,从而增加预测模型的免疫力;扰动去除预处理:预处理输入样本以消除对抗性扰动。
其中对抗训练被认为是最有效的增强深度学习模型鲁棒性的方法,对抗训练可以很好的帮助模型学习鲁棒的特征,大大提高模型在处理对抗攻击图片时的准确性。
发明内容
为了更好的学习具有鲁棒性的特征,提高目标检测模型应对不同强度的对抗攻击的能力,本发明提供的了一种基于对抗攻击强度感知的提高目标检测模型鲁棒性的对抗训练方法及目标检测方法。
本发明的对抗训练方法采用的技术方案是:一种提高目标检测模型鲁棒性的对抗训练方法,所述目标检测模型包括辨别器Net1和检测器Net2;包括以下步骤:
步骤1:采集干净样本图片作为训练数据集,并攻击样本图片,攻击的迭代次数为i,其中i=0则为输入干净的样本图片,攻击后生成的图片记为I;
步骤2:将I输入辨别器Net1,获得权重向量W(I)=[w1,w2,w3];其中w1,w2,w3表示生成的权重值,它们被用于控制动态卷积。
步骤3:将权重W(I)与检测器Net2的动态卷积结合,使其感知对抗强度;设第j层动态卷积的参数组为{convj1,convj2,convj3},则与W(I)结合后,第j层最终采用的卷积参数为(convj1*w1+convj2*w2+convj3*w3);
步骤4:将I输入已感知对抗强度的Net2中,获得检测结果Net2(I)
步骤5:根据迭代次数i,获得W(I)的真值Wgt
步骤6:将WgtW(I)计算L2损失,并以此损失反向传播,更新Net1的网络参数;
步骤7:将Net2(I)与训练数据集中给出的目标检测真值标签计算multibox损失,并以此损失反向传播,更新Net2的网络参数;
步骤8:重复步骤1-7,训练Net1与Net2至收敛,获得训练好的Net1与Net2。
本发明的目标检测方法采用的技术方案是:一种目标检测方法,采用训练好的目标检测模型;包括以下步骤:
(1)将待检测的图像I预处理成300×300×3的大小并输入到辨别器Net1中,并对输出额外增加一层全连接与softmax处理,得到代表输入图片I的对抗攻击强度的一组1×3向量W(I)
(2)将检测器Net2中所有的卷积层用K=3的动态卷积层替代,然后将(1)中得到的W (I)作为所有动态卷积的权重;
(3)将I输入Net2中,获得最终的目标检测结果。
与现有的对抗攻击样本的对抗学习防御方法相比,本发明具有以下优点和积极效果:
(1)本发明基于攻击强度感知的对抗训练方法,使得目标检测网络可以感知对抗攻击强度,并具体体现在动态卷积的权重分配上,对于不同强度的对抗攻击有更好的鲁棒性,表现出了更好的检测效果;
(2)本发明可以应对更广泛的对抗攻击场景,展现出了很好的适应性。
附图说明
图1:本发明实施例的对抗训练方法流程图;
图2:本发明实施例的辨别器Net1网络结构图;
图3:本发明实施例的检测器Net2网络结构图;
图4:本发明实施例的目标检测方法流程图;
图5:本发明防御不同强度的cls对抗攻击的效果优越性。
具体实施方式
为了便于本领域普通技术人员理解和实施本发明,下面结合附图及实施例对本发明作进一步的详细描述,应当理解,此处所描述的实施示例仅用于说明和解释本发明,并不用于限定本发明。
在对抗训练中,干净样本与对抗样本对于网络参数的优化是矛盾的,这被通过采用动态卷积的方式解决。然而,不同强度的对抗攻击样本同样会影响网络的学习情况,单纯的分辨是否为对抗样本简单的将所有攻击强度的对抗样本归为一类,严重影响了深度学习模型防御不同强度攻击的鲁棒性。而基于攻击强度感知的对抗训练方法,可以提高目标检测模型应对不同强度的对抗攻击的鲁棒性。
请见图1,本发明提供的一种提高目标检测模型鲁棒性的对抗训练方法,目标检测模型包括辨别器Net1和检测器Net2;
请见图2,本实施例的辨别器Net1,采用resnet18网络的骨架,并将所有的batchnorm与其后续的ReLu用Filter Response Normalization与Thresholded LinearUnit替代。
本实施例的分辨器Net1包括18层采用残差连接的卷积模块,为生成指定形状输出所添加的线性函数全连接层,以及改进输出数值形式的softmax函数层。
本实施例的卷积模块,第一层是卷积核为3*3的卷积层,第二层是用于替代ReLU的激活函数Thresholded Linear Unit,第三层是用于替代批规范化层BN的规范化函数Filter Response Normalization。
本实施例的18层残差连接卷积模块,输出大小依次为112×112,56×56,28×28,14×14。下采样由maxpooling层实现,每两层模块会进行一次残差连接。
本实施例的线性函数全连接层输入为14×14的卷积网络特征提取结果,输出为K=3的权重向量。
本实施例的softmax函数层将权重和归一化,以输出最终的预测向量W(I)。
请见图3,本实施例的检测器Net2,采用VGG16网络作为骨架,用SSD网络的预训练模型填充网络参数,并通过复制参数的方式将其所有卷积层扩展为K=3的动态卷积。
本实施例的检测器Net2由VGG网络骨架的特征提取网络与用于目标检测的检测头组成。
本实施例的VGG网络骨架的特征提取网络将所有的卷积层替换为包含3个卷积核{Conv1,Conv2,Conv3}的动态卷积。最终用于目标检测的卷积核由Net1生成的权重向量控制{Conv1,Conv2,Conv3}计算生成。此外,为提高模型对抗鲁棒性,VGG骨架中的所有批规范化层均被去除。
本实施例的检测头结合VGG骨架中提取的多尺度特征信息,按照检测类的数量与锚点数量生成相应形式的检测结果。
本实施例的对抗训练方法包括以下步骤:
步骤1:采集干净样本图片作为训练数据集,并采用基于PGD攻击的MTD方法攻击样本图片,攻击的迭代次数为i,i∈[0,20],其中i=0则为输入干净的样本图片,攻击后生成的图片记为I;
本实施例中,在选取一个大小为32的训练批次(batch)时,随机选取32张样本图片并预处理为预设大小300×300×3;其中N为训练批次大小;对其中的16张图片施加一次迭代的基于PGD攻击的MTD方法攻击,生成16张对抗样本,其对抗攻击强度为i=1;将16张对抗样本与16张干净样本合并作为一个训练批次batch,输入到Net1中;
在后续训练迭代中,重新选择干净样本,保持上一迭代的对抗样本,重复执行迭代,当迭代次数大于i后,重置i=1,并重新选取对抗样本。
步骤2:将
Figure 100002_DEST_PATH_IMAGE001
输入辨别器Net1,获得权重向量W(I)=[w1,w2,w3];其中w1, w2,w3 表示 生成的权重值,它们被用于控制动态卷积。
步骤3:将权重W(I)与检测器Net2的动态卷积结合,使其感知对抗强度;设第j层动态卷积的参数组为{convj1,convj2,convj3},则与W(I)结合后,第j层最终采用的卷积参数为(convj1*w1+convj2*w2+convj3*w3)。
步骤4:将I输入已感知对抗强度的Net2中,获得检测结果Net2(I)
步骤5:根据迭代次数i,获得W(I)的真值Wgt
本实施例中,根据i值预设获取Wgt向量的数值,若i=0,则Wgt=[1,0,0];若i∈{1, 2,3},则Wgt=[0,1,0];若i∈{18,19,20},则Wgt=[0,0,1]
步骤6:将WgtW(I)计算L2损失,并以此损失反向传播,更新Net1的网络参数。
步骤7:将Net2(I)与数据集中给出的目标检测真值标签计算multibox损失,并以此损失反向传播,更新Net2的网络参数;
本实施例中,将WgtW(I)计算L2损失,如下:
Figure DEST_PATH_IMAGE002
i∈[5,17]时,不计算损失,不更新辨别器Net1的网络参数。
步骤8:重复步骤1-7,训练Net1与Net2至收敛,获得训练好的Net1与Net2。
请见图4,本实施例提供的一种目标检测方法,采用训练好的目标检测模型;包括以下步骤:
(1)将待检测的图像I预处理成300×300×3的大小并输入到辨别器Net1中,并对输出额外增加一层全连接与softmax处理,得到代表输入图片I的对抗攻击强度的一组1×3向量W(I)
(2)将检测器Net2中所有的卷积层用K=3的动态卷积层替代,然后将(1)中得到的W (I)作为所有动态卷积的权重;
(3)将I输入Net2中,获得最终的目标检测结果。
在对抗训练的过程中,干净样本与对抗样本对于网络参数的梯度影响是互相矛盾的。为了让干净与对抗样本同时对改善网络参数做出贡献,一种方法是预测样本是否为对抗样本后,利用动态卷积来分离干净与对抗样本的影响。然而这种方法仅仅对对抗样本有感知,即判别是否为对抗样本,分类的粒度有限。同时尽管在训练过程中使用了不同攻击强度的对抗攻击样本,但已知的攻击强度信息并没有被利用起来,这导致训练好的模型在应对不同强度的对抗攻击时,表现出较差的防御鲁棒性。为了解决这个问题,本发明提出了一种感知对抗样本的攻击强度的训练方法,可以细粒度的分辨输入的样本是干净样本,弱攻击样本或强攻击样本。通过这种方式可以更好的学习具有鲁棒性的特征,提高目标检测模型应对不同强度的对抗攻击的能力。
请见图5,为本实施例对VOC数据集的训练集施加不同强度的cls攻击后,使用不同目标检测方法的检测结果。可以看到本发明的方法(Ours)在面对不同攻击强度时,效果是最稳定最好的。
应当理解的是,上述针对较佳实施例的描述较为详细,并不能因此而认为是对本发明专利保护范围的限制,本领域的普通技术人员在本发明的启示下,在不脱离本发明权利要求所保护的范围情况下,还可以做出替换或变形,均落入本发明的保护范围之内,本发明的请求保护范围应以所附权利要求为准。

Claims (7)

1.一种提高目标检测模型鲁棒性的对抗训练方法,所述目标检测模型包括辨别器Net1和检测器Net2;其特征在于,所述对抗训练方法包括以下步骤:
步骤1:采集干净样本图片作为训练数据集,并攻击样本图片,攻击的迭代次数为i,其中i=0则为输入干净的样本图片,攻击后生成的图片记为I;
步骤2:将I输入辨别器Net1,获得权重向量W(I)=[w1,w2,w3];其中w1,w2,w3表示生成的权重值,它们被用于控制动态卷积;
步骤3:将权重W(I)与检测器Net2的动态卷积结合,使其感知对抗强度;设第j层动态卷积的参数组为{convj1,convj2,convj3},则与W(I)结合后,第j层最终采用的卷积参数为(convj1*w1+convj2*w2+convj3*w3);
步骤4:将I输入已感知对抗强度的Net2中,获得检测结果Net2(I)
步骤5:根据迭代次数i,获得W(I)的真值Wgt
步骤6:将Wgt与W(I)计算L2损失,并以此损失反向传播,更新Net1的网络参数;
步骤7:将Net2(I)与训练数据集中给出的目标检测真值标签计算multibox损失,并以此损失反向传播,更新Net2的网络参数;
步骤8:重复步骤1-7,训练Net1与Net2至收敛,获得训练好的Net1与Net2。
2.根据权利要求1所述的提高目标检测模型鲁棒性的对抗训练方法,其特征在于:步骤1中,随机选取N张样本图片并预处理为预设的大小;其中N为训练批次大小;对其中的N/2张图片施加一次迭代的基于PGD攻击的MTD方法攻击,生成N/2张对抗样本,其对抗攻击强度为i=1;将N/2张对抗样本与N/2张干净样本合并作为一个训练批次batch,输入到Net1中;
在后续训练迭代中,重新选择干净样本,保持上一迭代的对抗样本,重复执行迭代,当迭代次数大于i后,重置i=1,并重新选取对抗样本。
3.根据权利要求1所述的提高目标检测模型鲁棒性的对抗训练方法,其特征在于:步骤5中,根据i值获取Wgt向量的数值,若i=0,则Wgt=[1,0,0];若i∈{1,2,3},则Wgt=[0,1,0];若i∈{18,19,20},则Wgt=[0,0,1]
4.根据权利要求1所述的提高目标检测模型鲁棒性的对抗训练方法,其特征在于:步骤6中,将WgtW(I)计算L2损失,如下:
Figure DEST_PATH_IMAGE001
i∈[5,17]时,不计算损失,不更新辨别器Net1的网络参数。
5.根据权利要求1-4任一项所述的提高目标检测模型鲁棒性的对抗训练方法,其特征在于:所述分辨器Net1,包括18层采用残差连接的卷积模块,为生成指定形状输出所添加的线性函数全连接层,以及改进输出数值形式的softmax函数层;
所述的卷积模块,第一层是卷积核为3*3的卷积层,第二层是用于替代ReLU的激活函数Thresholded Linear Unit,第三层是用于替代批规范化层BN的规范化函数FilterResponse Normalization;
所述的18层残差连接卷积模块,输出大小依次为112×112,56×56,28×28,14×14;下采样由maxpooling层实现,每两层模块会进行一次残差连接;
所述线性函数全连接层,输入为14×14的卷积网络特征提取结果,输出为K=3的权重向量;
所述softmax函数层,将权重和归一化;以输出最终的预测向量W(I)。
6.根据权利要求1-4任一项所述的提高目标检测模型鲁棒性的对抗训练方法,其特征在于:所述检测器Net2,由VGG网络骨架的特征提取网络与用于目标检测的检测头组成;
所述的VGG网络骨架的特征提取网络,将所有的卷积层替换为包含3个卷积核{Conv1,Conv2,Conv3}的动态卷积;最终用于目标检测的卷积核由Net1生成的权重向量控制{Conv1,Conv2,Conv3}计算生成;此外,为提高模型对抗鲁棒性,VGG骨架中的所有批规范化层均被去除;
所述检测头,结合VGG骨架中提取的多尺度特征信息,按照检测类的数量与锚点数量生成相应形式的检测结果。
7.一种目标检测方法,采用权利要求1-6任意一项所述方法训练好的目标检测模型;其特征在于,包括以下步骤:
(1)将待检测的图像I预处理成300×300×3的大小并输入到辨别器Net1中,并对输出额外增加一层全连接与softmax处理,得到代表输入图片I的对抗攻击强度的一组1×3向量W(I)
(2)将检测器Net2中所有的卷积层用K=3的动态卷积层替代,然后将(1)中得到的W(I)作为所有动态卷积的权重;
(3)将I输入Net2中,获得最终的目标检测结果。
CN202211662670.0A 2022-12-23 2022-12-23 提高目标检测模型鲁棒性的对抗训练方法及目标检测方法 Active CN115631333B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211662670.0A CN115631333B (zh) 2022-12-23 2022-12-23 提高目标检测模型鲁棒性的对抗训练方法及目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211662670.0A CN115631333B (zh) 2022-12-23 2022-12-23 提高目标检测模型鲁棒性的对抗训练方法及目标检测方法

Publications (2)

Publication Number Publication Date
CN115631333A true CN115631333A (zh) 2023-01-20
CN115631333B CN115631333B (zh) 2023-03-10

Family

ID=84911135

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211662670.0A Active CN115631333B (zh) 2022-12-23 2022-12-23 提高目标检测模型鲁棒性的对抗训练方法及目标检测方法

Country Status (1)

Country Link
CN (1) CN115631333B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108322349A (zh) * 2018-02-11 2018-07-24 浙江工业大学 基于对抗式生成网络的深度学习对抗性攻击防御方法
CN110334808A (zh) * 2019-06-12 2019-10-15 武汉大学 一种基于对抗样本训练的对抗攻击防御方法
US20210012188A1 (en) * 2019-07-09 2021-01-14 Baidu Usa Llc Systems and methods for defense against adversarial attacks using feature scattering-based adversarial training
CN112464792A (zh) * 2020-11-25 2021-03-09 北京航空航天大学 一种基于动态卷积的遥感图像舰船目标细粒度分类方法
CN114187483A (zh) * 2021-10-25 2022-03-15 北京邮电大学 生成对抗样本的方法、检测器的训练方法及相关设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108322349A (zh) * 2018-02-11 2018-07-24 浙江工业大学 基于对抗式生成网络的深度学习对抗性攻击防御方法
CN110334808A (zh) * 2019-06-12 2019-10-15 武汉大学 一种基于对抗样本训练的对抗攻击防御方法
US20210012188A1 (en) * 2019-07-09 2021-01-14 Baidu Usa Llc Systems and methods for defense against adversarial attacks using feature scattering-based adversarial training
CN112464792A (zh) * 2020-11-25 2021-03-09 北京航空航天大学 一种基于动态卷积的遥感图像舰船目标细粒度分类方法
CN114187483A (zh) * 2021-10-25 2022-03-15 北京邮电大学 生成对抗样本的方法、检测器的训练方法及相关设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
任奎;TIANHANG ZHENG;秦湛;XUE LIU;: "深度学习中的对抗性攻击和防御" *

Also Published As

Publication number Publication date
CN115631333B (zh) 2023-03-10

Similar Documents

Publication Publication Date Title
CN113554089B (zh) 一种图像分类对抗样本防御方法、系统及数据处理终端
CN111259982B (zh) 一种基于注意力机制的早产儿视网膜图像分类方法和装置
CN106485215B (zh) 基于深度卷积神经网络的人脸遮挡检测方法
CN110348475B (zh) 一种基于空间变换的对抗样本增强方法和模型
CN111488789A (zh) 用于基于图像分析的监视的行人检测方法及装置
CN112364915B (zh) 一种不可察觉的对抗补丁生成方法及应用
Wang et al. Neural architecture search for robust networks in 6G-enabled massive IoT domain
Masurekar et al. Real time object detection using YOLOv3
CN106897738A (zh) 一种基于半监督学习的行人检测方法
CN110309747B (zh) 一种支持多尺度快速深度行人检测模型
CN108846826A (zh) 物体检测方法、装置、图像处理设备及存储介质
CN113283599B (zh) 基于神经元激活率的对抗攻击防御方法
CN112926522B (zh) 一种基于骨骼姿态与时空图卷积网络的行为识别方法
CN113269241B (zh) 一种遥感图像对抗样本的软阈值防御方法
CN114626042B (zh) 一种人脸验证攻击方法和装置
CN106874825A (zh) 人脸检测的训练方法、检测方法和装置
CN114724189A (zh) 一种目标识别的对抗样本防御模型训练方法、系统及应用
CN114330652A (zh) 一种目标检测攻击方法和装置
CN114332982A (zh) 一种人脸识别模型攻击防御方法、装置、设备及存储介质
CN111582057B (zh) 一种基于局部感受野的人脸验证方法
CN115631333B (zh) 提高目标检测模型鲁棒性的对抗训练方法及目标检测方法
CN110956097B (zh) 遮挡人体提取方法及模块、场景转换方法及装置
CN117152486A (zh) 一种基于可解释性的图像对抗样本检测方法
CN112270368A (zh) 基于误分类感知正则化训练的图像分类方法
CN113011446B (zh) 一种基于多源异构数据学习的智能目标识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant