CN111627044A - 基于深度网络的目标追踪攻击与防御方法 - Google Patents

基于深度网络的目标追踪攻击与防御方法 Download PDF

Info

Publication number
CN111627044A
CN111627044A CN202010337803.1A CN202010337803A CN111627044A CN 111627044 A CN111627044 A CN 111627044A CN 202010337803 A CN202010337803 A CN 202010337803A CN 111627044 A CN111627044 A CN 111627044A
Authority
CN
China
Prior art keywords
positive
attack
defense
loss function
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010337803.1A
Other languages
English (en)
Other versions
CN111627044B (zh
Inventor
马超
杨小康
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Jiaotong University
Original Assignee
Shanghai Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Jiaotong University filed Critical Shanghai Jiaotong University
Priority to CN202010337803.1A priority Critical patent/CN111627044B/zh
Publication of CN111627044A publication Critical patent/CN111627044A/zh
Application granted granted Critical
Publication of CN111627044B publication Critical patent/CN111627044B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于深度网络的目标追踪攻击与防御方法,获取被攻击目标跟踪器,输入待攻击的目标跟踪视频序列;确定待检测的正负样本及伪正负样本;根据正负样本及伪正负样本,分别计算样本及伪样本的对抗攻击损失函数,并计算损失函数对输入图像的梯度值反传至输入图像;进行多次帧内迭代,得到多次迭代的对抗样本;将对抗样本与输入图像进行差值计算,得到的结果即为该帧的对抗攻击扰动,将该帧的扰动作为下一帧的初始扰动,重复此过程,得到完整的对抗攻击视频序列。本发明通过在原视频序列上增加及减少人眼不易见的微小扰动,有效地降低及恢复了基于深度网络目标追踪器的追踪性能;应用于原始视频序列上,能够有效提升目标追踪的准确度。

Description

基于深度网络的目标追踪攻击与防御方法
技术领域
本发明涉及视觉目标追踪技术领域的攻击与防御技术,具体地,涉及一种基于深度网络梯度的目标追踪器攻击与防御方法。
背景技术
视觉目标追踪是计算机视觉领域的重要方向,并且具有广泛的应用前景和市场价值。随着深度学习的方法在图像分类、物体检测、目标追踪等众多任务的成功应用,学者发现现有深度模型的鲁棒性普遍较差。举例来说,如果在待检测图像加上特定的不影响人类视觉观察的微小扰动,就会导致预训练的分类模型检测错误。这些增加过特定扰动的图片常被称作对抗样本,现有的卷积神经网络模型无法准确地处理分析对抗样本,而导致预训练模型的准确率大幅度下降。因此,如何提高现有深度模型的鲁棒性显得格外重要,可以阻挡人为的恶意攻击,提升深度学习模型的安全性,减少不必要的经济损失,对深度模型在实际生产生活中的应用有着重大意义。
基于现有深度模型的这一局限性,国内外专家和学者提出了众多对抗攻击方法来降低现有模型的性能,但大多都集中在基于单张图片的任务,例如图像分类、目标检测、语义分割等,而较少涉猎动态视频序列的对抗攻击与防御。而对视频序列的攻击与防御机制的探索,在实际生活应用中有重要的价值,可应用于智能视频监控系统、智能交通系统和视觉导航系统等诸多方面。因此,如何实现一种针对动态视频序列的目标跟踪器攻击与防御技术,成为本领域亟待解决的问题。
目前没有发现同本发明类似技术的说明或报道,也尚未收集到国内外类似的资料。
发明内容
本发明针对现有技术中对抗攻击与防御方法大多集中在处理单张图像的任务上,较少涉猎视频序列的对抗攻击与防御的缺陷,提供了一种基于深度网络的目标追踪攻击与防御方法。
本发明是通过以下技术方案实现的。
根据本发明的一个方面,提供了一种基于深度网络的目标追踪攻击方法,包括:
S1,获取被攻击目标跟踪器的网络结构及网络参数θ,同时,输入待攻击的目标跟踪视频序列,所述视频序列包括多个视频帧I1,I2…In
S2,根据S1中获取的目标跟踪器及当前攻击的视频帧Ii,确定待检测的正负样本及伪正负样本;
S3,根据S2中得到的正负样本及伪正负样本,分别计算样本及伪样本的对抗攻击损失函数,并根据对应的损失函数,计算损失函数对视频帧Ii的梯度值作为扰动反传至视频帧Ii
S4,重复执行S3,进行多次帧内迭代,将每次迭代的图像梯度值多次累积叠加,得到最终的对抗样本;
S5,将S4中得到的对抗样本与对应的视频帧进行差值计算,得到的结果即为该视频帧的扰动;
S6,结合视频序列的时序特性,将当前视频帧的扰动作为下一视频帧的初始扰动,重复S2-S5的过程,依次得到完整的对抗攻击视频序列。
优选地,所述S2,包括:
S21,将当前攻击的视频帧Ii输入至被攻击目标跟踪器,根据被攻击目标跟踪器网络结构提取出m个待检测的候选框P;
S22,计算每一个候选框P与上一视频帧In-1追踪结果Gn-1的重叠率
Figure BDA0002467229850000021
S23,根据重叠率IoU和设定的最高阈值thhi及最低阈值thlo,确定待检测的正负样本:当IoU>thhi时,为正样本Phi,当IoU<thlo时,为负样本Plo,将正负样本进行对调,生成标记相反的伪正样本P* hi及伪负样本P* lo
优选地,所述S23中,设定的最高阈值thhi和最低阈值thlo与被攻击网络训练时的对应参数保持一致。
优选地,所述S3,包括:
S311,采用交叉熵函数计算对抗攻击损失函数中的分类任务:
Figure BDA0002467229850000022
其中,Lcls为对抗攻击中的分类损失函数,k为正负样本的数量之和,正样本的标签为p(Pi)=1,负样本标签为p(Pi)=0,q(Pi)为对应标签的攻击网络预测概率;
采用smooth L1函数计算对抗攻击损失函数中的回归任务:
Figure BDA0002467229850000031
其中,Lreg为对抗攻击中的回归损失函数,Pi为正样本的相对坐标变化,σ为平滑系数;
S312,采用交叉熵函数计算对抗攻击损失函数中的分类任务:
Figure BDA0002467229850000032
其中,Lcls为对抗攻击中的分类损失函数,k为伪正负样本的数量之和,伪正样本的标签为p(Pi *)=1,伪负样本标签为p(Pi *)=0,q(Pi *)为对应标签的攻击网络预测概率;
采用smooth L1函数计算对抗攻击损失函数中的回归任务:
Figure BDA0002467229850000033
其中,Lreg为对抗攻击中的回归损失函数,Pi *为伪正样本的相对坐标变化,σ为平滑系数;
S32,计算正负样本与伪正负样本损失函数的差值:
Lloss=Lcls(Pi)-Lcls(Pi *)+λ(Lreg(Pi)-Lreg(Pi *));
其中,λ为用于平衡分类任务与回归任务两分支的权重系数;
S33,根据对应的损失函数,计算损失函数对输入图像的梯度值
Figure BDA0002467229850000034
对输入图像的梯度值
Figure BDA0002467229850000035
取sign函数,并将取sign函数后的结果作为对抗攻击的扰动加在初始图像上It+1=It+α·sign(rt),其中,sign函数得到反传梯度的正负性,α将扰动限制在人眼不易见的范围,t代表每一视频帧的迭代次数。
优选地,所述S33中,还包括:截取各像素点的值在0到255之间。
根据本发明的另一个方面,提供了一种基于深度网络的目标追踪防御方法,包括:
s1,获取被攻击目标跟踪器的网络结构及网络参数θ,同时,输入对抗攻击视频序列,所述视频序列包括多个视频帧i1,i2…in
s2,根据s1中获取的目标跟踪器及当前对抗攻击的视频帧ii,确定待检测的正负样本及伪正负样本;
s3,根据s2中得到的正负样本及伪正负样本,分别计算样本及伪样本的防御损失函数,并根据对应的损失函数,计算损失函数对视频帧ii的梯度值作为扰动反传至视频帧ii
s4,重复执行s3,进行多次帧内迭代,将每次迭代的图像梯度值多次累积叠加,得到最终的对抗防御样本;
s5,将s4中得到的对抗防御样本与对应的对抗攻击视频帧进行差值计算,得到的结果即为该视频帧的扰动;
s6,结合视频序列的时序特性,将当前视频帧的扰动作为下一视频帧的初始扰动,重复s2-s5的过程,依次得到完整的对抗防御视频序列。
优选地,所述s2,包括:
s21,将当前对抗攻击的视频帧ii输入至被攻击目标跟踪器,根据被攻击目标跟踪器网络结构提取出m个待检测的候选框P;
s22,计算每一个候选框P与上一视频帧in-1的追踪结果Gn-1的重叠率
Figure BDA0002467229850000041
s23,根据重叠率IoU和设定的最高阈值thhi及最低阈值thlo,确定待检测的正负样本:当IoU>thhi时,为正样本Phi,当IoU<thlo时,为负样本Plo,将正负样本进行对调,生成标记相反的伪正样本P* hi及伪负样本P* lo
优选地,所述s23中,设定的最高阈值thhi和最低阈值thlo与被攻击网络训练时的对应参数保持一致。
优选地,所述s3,包括:
s311,采用交叉熵函数计算对抗防御损失函数中的分类任务:
Figure BDA0002467229850000042
其中,Lcls为对抗防御中的分类损失函数,k为正负样本的数量之和,正样本的标签为p(Pi)=1,负样本标签为p(Pi)=0,q(Pi)为对应标签的攻击网络预测概率;
采用smooth L1函数计算对抗防御损失函数中的回归任务:
Figure BDA0002467229850000051
其中,Lreg为对抗防御中的回归损失函数,Pi为正样本的相对坐标变化,σ为平滑系数;
s312,采用交叉熵函数计算对抗防御损失函数中的分类任务:
Figure BDA0002467229850000052
其中,Lcls为对抗防御中的分类损失函数,k为伪正负样本的数量之和,伪正样本的标签为p(Pi *)=1,伪负样本标签为p(Pi *)=0,q(Pi *)为对应标签的攻击网络预测概率;
采用smooth L1函数计算对抗防御损失函数中的回归任务:
Figure BDA0002467229850000053
其中,Lreg为对抗防御中的回归损失函数,Pi *为伪正样本的相对坐标变化,σ为平滑系数;
s32,计算正负样本与伪正负样本损失函数的差值:
Lloss=Lcls(Pi)-Lcls(Pi *)+λ(Lreg(Pi)-Lreg(Pi *));
其中,λ为用于平衡分类任务与回归任务两分支的权重系数;
s33,根据对应的损失函数,计算损失函数对输入图像的梯度值
Figure BDA0002467229850000054
在输入对抗攻击样本中减去对应梯度值
Figure BDA0002467229850000055
其中,β是反传梯度的权重,α*将扰动限制在人眼不易见的范围,t代表每一视频帧的迭代次数。
优选地,所述s33中,还包括:截取各像素点的值在0到255之间。
由于采用了上述技术方案,本发明具有如下有益效果:
1、本发明提供的基于深度网络的目标跟踪攻击方法,针对视频序列,基于视频序列的时序信息,将该帧的扰动作为下一帧扰动的初始扰动,通过在原视频序列上增加特定的微小扰动,就能使得目前主流基于检测算法的追踪器追踪失败,有效地降低及恢复了目标追踪器的追踪性能;
2、本发明提供的基于深度网络的目标跟踪防御方法,应用于原始视频序列上,能够有效提升目标追踪的准确度。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为本发明一优选实施例中所提供的基于深度网络的目标追踪攻击方法流程图;
图2为本发明一优选实施例中所提供的基于深度网络的目标追踪防御方法流程图;
图3为本发明一优选实施例中对抗攻击与防御过程中扰动变化的示意图。
具体实施方式
下面对本发明的实施例作详细说明:本实施例在以本发明技术方案为前提下进行实施,给出了详细的实施方式和具体的操作过程。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。
本发明实施例针对视频序列的对抗攻击与防御问题,提供了一种基于深度网络的目标追踪攻击与防御方法,该方法有效地降低及恢复了目标追踪器的追踪性能。
本发明实施例所提供的基于深度网络的目标追踪攻击与防御方法,首先依照追踪算法提取待检测的目标框,通过计算重叠率来确定正负样本并得到伪正负样本,再计算对抗攻击的损失函数,将对当前帧输入图像的梯度反传给当前帧图像,最后,经过多次迭代及逐帧处理得到最终的对抗视频序列。
下面结合附图及具体实施例对本发明方案进行进一步的详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。
如图1所示,本发明实施例提供的基于深度网络的目标追踪攻击方法,包括如下步骤:
步骤1,获取被攻击目标跟踪器的网络结构及网络参数θ,同时,输入待攻击的目标跟踪视频序列,视频序列包括多个视频帧I1,I2…In
步骤2,根据步骤1中获取的目标跟踪器及当前攻击的视频帧Ii,确定待检测的正负样本及伪正负样本;
步骤3,根据步骤2中得到的正负样本及伪正负样本,分别计算样本及伪样本的对抗攻击损失函数,并根据对应的损失函数,计算损失函数对视频帧Ii的梯度值作为扰动反传至视频帧Ii
步骤4,重复执行步骤3,进行多次帧内迭代,将每次迭代的图像梯度值多次累积叠加,得到最终的对抗样本;
步骤5,将步骤4中得到的对抗样本与对应的视频帧进行差值计算,得到的结果即为该视频帧的扰动;
步骤6,结合视频序列的时序特性,将当前视频帧的扰动作为下一视频帧的初始扰动,重复步骤2-步骤5的过程,依次得到完整的对抗攻击视频序列。
作为一优选实施例,步骤2包括:
步骤21,将当前攻击的视频帧Ii输入至被攻击目标跟踪器,根据被攻击目标跟踪器网络结构提取出m个待检测的候选框P;
步骤22,计算每一个候选框P与上一视频帧In-1追踪结果Gn-1的重叠率
Figure BDA0002467229850000071
步骤23,根据重叠率IoU和设定的最高阈值thhi及最低阈值thlo,确定待检测的正负样本:当IoU>thhi时,为正样本Phi,当IoU<thlo时,为负样本Plo,其他情况下的候选框丢弃,不计算在损失函数中;将正负样本进行对调,生成标记相反的伪正样本P* hi及伪负样本P* lo
作为一优选实施例,步骤23中,设定的最高阈值thhi和最低阈值thlo与被攻击网络训练时的对应参数保持一致。
作为一优选实施例,步骤3,包括:
步骤311,采用交叉熵函数计算对抗攻击损失函数中的分类任务:
Figure BDA0002467229850000072
其中,Lcls为对抗攻击中的分类损失函数,k为正负样本的数量之和,正样本的标签为p(Pi)=1,负样本标签为p(Pi)=0,q(Pi)为对应标签的攻击网络预测概率;
采用smooth L1函数计算对抗攻击损失函数中的回归任务:
Figure BDA0002467229850000081
其中,Lreg为对抗攻击中的回归损失函数,Pi为正样本的相对坐标变化,σ为平滑系数;
步骤312,采用交叉熵函数计算对抗攻击损失函数中的分类任务:
Figure BDA0002467229850000082
其中,Lcls为对抗攻击中的分类损失函数,k为伪正负样本的数量之和,伪正样本的标签为p(Pi *)=1,伪负样本标签为p(Pi *)=0,q(Pi *)为对应标签的攻击网络预测概率;
采用smooth L1函数计算对抗攻击损失函数中的回归任务:
Figure BDA0002467229850000083
其中,Lreg为对抗攻击中的回归损失函数,Pi *为伪正样本的相对坐标变化,σ为平滑系数;
步骤32,计算正负样本与伪正负样本损失函数的差值:
Lloss=Lcls(Pi)-Lcls(Pi *)+λ(Lreg(Pi)-Lreg(Pi *));
其中,λ为用于平衡分类任务与回归任务两分支的权重系数;
步骤33,根据对应的损失函数,计算损失函数对输入图像的梯度值
Figure BDA0002467229850000084
对输入图像的梯度值
Figure BDA0002467229850000085
取sign函数,并将取sign函数后的结果作为对抗攻击的扰动加在初始图像上It+1=It+α·sign(rt),其中,sign函数得到反传梯度的正负性,α将扰动限制在人眼不易见的范围,t代表每一视频帧的迭代次数。
作为一优选实施例,步骤33中,还包括:截取各像素点的值在0到255之间。
如图2所示,本发明实施例提供的基于深度网络的目标追踪防御方法,包括:
第一步,获取被攻击目标跟踪器的网络结构及网络参数θ,同时,输入对抗攻击视频序列,视频序列包括多个视频帧i1,i2…in
第二步,根据第一步中获取的目标跟踪器及当前对抗攻击的视频帧ii,确定待检测的正负样本及伪正负样本;
第三步,根据第二步中得到的正负样本及伪正负样本,分别计算样本及伪样本的防御损失函数,并根据对应的损失函数,计算损失函数对视频帧ii的梯度值作为扰动反传至视频帧ii
第四步,重复执行第三步,进行多次帧内迭代,将每次迭代的图像梯度值多次累积叠加,得到最终的对抗防御样本;
第五步,将第四步中得到的对抗防御样本与对应的对抗攻击视频帧进行差值计算,得到的结果即为该视频帧的扰动;
第六步,结合视频序列的时序特性,将当前视频帧的扰动作为下一视频帧的初始扰动,重复第二步-第五步的过程,依次得到完整的对抗防御视频序列。
作为一优选实施例,第二步,包括:
s21,将当前对抗攻击的视频帧ii输入至被攻击目标跟踪器,根据被攻击目标跟踪器网络结构提取出m个待检测的候选框P;
s22,计算每一个候选框P与上一视频帧in-1的追踪结果Gn-1的重叠率
Figure BDA0002467229850000091
s23,根据重叠率IoU和设定的最高阈值thhi及最低阈值thlo,确定待检测的正负样本:当IoU>thhi时,为正样本Phi,当IoU<thlo时,为负样本Plo,其他情况下的候选框丢弃,不计算在损失函数中;将正负样本进行对调,生成标记相反的伪正样本P* hi及伪负样本P* lo
作为一优选实施例,s23中,设定的最高阈值thhi和最低阈值thlo与被攻击网络训练时的对应参数保持一致。
作为一优选实施例,第三步,包括:
s311,采用交叉熵函数计算对抗防御损失函数中的分类任务:
Figure BDA0002467229850000092
其中,Lcls为对抗防御中的分类损失函数,k为正负样本的数量之和,正样本的标签为p(Pi)=1,负样本标签为p(Pi)=0,q(Pi)为对应标签的攻击网络预测概率;
采用smooth L1函数计算对抗防御损失函数中的回归任务:
Figure BDA0002467229850000101
其中,Lreg为对抗防御中的回归损失函数,Pi为正样本的相对坐标变化,σ为平滑系数;
s312,采用交叉熵函数计算对抗防御损失函数中的分类任务:
Figure BDA0002467229850000102
其中,Lcls为对抗防御中的分类损失函数,k为伪正负样本的数量之和,伪正样本的标签为p(Pi *)=1,伪负样本标签为p(Pi *)=0,q(Pi *)为对应标签的攻击网络预测概率;
采用smooth L1函数计算对抗防御损失函数中的回归任务:
Figure BDA0002467229850000103
其中,Lreg为对抗防御中的回归损失函数,Pi *为伪正样本的相对坐标变化,σ为平滑系数;
s32,计算正负样本与伪正负样本损失函数的差值:
Lloss=Lcls(Pi)-Lcls(Pi *)+λ(Lreg(Pi)-Lreg(Pi *));
其中,λ为用于平衡分类任务与回归任务两分支的权重系数;
s33,根据对应的损失函数,计算损失函数对输入图像的梯度值
Figure BDA0002467229850000104
在输入对抗攻击样本中减去对应梯度值
Figure BDA0002467229850000105
其中,β是反传梯度的权重,α*将扰动限制在人眼不易见的范围,t代表每一视频帧的迭代次数。
作为一优选实施例,s33中,还包括:截取各像素点的值在0到255之间。
下面结合一具体应用实例,对本发明实施例所提供的目标追踪攻击与防御方法进一步详细说明:
以DaSiamRPN跟踪器为例子,DaSiamRPN是纯离线训练的跟踪器,在测试过程中,深度网络的各项参数均固定不变。
基于深度网络的目标追踪攻击方法,包括:
步骤1、获取DaSiamRPN跟踪器的网络结构及各项网络参数θ,具体而言,得到已训练好的可以有效跟踪目标的预训练模型,同时,输入待攻击的目标跟踪视频序列I1,I2…In
步骤2、对DaSiamRPN的网络模型结构进行分析,在追踪检测过程中,可以得到m个待检测目标框,通过对m个待检测目标框进行目标及背景的置信度分析,并通过边框回归算法进一步进行校正,得到置信度最高的检测框,即为预测值。在对抗攻击算法中,将对得到的m个待检测框依照设定阈值进行判定,得到正负样本及伪正负样本。具体步骤包括:
步骤21,输入初始图像I1,根据DaSiamRPN的算法提取出待检测的m个候选框P;
步骤22,计算各个候选框P与上一视频帧In-1的追踪结果Gn-1的重叠率
Figure BDA0002467229850000111
步骤23,根据重叠率的大小来确定正负样本,设定正负样本阈值thhi=0.6,thlo=0.3,即待检测框汇中重叠率IoU大于0.6的样本为正样本,重叠率IoU小于0.3的为负样本,其阈值的选择与原DaSiamRPN跟踪器训练时的对应参数保持一致。对于分类分支,将正负样本对调获得伪正负样本;对于回归分支,将正样本偏移随机一定距离,得到伪正样本。
步骤3、根据得到的正负样本及伪正负样本,分别计算对抗损失函数Lloss,并将梯度反传给输入图片In
步骤311,对于DaSiamRPN跟踪器,对于分类分支采用对抗损失函数是交叉熵函数:
Figure BDA0002467229850000112
其中,Lcls为对抗攻击中的分类损失函数,k为正负样本的数量之和,正样本的标签为p(Pi)=1,负样本标签为p(Pi)=0,q(Pi)为对应标签的攻击网络预测概率。
对于回归分支采用对抗损失函数是是smooth L1函数:
Figure BDA0002467229850000113
其中,Lreg为对抗攻击中的回归损失函数,Pi为正样本的相对坐标变化,σ为平滑系数。
步骤312,伪正负样本与正负样本的计算对抗攻击损失函数的方法一致,此处不再赘述。
步骤32,计算正负样本与伪正负样本损失函数的差值:
Lloss=Lcls(Pi)-Lcls(Pi *)+λ(Lreg(Pi)-Lreg(Pi *))
其中,λ为用于平衡分类任务与回归任务两分支的权重系数;
步骤33,根据对应的损失函数,计算损失函数对输入图像的梯度值
Figure BDA0002467229850000121
并将取sign函数后的结果作为对抗攻击的扰动加在初始图像上It+1=It+α·sign(rt),其中,sign函数得到反传梯度的正负性,α将扰动限制在人眼不易见的范围,t代表迭代的次数;同时,为保证最终生成视频序列的图像质量,将截取各像素点的值在0到255之间,防止得到的图像的像素值大于255或小于0。
对抗攻击的方法是在原始的视频序列上增加人眼不易见的微小扰动得到对抗样本,将得到的对抗样本输入追踪深度网络中,深度网络的追踪性能大幅度下降。
Sign函数的作用是得到反传梯度的正负性质,并利用α将扰动限制在人眼不易见的范围。
在本发明实施例所提供的攻击方法中,输入是当前视频帧,输出是人眼不易见的微小扰动。将该微小扰动加到当前视频帧,输入到原追踪网络,追踪结果会发生偏移。
步骤4、重复上述过程进行多次帧内迭代,得到I2,I3…It等,对抗攻击与防御过程中扰动变化如图3所示。
步骤5、得到对抗攻击样本与输入图像的差值,即It-I1为生成的扰动,并将该扰动作为下一帧的初始扰动,利用视频帧序列的时序特性,可以减少下一帧的迭代次数。
基于深度网络的目标追踪防御方法与攻击方法的步骤类似,此时输入为对抗攻击样本序列,而不是在原视频序列,重复上述步骤,并将步骤33中的计算损失函数对输入图像的梯度值rt减去,即
Figure BDA0002467229850000122
其中,β是反传梯度的权重,α*将扰动限制在人眼不易见的范围,其他操作与基于深度网络的目标追踪攻击方法保持一致,此处不再赘述。该对抗防御方法为一种相对应的对抗防御方法,可以恢复目标追踪器的跟踪性能。此外,如果将该对抗防御方法直接应用到初始视频序列,根据实际需要调整该对抗防御方法的相关参数,可以提升原有的跟踪器的跟踪性能。
实施效果:
依据上述步骤,在常用的四个数据集OTB100、UAV123、VOT2016及VOT2018数据集上进行了相应的测试,其中OTB100与UAV123采用AUC(Area Under Curve)及以50个像素点的距离为判定标准的准确率作为评价指标,而VOT2016与VOT2018采用准确性、鲁棒性及EAO(Expected Average Overlap)作为评价指标。表1是DaSiamRPN在OTB100及UAV123数据集上的测试结果,表2是DaSiamRPN在VOT2016及VOT2018数据集上的测试结果,从各项评价指标上看,本发明实施例提出的对抗攻击方法及对抗防御方法均取得不错的效果。
表1
Figure BDA0002467229850000131
表2
Figure BDA0002467229850000132
下面结合另一具体应用实例,对本发明实施例所提供的目标追踪攻击与防御方法进一步详细说明:
以RT-MDNet跟踪器为例子,RT-MDNet与DaSiamRPN跟踪器不同,它在跟踪的过程中会在线更新网络参数,对目标的适应性会更强。
基于深度网络的目标追踪攻击方法,包括:
步骤1、获取RT-MDNet跟踪器的网络结构及各项网络参数θ,具体而言,得到已训练好的可以有效跟踪目标的预训练模型,同时,输入待攻击的目标跟踪视频序列I1,I2…In
步骤2、对RT-MDNet的网络模型结构进行分析,在追踪检测过程中,可以得到m个随机剪裁的候选框,通过对m个待检测目标框进行目标及背景的置信度分析,得到置信度最高的检测框,并通过边框回归算法进一步进行校正,即为预测值。在对抗攻击算法中,对得到的m个待检测框进行判定,得到正负样本及伪正负样本。具体步骤包括:
步骤21,输入初始图像I1,根据RT-MDNet的算法提取出待检测的m个候选框Pk
步骤22,计算各个候选框Pm与上一帧视频In-1的追踪结果Gn-1的重叠率
Figure BDA0002467229850000141
步骤23,根据重叠率的大小来确定正负样本,设定正负样本阈值thhi=0.7,thlo=0.3,即待检测框汇中重叠率IoU大于0.7的样本为正样本,重叠率IoU小于0.3的为负样本,其阈值的选择与原DaSiamRPN跟踪器训练时保持一致。此外,将正负样本对调获得伪正负样本。
步骤3、根据得到的正负样本及伪正负样本,分别计算对抗损失函数Lloss,,并将梯度反传给输入图片In
步骤311,对于RT-MDNet跟踪器,仅含有分类任务,即采用对抗损失函数是交叉熵函数:
Figure BDA0002467229850000142
其中,Lcls为对抗攻击中的分类损失函数,k为正负样本的数量之和,正样本的标签为p(Pi)=1,负样本标签为p(Pi)=0,q(Pi)为对应标签的攻击网络预测概率。
步骤312,伪正负样本与正负样本的计算对抗攻击损失函数的方法一致,此处不再赘述。
步骤32,计算正负样本与伪正负样本损失函数的差值:
Lloss=Lcls(Pi)-Lcls(Pi *)
该实例中,由于追踪器不包含回归分支而只有分类分支,因此,对应的攻击损失函数中回归分支部分的权重为零。
步骤33,根据对应的损失函数,计算损失函数对输入图像的梯度值
Figure BDA0002467229850000151
并将取sign函数后的结果作为对抗攻击的扰动加在初始图像上It+1=It+α×sign(rt),其中,sign函数得到反传梯度的正负性,α将扰动限制在人眼不易见的范围,t代表迭代的次数;同时,为保证最终生成视频序列的图像质量,将截取各像素点的值在0到255之间。
步骤4、重复上述过程进行多次帧内迭代,得到I2,I3…It等,对抗攻击与防御过程中扰动变化如图3所示。
步骤5、得到对抗攻击样本与输入图像的差值,即It-I1为生成的扰动,并将该扰动作为下一帧的初始扰动,利用视频帧序列的时序特性,可以减少下一帧的迭代次数。
基于深度网络的目标追踪防御方法与攻击方法的步骤类似,此时输入为对抗攻击样本序列,而不是在原视频序列,重复上述步骤,并将步骤33中的计算损失函数对输入图像的梯度值rt减去,即
Figure BDA0002467229850000152
其中,β是反传梯度的权重,α*将扰动限制在人眼不易见的范围,其他操作与基于深度网络的目标追踪攻击方法保持一致,此处不再赘述。该对抗防御方法为一种相对应的对抗防御方法,可以恢复目标追踪器的跟踪性能。此外,如果将该对抗防御方法直接应用到初始视频序列,根据实际需要调整该对抗防御方法的相关参数,可以提升原有的跟踪器的跟踪性能。
实施效果:
依据上述步骤,在常用的四个数据集OTB100、UAV123、VOT2016及VOT2018数据集上进行了相应的测试,其中OTB100与UAV123采用AUC(Area Under Curve)及以50个像素点的距离为判定标准的准确率作为评价指标,而VOT2016与VOT2018采用准确性、鲁棒性及EAO(Expected Average Overlap)作为评价指标。表3是RT-MDNet在OTB100及UAV123数据集上的测试结果,表4是RT-MDNet在VOT2016及VOT2018数据集上的测试结果,从各项评价指标上看,本发明实施例提出的对抗攻击方法及对抗防御方法均取得不错的效果。
表3
Figure BDA0002467229850000153
Figure BDA0002467229850000161
表4
Figure BDA0002467229850000162
实验表明,与未处理的初始视频序列测试结果相比,本发明实施例采用的对抗攻击方法可以通过生成对抗攻击视频序列有效地降低目标追踪器的检测性能。同时,本实施例采用的对抗防御方法可以恢复检测性能。此外,该对抗防御方法在初始视频序列上处理,可以小幅度提升目标追踪的准确度。
本发明上述实施例所提供的基于深度网络的目标追踪攻击与防御方法,是一种针对深度网络的攻击与防御方法。该攻击与防御方法针对动态视频序列,将上一帧的扰动结果作为下一帧图像的初始化,利用了视频序列的时序信息完成对抗攻击任务,不仅在对抗样本视频序列的追踪性能有较好的恢复,也对原始视频序列的追踪性能也有提升。
本发明上述实施例所提供的基于深度网络的目标追踪攻击与防御方法,根据初始框或上一帧追踪结果来确定各个待检测框的重叠率;依照设定阈值来确定正负样本,并生成标记相反的伪正负样本;计算样本及伪样本对抗攻击损失函数,并计算对输入图像的梯度反传到输入图像,进行多次迭代,保证所加的扰动限制在人眼观察不明显的范围内;将该帧的扰动作为下一帧的初始扰动,并重复上述过程,得到完整的对抗攻击视频序列。本发明上述实施例所提供的方法,针对动态视频序列,将上一帧的扰动结果作为下一帧图像的初始化,利用了视频序列的时序信息完成对抗攻击任务,不仅在对抗样本视频序列的追踪性能有较好的恢复,也对原始视频序列的追踪性能有提升。本发明上述实施例所提供的方法,通过在原视频序列上增加及减少人眼不易见的微小扰动,有效地降低及恢复了基于深度网络目标追踪器的追踪性能;应用于原始视频序列上,能够有效提升目标追踪的准确度。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变形或修改,这并不影响本发明的实质内容。

Claims (10)

1.一种基于深度网络的目标追踪攻击方法,其特征在于,包括:
S1,获取被攻击目标跟踪器的网络结构及网络参数θ,同时,输入待攻击的目标跟踪视频序列,所述视频序列包括多个视频帧I1,I2…In
S2,根据S1中获取的目标跟踪器及当前攻击的视频帧Ii,确定待检测的正负样本及伪正负样本;
S3,根据S2中得到的正负样本及伪正负样本,分别计算样本及伪样本的对抗攻击损失函数,并根据对应的损失函数,计算损失函数对视频帧Ii的梯度值作为扰动反传至视频帧Ii
S4,重复执行S3,进行多次帧内迭代,将每次迭代的图像梯度值多次累积叠加,得到最终的对抗样本;
S5,将S4中得到的对抗样本与对应的视频帧进行差值计算,得到的结果即为该视频帧的扰动;
S6,结合视频序列的时序特性,将当前视频帧的扰动作为下一视频帧的初始扰动,重复S2-S5的过程,依次得到完整的对抗攻击视频序列。
2.根据权利要求1所述的基于深度网络的目标追踪攻击方法,其特征在于,所述S2,包括:
S21,将当前攻击的视频帧Ii输入至被攻击目标跟踪器,根据被攻击目标跟踪器网络结构提取出m个待检测的候选框P;
S22,计算每一个候选框P与上一视频帧In-1追踪结果Gn-1的重叠率
Figure FDA0002467229840000011
S23,根据重叠率IoU和设定的最高阈值thhi及最低阈值thlo,确定待检测的正负样本:当IoU>thhi时,为正样本Phi,当IoU<thlo时,为负样本Plo,将正负样本进行对调,生成标记相反的伪正样本P* hi及伪负样本P* lo
3.根据权利要求2所述的基于深度网络的目标追踪攻击与防御方法,其特征在于,所述S23中,设定的最高阈值thhi和最低阈值thlo与被攻击网络训练时的对应参数保持一致。
4.根据权利要求1所述的基于深度网络的目标追踪攻击与防御方法,其特征在于,所述S3,包括:
S311,采用交叉熵函数计算对抗攻击损失函数中的分类任务:
Figure FDA0002467229840000021
其中,Lcls为对抗攻击中的分类损失函数,k为正负样本的数量之和,正样本的标签为p(Pi)=1,负样本标签为p(Pi)=0,q(Pi)为对应标签的攻击网络预测概率;
采用smooth L1函数计算对抗攻击损失函数中的回归任务:
Figure FDA0002467229840000022
其中,Lreg为对抗攻击中的回归损失函数,Pi为正样本的相对坐标变化,σ为平滑系数;
S312,采用交叉熵函数计算对抗攻击损失函数中的分类任务:
Figure FDA0002467229840000023
其中,Lcls为对抗攻击中的分类损失函数,k为伪正负样本的数量之和,伪正样本的标签为p(Pi *)=1,伪负样本标签为p(Pi *)=0,q(Pi *)为对应标签的攻击网络预测概率;
采用smooth L1函数计算对抗攻击损失函数中的回归任务:
Figure FDA0002467229840000024
其中,Lreg为对抗攻击中的回归损失函数,Pi *为伪正样本的相对坐标变化,σ为平滑系数;
S32,计算正负样本与伪正负样本损失函数的差值:
Lloss=Lcls(Pi)-Lcls(Pi *)+λ(Lreg(Pi)-Lreg(Pi *));
其中,λ为用于平衡分类任务与回归任务两分支的权重系数;
S33,根据对应的损失函数,计算损失函数对输入图像的梯度值
Figure FDA0002467229840000025
对输入图像的梯度值
Figure FDA0002467229840000026
取sign函数,并将取sign函数后的结果作为对抗攻击的扰动加在初始图像上It+1=It+α·sign(rt),其中,sign函数得到反传梯度的正负性,α将扰动限制在人眼不易见的范围,t代表每一视频帧的迭代次数。
5.根据权利要求4所述的基于深度网络的目标追踪攻击与防御方法,其特征在于,所述S33中,还包括:截取各像素点的值在0到255之间。
6.一种基于深度网络的目标追踪防御方法,其特征在于,包括:
s1,获取被攻击目标跟踪器的网络结构及网络参数θ,同时,输入对抗攻击视频序列,所述视频序列包括多个视频帧i1,i2…in
s2,根据s1中获取的目标跟踪器及当前对抗攻击的视频帧ii,确定待检测的正负样本及伪正负样本;
s3,根据s2中得到的正负样本及伪正负样本,分别计算样本及伪样本的防御损失函数,并根据对应的损失函数,计算损失函数对视频帧ii的梯度值作为扰动反传至视频帧ii
s4,重复执行s3,进行多次帧内迭代,将每次迭代的图像梯度值多次累积叠加,得到最终的对抗防御样本;
s5,将s4中得到的对抗防御样本与对应的对抗攻击视频帧进行差值计算,得到的结果即为该视频帧的扰动;
s6,结合视频序列的时序特性,将当前视频帧的扰动作为下一视频帧的初始扰动,重复s2-s5的过程,依次得到完整的对抗防御视频序列。
7.根据权利要求6所述的基于深度网络的目标追踪防御方法,其特征在于,所述s2,包括:
s21,将当前对抗攻击的视频帧ii输入至被攻击目标跟踪器,根据被攻击目标跟踪器网络结构提取出m个待检测的候选框P;
s22,计算每一个候选框P与上一视频帧in-1的追踪结果Gn-1的重叠率
Figure FDA0002467229840000031
s23,根据重叠率IoU和设定的最高阈值thhi及最低阈值thlo,确定待检测的正负样本:当IoU>thhi时,为正样本Phi,当IoU<thlo时,为负样本Plo,将正负样本进行对调,生成标记相反的伪正样本P* hi及伪负样本P* lo
8.根据权利要求7所述的基于深度网络的目标追踪攻击与防御方法,其特征在于,所述s23中,设定的最高阈值thhi和最低阈值thlo与被攻击网络训练时的对应参数保持一致。
9.根据权利要求1所述的基于深度网络的目标追踪攻击与防御方法,其特征在于,所述s3,包括:
s311,采用交叉熵函数计算对抗防御损失函数中的分类任务:
Figure FDA0002467229840000041
其中,Lcls为对抗防御中的分类损失函数,k为正负样本的数量之和,正样本的标签为p(Pi)=1,负样本标签为p(Pi)=0,q(Pi)为对应标签的攻击网络预测概率;
采用smooth L1函数计算对抗防御损失函数中的回归任务:
Figure FDA0002467229840000042
其中,Lreg为对抗防御中的回归损失函数,Pi为正样本的相对坐标变化,σ为平滑系数;
s312,采用交叉熵函数计算对抗防御损失函数中的分类任务:
Figure FDA0002467229840000043
其中,Lcls为对抗防御中的分类损失函数,k为伪正负样本的数量之和,伪正样本的标签为p(Pi *)=1,伪负样本标签为p(Pi *)=0,q(Pi *)为对应标签的攻击网络预测概率;
采用smooth L1函数计算对抗防御损失函数中的回归任务:
Figure FDA0002467229840000044
其中,Lreg为对抗防御中的回归损失函数,Pi *为伪正样本的相对坐标变化,σ为平滑系数;
s32,计算正负样本与伪正负样本损失函数的差值:
Lloss=Lcls(Pi)-Lcls(Pi *)+λ(Lreg(Pi)-Lreg(Pi *));
其中,λ为用于平衡分类任务与回归任务两分支的权重系数;
s33,根据对应的损失函数,计算损失函数对输入图像的梯度值
Figure FDA0002467229840000045
在输入对抗攻击样本中减去对应梯度值
Figure FDA0002467229840000046
其中,β是反传梯度的权重,α*将扰动限制在人眼不易见的范围,t代表每一视频帧的迭代次数。
10.根据权利要求9所述的基于深度网络的目标追踪攻击与防御方法,其特征在于,所述s33中,还包括:截取各像素点的值在0到255之间。
CN202010337803.1A 2020-04-26 2020-04-26 基于深度网络的目标追踪攻击与防御方法 Active CN111627044B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010337803.1A CN111627044B (zh) 2020-04-26 2020-04-26 基于深度网络的目标追踪攻击与防御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010337803.1A CN111627044B (zh) 2020-04-26 2020-04-26 基于深度网络的目标追踪攻击与防御方法

Publications (2)

Publication Number Publication Date
CN111627044A true CN111627044A (zh) 2020-09-04
CN111627044B CN111627044B (zh) 2022-05-03

Family

ID=72260557

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010337803.1A Active CN111627044B (zh) 2020-04-26 2020-04-26 基于深度网络的目标追踪攻击与防御方法

Country Status (1)

Country Link
CN (1) CN111627044B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112465019A (zh) * 2020-11-26 2021-03-09 重庆邮电大学 一种基于扰动的对抗样本生成与对抗性防御方法
CN112884802A (zh) * 2021-02-24 2021-06-01 电子科技大学 一种基于生成的对抗攻击方法
CN112907552A (zh) * 2021-03-09 2021-06-04 百度在线网络技术(北京)有限公司 图像处理模型的鲁棒性检测方法、设备及程序产品
CN112927211A (zh) * 2021-03-09 2021-06-08 电子科技大学 一种基于深度三维检测器的通用对抗攻击方法、存储介质和终端
CN113283545A (zh) * 2021-07-14 2021-08-20 中国工程物理研究院计算机应用研究所 一种针对视频识别场景的物理干扰方法及系统
CN113392905A (zh) * 2021-06-16 2021-09-14 电子科技大学 一种基于梯度修正的图像对抗攻击方法
CN113688797A (zh) * 2021-09-27 2021-11-23 江南大学 一种基于骨架提取的异常行为识别方法及系统
CN113808165A (zh) * 2021-09-14 2021-12-17 电子科技大学 面向三维目标跟踪模型的点扰动对抗攻击方法
TWI768857B (zh) * 2020-09-30 2022-06-21 大陸商支付寶(杭州)信息技術有限公司 模型分類的過程中防止模型竊取的方法及裝置
CN115511910A (zh) * 2022-08-22 2022-12-23 电子科技大学长三角研究院(湖州) 面向视频跟踪的对抗攻击方法、系统、介质、设备及终端

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103714556A (zh) * 2014-01-06 2014-04-09 中国科学院自动化研究所 一种基于金字塔表观模型的运动目标跟踪方法
CN106991408A (zh) * 2017-04-14 2017-07-28 电子科技大学 一种候选框生成网络的生成方法及人脸检测方法
CN108682022A (zh) * 2018-04-25 2018-10-19 清华大学 基于对抗迁移网络的视觉跟踪方法及系统
CN110334808A (zh) * 2019-06-12 2019-10-15 武汉大学 一种基于对抗样本训练的对抗攻击防御方法
CN110598765A (zh) * 2019-08-28 2019-12-20 腾讯科技(深圳)有限公司 样本生成方法、装置、计算机设备及存储介质
CN110674938A (zh) * 2019-08-21 2020-01-10 浙江工业大学 基于协同多任务训练的对抗攻击防御方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103714556A (zh) * 2014-01-06 2014-04-09 中国科学院自动化研究所 一种基于金字塔表观模型的运动目标跟踪方法
CN106991408A (zh) * 2017-04-14 2017-07-28 电子科技大学 一种候选框生成网络的生成方法及人脸检测方法
CN108682022A (zh) * 2018-04-25 2018-10-19 清华大学 基于对抗迁移网络的视觉跟踪方法及系统
CN110334808A (zh) * 2019-06-12 2019-10-15 武汉大学 一种基于对抗样本训练的对抗攻击防御方法
CN110674938A (zh) * 2019-08-21 2020-01-10 浙江工业大学 基于协同多任务训练的对抗攻击防御方法
CN110598765A (zh) * 2019-08-28 2019-12-20 腾讯科技(深圳)有限公司 样本生成方法、装置、计算机设备及存储介质

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
ALEKSANDER MADRY 等: "Towards Deep Learning Models Resistant to Adversarial Attacks", 《ARXIV》 *
ALI SHAFAHI 等: "Adversarial Training for Free!", 《ARXIV》 *
任奎等: "深度学习中的对抗性攻击和防御", 《ENGINEERING》 *
程旭等: "基于多损失的生成式对抗目标跟踪算法", 《东南大学学报(自然科学版)》 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI768857B (zh) * 2020-09-30 2022-06-21 大陸商支付寶(杭州)信息技術有限公司 模型分類的過程中防止模型竊取的方法及裝置
CN112465019A (zh) * 2020-11-26 2021-03-09 重庆邮电大学 一种基于扰动的对抗样本生成与对抗性防御方法
CN112884802A (zh) * 2021-02-24 2021-06-01 电子科技大学 一种基于生成的对抗攻击方法
CN112927211B (zh) * 2021-03-09 2023-08-25 电子科技大学 一种基于深度三维检测器的通用对抗攻击方法、存储介质和终端
CN112907552A (zh) * 2021-03-09 2021-06-04 百度在线网络技术(北京)有限公司 图像处理模型的鲁棒性检测方法、设备及程序产品
CN112927211A (zh) * 2021-03-09 2021-06-08 电子科技大学 一种基于深度三维检测器的通用对抗攻击方法、存储介质和终端
CN112907552B (zh) * 2021-03-09 2024-03-01 百度在线网络技术(北京)有限公司 图像处理模型的鲁棒性检测方法、设备及程序产品
CN113392905A (zh) * 2021-06-16 2021-09-14 电子科技大学 一种基于梯度修正的图像对抗攻击方法
CN113392905B (zh) * 2021-06-16 2022-03-25 电子科技大学 一种基于梯度修正的图像对抗攻击方法
CN113283545A (zh) * 2021-07-14 2021-08-20 中国工程物理研究院计算机应用研究所 一种针对视频识别场景的物理干扰方法及系统
CN113283545B (zh) * 2021-07-14 2021-11-02 中国工程物理研究院计算机应用研究所 一种针对视频识别场景的物理干扰方法及系统
CN113808165A (zh) * 2021-09-14 2021-12-17 电子科技大学 面向三维目标跟踪模型的点扰动对抗攻击方法
CN113808165B (zh) * 2021-09-14 2023-06-13 电子科技大学 面向三维目标跟踪模型的点扰动对抗攻击方法
CN113688797A (zh) * 2021-09-27 2021-11-23 江南大学 一种基于骨架提取的异常行为识别方法及系统
CN115511910A (zh) * 2022-08-22 2022-12-23 电子科技大学长三角研究院(湖州) 面向视频跟踪的对抗攻击方法、系统、介质、设备及终端
CN115511910B (zh) * 2022-08-22 2024-01-12 电子科技大学长三角研究院(湖州) 面向视频跟踪的对抗攻击方法、系统、介质、设备及终端

Also Published As

Publication number Publication date
CN111627044B (zh) 2022-05-03

Similar Documents

Publication Publication Date Title
CN111627044B (zh) 基于深度网络的目标追踪攻击与防御方法
CN109344725B (zh) 一种基于时空关注度机制的多行人在线跟踪方法
CN110443203B (zh) 基于对抗生成网络的人脸欺骗检测系统对抗样本生成方法
CN108447080B (zh) 基于分层数据关联和卷积神经网络的目标跟踪方法、系统和存储介质
CN110287819B (zh) 动态背景下基于低秩及稀疏分解的动目标检测方法
CN110120064B (zh) 一种基于互强化与多注意机制学习的深度相关目标跟踪算法
CN110348475B (zh) 一种基于空间变换的对抗样本增强方法和模型
CN109544592B (zh) 针对相机移动的运动目标检测算法
CN107452015B (zh) 一种具有重检测机制的目标跟踪系统
CN112668483B (zh) 一种融合行人重识别和人脸检测的单目标人物跟踪方法
CN109191488B (zh) 一种基于csk与tld融合算法的目标跟踪系统及方法
CN113744315B (zh) 一种基于双目视觉的半直接视觉里程计
Fu et al. GM-PHD filter based online multiple human tracking using deep discriminative correlation matching
CN111429485B (zh) 基于自适应正则化和高信度更新的跨模态滤波跟踪方法
CN111753732A (zh) 一种基于目标中心点的车辆多目标跟踪方法
CN112233145A (zh) 一种基于rgb-d时空上下文模型的多目标遮挡跟踪方法
Yang et al. Foreground enhancement network for object detection in sonar images
CN115116132B (zh) 一种物联网边缘服务环境下深度感知的人体行为分析方法
Cai et al. EHDC: Enhanced dilated convolution framework for underwater blurred target recognition
CN115601841A (zh) 一种联合外观纹理和运动骨架的人体异常行为检测方法
CN115439771A (zh) 一种改进dsst的红外激光光斑跟踪方法
CN110503061B (zh) 一种融合多特征的多因素视频遮挡区域检测方法及系统
Park et al. Automatic radial un-distortion using conditional generative adversarial network
Ishida et al. Shadow detection by three shadow models with features robust to illumination changes
Lian et al. An improved fire and smoke detection method based on YOLOv7

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant