CN113673324B - 一种基于时序移动的视频识别模型攻击方法 - Google Patents

一种基于时序移动的视频识别模型攻击方法 Download PDF

Info

Publication number
CN113673324B
CN113673324B CN202110792132.2A CN202110792132A CN113673324B CN 113673324 B CN113673324 B CN 113673324B CN 202110792132 A CN202110792132 A CN 202110792132A CN 113673324 B CN113673324 B CN 113673324B
Authority
CN
China
Prior art keywords
video
time sequence
gradient
gradient information
video input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110792132.2A
Other languages
English (en)
Other versions
CN113673324A (zh
Inventor
姜育刚
魏志鹏
陈静静
吴祖煊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fudan University
Original Assignee
Fudan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fudan University filed Critical Fudan University
Priority to CN202110792132.2A priority Critical patent/CN113673324B/zh
Publication of CN113673324A publication Critical patent/CN113673324A/zh
Application granted granted Critical
Publication of CN113673324B publication Critical patent/CN113673324B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2155Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于视频识别网络模型安全技术领域,具体为一种基于时序移动的视频识别模型攻击方法。本发明在视频识别网络模型中引入时序判别模式的概念,不同的视频识别模型具有不同的时序判别模式。本发明方法包括:对视频输入数据执行时序平移操作来获取一系列的视频输入数据,干扰该单一模型的时序判别模式;通过该单一模型的梯度反向传播获取各个视频输入数据的梯度信息,并将梯度信息平移到与原始视频输入数据相同的时序信息;最后利用高斯核完成梯度信息聚合,生成具有高迁移性的对抗样本,完成对其他模型的攻击。实验验证表明,不同的视频识别模型具有不同的时序判别模式这一特点,并表明本发明攻击方法的有效性。

Description

一种基于时序移动的视频识别模型攻击方法
技术领域
本发明属于视频识别网络模型安全技术领域,具体涉及一种基于时序移动的视频识别模型攻击方法。
背景技术
对抗攻击(adversarialattack)是指通过在干净的样本上添加人类难以察觉的微小扰动来诱导深度神经网络(DNNs)发生错误决策的技术。其中,所生成的可导致DNNs发生错误决策的样本称之为对抗样本(adversarialexample)。
近年来,得益于深度学习技术在一系列的任务上取得的巨大成功,深度神经网络已被广泛地应用于现实世界中,例如:在线识别服务、导航机器人、自动驾驶,等等。然而,最近的研究发现,DNNs很容易受到对抗样本的影响[1,2]。对抗样本的存在为DNNs在现实世界的应用带来了严重的安全问题,引起学术界和工业界越来越多的关注。
根据威胁模型,对抗攻击可分为两类:白盒攻击和黑盒攻击。在白盒攻击中,攻击者可以完全控制和访问DNNs模型,包括模型结构、参数等。而在黑盒攻击中,攻击者只能访问DNNs的输出。因此,针对黑盒攻击的研究更具有现实意义,且更有挑战性。最近的研究表明,对抗样本在不同的模型间具有可转移的特性,这使得利用对抗样本的迁移性在现实中实现黑盒攻击更加可行。具体来说,通过在白盒模型上产生的对抗样本来实现针对黑盒模型的攻击。目前,现有工作[3,4,5]主要侧重于提高图像对抗样本的迁移性,而针对视频对抗样本迁移性的研究还未被探讨过。
该发明的主要挑战来自于生成的对抗样本很容易对白盒模型产生过度拟合,从而攻击其他黑盒模型时效果较差。此外,与图像数据相比,视频具有额外的时间维度,描述了动态的时序信息。为了捕获丰富的时序信息,不同架构的各种视频识别模型(Non-local[6],SlowFast[7],TPN[8])被提出。架构的丰富性为视频对抗样本的迁移性提出了新的挑战。
现有的方法仅考虑了空间维度,而未对时间维度进行探索。这些方法通过空间上的输入变换,或者在反向传播中修饰梯度来提升卷积神经网络(CNNs)间对抗样本的迁移性。由于忽略了时间维度,直接将它们拓展到视频中性能较差。
发明内容
本发明的目的在于提供一种能够干扰视频模型间不同时序识别模式、对于不同视频模型具有较高迁移能力的视频对抗样本生成方法,也称为基于时序移动的视频识别模型攻击方法。
本发明通过干扰模型的时序判别模式生成具有高迁移性的对抗样本。具体来说,本发明在视频识别网络模型中引入时序判别模式的概念,且不同的视频识别模型具有不同的时序判别模式。为了提升白盒模型所生成的对抗样本在其他黑盒模型上的攻击成功率,本发明方法通过在视频输入数据上执行时序平移操作来获取一系列的视频输入数据,干扰该单一模型的时序判别模式;然后,通过该白盒模型的梯度反向传播获取各个视频输入数据的梯度信息,并将梯度信息恢复到与原始视频输入数据具有相同的时序信息;最后,利用高斯核完成梯度信息聚合,生成具有高迁移性的对抗样本,完成对其他黑盒模型的攻击。大量的实验验证不同的视频识别模型具有不同的时序判别模式这一观点,并表明了本发明攻击方法的有效性,且本发明性能超越了目前最先进的对抗样本迁移性攻击方法。
本发明提供的基于时序移动的视频识别模型攻击方法,具体步骤为:
(一)针对视频输入,进行时序平移,获得多个视频输入,用于数据扩充。
具体是对视频输入,沿着时间维度平移个帧,并利用得到的/>个视频输入来丰富数据的时序表示。
所述进行时序平移,具体操作步骤如下:
步骤1:给定输入视频片段和初始化对抗噪声/>;/>分别为视频的高度和宽度,/>是视频的通道数,/>为视频的帧数;
步骤2:此时的对抗样本为,将/>沿着时间维度平移/>个帧,获得/>个视频输入,即/>
其中,表示时序移动函数,将视频输入/>沿着时序维度移动/>帧,/>表示对抗噪声,初始化为0。注意,时序平移操作是在视频输入中循环进行的。
(二)针对平移后视频的梯度进行时序回移,用于特征聚合。
具体包括:利用白盒模型的反向传播得到损失函数关于每个视频输入的梯度信息;再将梯度信息的时序顺序回移,即将梯度信息的时序恢复到与原始视频输入相同的时序。
所述利用白盒模型的反向传播得到损失函数关于每个视频输入的梯度信息,具体为:
计算损失函数关于视频输入的梯度,即,其中,/>表示视频输入/>的正确类别;/>表示视频白盒模型且返回预测类别;/>表示损失函数。对得到的个视频输入分别计算梯度信息。
所述将梯度信息的时序顺序回移,具体为将得到的个梯度信息分别执行时序回移,使其与原视频输入的时序信息相同,即/>。回移后/>个梯度信息的同一位置处表示了相同视频输入帧在不同输入位置的梯度信息,以此防止对白盒模型发生过拟合,提升所生成对抗样本的迁移性。
具体操作步骤为:
步骤1:给定经过时序平移的视频输入
步骤2:利用基于白盒模型的损失函数/>计算针对每一个视频输入的梯度信息,即/>,其中,/>表示/>的真实类别;
步骤3:对生成的梯度进行梯度回移,使梯度的时序信息与原始视频输入的时序信息相同,即/>
(三)针对回移后的梯度信息进行高斯聚合,用于赋予不同时序平移以不同的权重。
具体是对时序平移较小的梯度信息分配较高的权重,而时序平移较大的梯度分配较低的权重。这是因为时序平移越小,其时序信息的破坏程度越低,更应该用做梯度聚合。
具体为利用高斯核对个梯度信息进行权重聚合,即:
其中,权重,/>
距离原始输入位置越近的梯度信息的权重越高,而越远的权重越低。
具体操作步骤如下:
步骤1:给定经过回移操作后的梯度信息
步骤2:根据平移远近为梯度信息分配权重进行整合,即:
其中,,/>
(四)生成对抗样本。
具体为利用聚合梯度迭代更新对抗噪声,即:
其中,表示每次更新中移动的步长;/>表示符号值,即大于0的值为1,小于0的值为-1,等于0的值仍为零;/>为投射操作,将更新后的视频样本限制在距离原始视频样本/>的范围内;/>由当前步的/>得到。
本发明提供的基于时序移动的视频识别模型攻击方法,具体操作流程为:
(1)将给定该步的视频输入,经过时序平移获取多个视频输入;
(2)将多个视频输入经过白盒模型提取损失函数关于输入的梯度信息;
(3)将梯度信息经过时序回移后,再利用高斯核进行梯度整合;
(4)利用梯度信息生成下一步的视频输入;
(5)再次执行(1)-(4),直至达到限定步数。
本发明的创新之处在于:
(1)提出了用于消除视频模型间不同时序判别模型影响的时序平移方法,它在经过时序平移后的多个视频输入上进行优化,生成高迁移性的对抗样本。
(2)提出了梯度信息上的时序回移操作,通过结合不同时序位置处的梯度信息,提升对抗样本对于不同模型的泛化能力。
附图说明
图1是本发明提出的基于时序移动的视频识别模型攻击方法图示。
具体实施方式
下面通过具体实施例,进一步描述本发明。
步骤1: 输入的视频,其中/>和/>分别为视频的高度和宽度、/>是视频的通道数(一般为3),/>为视频的帧数。视频/>的真实标签为/>,/>表示类别数。/>表示白盒视频识别模型,/>表示其他的黑盒视频识别模型,这些模型输出输入视频的预测类别。本发明的目标为在/>上增加噪声/>,以满足/>。其中噪声/>由白盒模型/>生成。此外,/>用来限制增加的噪声人肉眼不可察觉,其中/>为常数。使用表示白盒模型/>的损失函数。注意,/>采用零初始化,即/>
步骤2: 为了消除视频识别模型间不同时序判别模式的影响,本发明利用时序平移函数在时序维度上对输入视频/>移动/>帧,生成/>个经过时序平移后的视频片段,其中/>
步骤3: 将上一步得到的个视频片段输入到白盒模型/>中,计算损失函数关于输入的梯度,即/>。为了结合同一视频帧在不同位置处的梯度信息,使用/>来将梯度信息重新映射到与/>相同的时间序列。平移大的视频片段所分配的权重应该越低,因此采用高斯核进行梯度聚合,即:
,其中/>,/>
步骤4:利用得到的聚合梯度,对噪声/>进行更新。
其中,为投射操作,将更新后的视频样本限制在距离原始视频样本/>的范围内,/>表示每次更新中移动的步长,/>表示符号值。
步骤5: 对噪声进行迭代更新,直至达到限定步数。最终所生成的对抗样本可以表示为/>,以高概率满足/>
参考文献
[1] Ian J Goodfellow, Jonathon Shlens, and ChristianSzegedy.Explaining and harnessing adversarial examples. arXivpreprint arXiv:1412.6572, 2014.
[2] Christian Szegedy, Wojciech Zaremba, Ilya Sutskever, JoanBruna,Dumitru Erhan, Ian Goodfellow, and Rob Fergus.Intriguing properties of neuralnetworks. arXiv preprintarXiv:1312.6199, 2013.
[3] Yinpeng Dong, Fangzhou Liao, Tianyu Pang, Hang Su, JunZhu,Xiaolin Hu, and Jianguo Li. Boosting adversarial attackswith momentum. InProceedings of the IEEE conference
on computer vision and pattern recognition, pages9185–9193, 2018.
[4] CihangXie, Zhishuai Zhang, Yuyin Zhou, Song Bai, JianyuWang, ZhouRen, and Alan L Yuille. Improving transferabilityof adversarial examples withinput diversity. In Proceedingsof the IEEE/CVF Conference on Computer VisionandPattern Recognition, pages 2730–2739, 2019.
[5] Yinpeng Dong, Tianyu Pang, Hang Su, and Jun Zhu.Evading defensesto transferable adversarial examplesby translation-invariant attacks. InProceedings of the
IEEE/CVF Conference on Computer Vision and PatternRecognition, pages4312–4321, 2019.[6] Xiaolong Wang, Ross Girshick, Abhinav Gupta, andKaimingHe. Non-local neural networks. In Proceedings of theIEEE conference oncomputer vision and pattern recognition,pages 7794–7803, 2018.
[7] Christoph Feichtenhofer, Haoqi Fan, Jitendra Malik, andKaimingHe. Slowfast networks for video recognition. InProceedings of the IEEE/CVFInternationalConference onComputer Vision, pages 6202–6211, 2019.
[8] Ceyuan Yang, Yinghao Xu, Jianping Shi, Bo Dai, and BoleiZhou.Temporal pyramid network for action recognition. InProceedings of the IEEE/CVF Conference on Computer Visionand Pattern Recognition, pages 591–600,2020。

Claims (3)

1.一种基于时序移动的视频识别模型攻击方法,其特征在于,具体步骤为:
(一)针对视频输入,进行时序平移,获得多个视频输入,用于数据扩充;
即对视频输入,沿着时间维度平移i∈{-l,…,0,…,l}个帧,利用得到的2l+1个视频输入来丰富数据的时序表示;
(二)针对平移后视频的梯度进行时序回移,用于特征聚合;
包括:利用白盒模型的反向传播得到损失函数关于每个视频输入的梯度信息;再将梯度信息的时序顺序回移,即将梯度信息的时序恢复到与原始视频输入相同的时序;
所述利用白盒模型的反向传播得到损失函数关于每个视频输入的梯度信息,具体为:
计算损失函数关于视频输入的梯度,即其中,y表示视频输入x的正确类别;f(·)表示视频白盒模型且返预测类别;J(·)表示损失函数;对得到的2l+1个视频输入分别计算梯度信息;
所述将梯度信息的时序顺序回移,具体为将得到的2l+1个梯度信息分别执行时序回移,使其与原视频输入的时序信息相同,即回移后2l+1个梯度信息的同一位置处表示相同视频输入帧在不同输入位置的梯度信息,以此防止对白盒模型发生过拟合,提升所生成对抗样本的迁移性;
(三)针对回移后的梯度信息进行高斯权重聚合,用于赋予不同时序平移以不同的权重;其中,对时序平移较小的梯度信息分配较高的权重,而时序平移较大的梯度分配较低的权重;
具体利用高斯核对2l+1个梯度信息进行权重聚合,即:
其中,权重
距离原始输入位置越近的梯度信息的权重越高,而越远的权重越低;
(四)生成对抗样本;
步骤(一)中所述进行时序平移,具体操作步骤如下:
步骤1:给定输入视频片段x∈RT×H×W×C和初始化对抗噪声δ=0T×H×W×C;H和W分别为视频的高度和宽度、C是视频的通道数,T为视频的帧数;
步骤2:此时的对抗样本为xadv=x+δ,将xadv沿着时间维度平移i∈{-l,…,0,…,l}个帧,获得2l+1个视频输入,即{TRi(x+δ)};
其中,TRi(·)表示时序移动函数,将视频输入x沿着时序维度移动i帧,δ表示对抗噪声,初始化为0;这里,时序平移操作是在视频输入中循环进行的。
2.根据权利要求1所述的基于时序移动的视频识别模型攻击方法,其特征在于,步骤(二)的具体操作步骤为:
步骤1:给定经过时序平移的视频输入{TRi(x+δ)};
步骤2:利用基于白盒模型f(·)的损失函数J(·)计算针对每一个视频输入的梯度信息,即其中,y表示x的真实类别;
步骤3:对生成的梯度进行梯度回移,使梯度的时序信息与原始视频输入x的时序信息相同,即
3.根据权利要求2所述的基于时序移动的视频识别模型攻击方法,其特征在于,步骤(四)中生成对抗样本的具体流程为:利用聚合梯度迭代更新对抗噪声δ,即:
δ=Πε(x+δ+α·sign(g))-x,
其中,α表示每次更新中移动的步长;sign(·)表示符号值,即大于0的值为1,小于0的值为-1,等于0的值仍为零;Πε(·)为投射操作,将更新后的视频样本限制在距离原始视频样本ε的范围内;g由当前步的x+δ得到。
CN202110792132.2A 2021-07-13 2021-07-13 一种基于时序移动的视频识别模型攻击方法 Active CN113673324B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110792132.2A CN113673324B (zh) 2021-07-13 2021-07-13 一种基于时序移动的视频识别模型攻击方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110792132.2A CN113673324B (zh) 2021-07-13 2021-07-13 一种基于时序移动的视频识别模型攻击方法

Publications (2)

Publication Number Publication Date
CN113673324A CN113673324A (zh) 2021-11-19
CN113673324B true CN113673324B (zh) 2023-11-28

Family

ID=78539244

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110792132.2A Active CN113673324B (zh) 2021-07-13 2021-07-13 一种基于时序移动的视频识别模型攻击方法

Country Status (1)

Country Link
CN (1) CN113673324B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114283341B (zh) * 2022-03-04 2022-05-17 西南石油大学 一种高转移性对抗样本生成方法、系统及终端

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111260059A (zh) * 2020-01-23 2020-06-09 复旦大学 视频分析神经网络模型的后门攻击方法
US10783401B1 (en) * 2020-02-23 2020-09-22 Fudan University Black-box adversarial attacks on videos
CN112819109A (zh) * 2021-04-19 2021-05-18 中国工程物理研究院计算机应用研究所 针对黑盒对抗样本攻击的视频分类系统安全性增强方法
CN113066002A (zh) * 2021-02-27 2021-07-02 华为技术有限公司 对抗样本的生成方法、神经网络的训练方法、装置及设备

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11768932B2 (en) * 2019-06-28 2023-09-26 Baidu Usa Llc Systems and methods for fast training of more robust models against adversarial attacks

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111260059A (zh) * 2020-01-23 2020-06-09 复旦大学 视频分析神经网络模型的后门攻击方法
US10783401B1 (en) * 2020-02-23 2020-09-22 Fudan University Black-box adversarial attacks on videos
CN113066002A (zh) * 2021-02-27 2021-07-02 华为技术有限公司 对抗样本的生成方法、神经网络的训练方法、装置及设备
CN112819109A (zh) * 2021-04-19 2021-05-18 中国工程物理研究院计算机应用研究所 针对黑盒对抗样本攻击的视频分类系统安全性增强方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
高安全性人脸识别系统中的唇语识别算法研究;任玉强;田国栋;周祥东;吕江靖;周曦;计算机应用研究;第34卷(第4期);全文 *

Also Published As

Publication number Publication date
CN113673324A (zh) 2021-11-19

Similar Documents

Publication Publication Date Title
Wu et al. Improving the transferability of adversarial samples with adversarial transformations
Xiao et al. Generating adversarial examples with adversarial networks
Wang et al. Temporal segment networks: Towards good practices for deep action recognition
Ge et al. Efficient low-resolution face recognition via bridge distillation
Bai et al. Hilbert-based generative defense for adversarial examples
Wei et al. Simultaneously optimizing perturbations and positions for black-box adversarial patch attacks
Liu et al. Efficient universal shuffle attack for visual object tracking
Liu et al. An efficient adversarial example generation algorithm based on an accelerated gradient iterative fast gradient
Liu et al. Imperceptible transfer attack and defense on 3d point cloud classification
Yu et al. Generating adversarial examples with conditional generative adversarial net
Zhou et al. Manifold projection for adversarial defense on face recognition
Yuan et al. Natural color fool: Towards boosting black-box unrestricted attacks
CN113673324B (zh) 一种基于时序移动的视频识别模型攻击方法
Che et al. SMGEA: A new ensemble adversarial attack powered by long-term gradient memories
Yin et al. Generalizable black-box adversarial attack with meta learning
Thang et al. Image transformation can make neural networks more robust against adversarial examples
Zhang et al. Bag of tricks to boost adversarial transferability
Xie et al. Improving the transferability of adversarial examples with new iteration framework and input dropout
Liu et al. Model compression hardens deep neural networks: A new perspective to prevent adversarial attacks
Yin et al. Adversarial attack, defense, and applications with deep learning frameworks
CN116309700A (zh) 一种基于孪生网络的目标跟踪通用鲁棒对抗攻击方法
Guo et al. MixCam-attack: Boosting the transferability of adversarial examples with targeted data augmentation
Wang et al. A temporal attention based appearance model for video object segmentation
Ji et al. Improving Adversarial Robustness with Data-Centric Learning
Zhao et al. Research on robustness of deep neural networks based data preprocessing techniques

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant