CN113283545A - 一种针对视频识别场景的物理干扰方法及系统 - Google Patents
一种针对视频识别场景的物理干扰方法及系统 Download PDFInfo
- Publication number
- CN113283545A CN113283545A CN202110797548.3A CN202110797548A CN113283545A CN 113283545 A CN113283545 A CN 113283545A CN 202110797548 A CN202110797548 A CN 202110797548A CN 113283545 A CN113283545 A CN 113283545A
- Authority
- CN
- China
- Prior art keywords
- video
- interference
- representing
- sample
- classification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 238000005457 optimization Methods 0.000 claims description 7
- 230000000644 propagated effect Effects 0.000 claims description 5
- 230000000694 effects Effects 0.000 abstract description 4
- 238000012360 testing method Methods 0.000 abstract description 2
- 238000004364 calculation method Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000010409 ironing Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种针对视频识别场景的物理干扰方法及系统,属于信息安全测试技术领域,解决现有技术在网络层面对视频进行干扰,干扰效果差的问题。本发明基于获取的已授权的摄像设备的视频、白盒分类系统和对抗样本生成系统在网络层获取初始的视频对抗样本;基于初始化的视频对抗样本,利用白盒分类系统对干扰进行优化,生成网络层面最终的视频对抗样本,即视频的通用干扰值;获取视频前,基于最终的视频对抗样本调节摄像设备在RGB通道的可调节滤镜,形成物理干扰。本发明用于对视频识别场景的物理干扰。
Description
技术领域
本发明涉及信息安全测试技术领域,提供了一种针对视频识别场景的物理干扰方法及系统,用于对视频识别场景的物理干扰。
背景技术
随着DNN(深度神经网络)在图像、视频识别领域的快速发展,一系列实用性技术成果已经开始投入使用,便利人民生活。但是,此类技术也给不良商家恶意收集他人信息提供了途径,例如增设私人监视设备获取大众行为数据、黑入私人计算机获取个人摄像头权限以获得个人信息等一系列损害个人隐私安全的行为。因此,如何保护个人隐私安全成为了当前时代迫切和必须解决的问题。
解决此问题最有效的方法是:在视频识别时能够有效地进行对外干扰,从而使得识别系统无法获取有效数据。该方法的前提是生成视频对抗样本以形成干扰。而目前对于视频对抗样本的研究较少,且其主要干扰方式是在获取到的视频上增加干扰以形成对抗样本,即在获取到视频数据后,在网络层面形成干扰效果,例如加入黑点噪声干扰技术和随机噪声干扰技术。这种方式存在明显的滞后性问题。
综上所述,现有技术存在如下技术问题:
1. 干扰都是在网络层面形成的,每进行一次干扰都需要计算,而计算过程需要算力;
2.在网络层生成干扰存在滞后性,并且干扰是基于传输的视频流,在传输时不存有干扰效果 ;
3.无法实时的在摄像设备上形成干扰,是因为针对保护个人隐私这一场景,摄像设备一定不是随时都开着的,所以无法在未启动的设备上形成干扰。
发明内容
针对上述研究的问题,本发明的目的在于提供一种针对视频识别场景的物理干扰方法及系统,解决现有技术在网络层面对视频进行干扰,干扰效果差的问题。
为了达到上述目的,本发明采用如下技术方案:
一种针对视频识别场景的物理干扰方法,包括:
步骤1:基于获取的已授权的摄像设备的视频、白盒分类系统和对抗样本生成系统在网络层获取初始的视频对抗样本;
步骤2:基于初始化的视频对抗样本,利用白盒分类系统对干扰进行优化,优化后生成网络层面最终的视频对抗样本,即视频的通用干扰值;
步骤3:获取视频前,基于最终的视频对抗样本调节摄像设备在RGB通道的可调节滤镜,形成物理干扰。
进一步,所述步骤 1的具体步骤为:
步骤1.3:将视频和集合输入到对抗样本生成系统,使每帧图像生成作用在RGB通道的对应像素点上的干扰,即扰动,将该扰动添加到视频上,得到初始化的视频对抗样本,其中,表示视频中第帧图像和分类结果输入到对抗样本生成系统得到的扰动,表示视频中第帧图像和分类结果输入到对抗样本生成系统得到的扰动。
进一步,所述步骤 2的具体步骤为:
更新方式:
进一步,所述步骤 3的具体步骤为:
一种针对视频识别场景的物理干扰系统,包括:
干扰模块:基于获取的已授权的摄像设备的视频、白盒分类系统和对抗样本生成系统在网络层获取初始的视频对抗样本;
优化模块:基于初始化的视频对抗样本,利用白盒分类系统对干扰进行优化,生成最终的视频对抗样本,即视频的通用干扰值;
物理干扰模块:获取视频前,基于最终的视频对抗样本调节摄像设备在RGB通道的可调节滤镜,形成物理干扰。
将视频和集合输入到对抗样本生成系统,使每帧图像生成作用在RGB通道的对应像素点上的干扰,即扰动,将该扰动添加到视频上,得到初始化的视频对抗样本,其中,表示视频中第帧图像和分类结果输入到对抗样本生成系统得到的扰动,表示视频中第帧图像和分类结果输入到对抗样本生成系统得到的扰动。
更新方式:
本发明同现有技术相比,其有益效果表现在:
本发明用现有的对抗样本生成系统在图片上生成干扰,并将此类干扰在物理层面实现(把最终的视频对抗样本部署到可调节滤镜上,即给监控设备增加滤镜以保证行为识别失败),即在物理层对视频进行干扰,使得视频识别系统无法正确识别个人行为,从而达到防止恶意收集个人隐私和保障个人隐私安全的目的。
本发明在干扰数据传输给可调节滤镜后即形成通用模型(干扰模型)后,只需与可调节滤镜通信一次,就可以不再改变可调节滤镜与计算机进行通信,自调节滤镜可以自动运行传输的干扰模型(即不改变干扰模型),拥有低成本优势,节省了后续计算的时间和算力成本。
三、本发明提出的这种物理干扰方式不需要改变整个场景的色彩,在保障个人隐私的同时,也不会影响个人正常行为。
附图说明
图1为本发明的流程示意图,其中,图中的视频识别模型包括白盒分类系统和对抗样本生成系统,最终的对抗样本即指最终的视频对抗样本。
具体实施方式
下面将结合附图及具体实施方式对本发明作进一步的描述。
本发明旨在获取视频数据前,通过物理层面的有效干扰,影响识别系统的正常功能。针对固定式摄像设备,在不影响个人正常生活的前提下,采用增加位于摄像设备前端的可调节滤镜从而改变视频RGB值的方式,使得通过监视设备获取的视频数据在识别系统中不能正确识别个人行为。
图1为本发明的流程示意图,其中,图中的视频识别模型包括白盒分类系统和对抗样本生成系统,最终的对抗样本即指最终的视频对抗样本。
一种针对视频识别场景的物理干扰方法,包括:
步骤1:如图1中所示,基于获取的已授权的摄像设备的视频、白盒分类系统和对抗样本生成系统在网络层获取初始的视频对抗样本;
具体步骤为:
步骤1.3:将视频和集合输入到对抗样本生成系统,使每帧图像生成作用在RGB通道的对应像素点上的干扰,即扰动,将该扰动添加到视频上,得到初始化的视频对抗样本,其中,表示视频中第帧图像和分类结果输入到对抗样本生成系统得到的扰动,表示视频中第帧图像和分类结果输入到对抗样本生成系统得到的扰动。
步骤2:基于初始化的视频对抗样本,利用白盒分类系统对干扰进行优化,优化后生成最终的视频对抗样本,即视频的通用干扰值;
具体步骤为:
更新方式:
一种针对视频识别场景的物理干扰系统,包括:
干扰模块:基于获取的已授权的摄像设备的视频、白盒分类系统和对抗样本生成系统在网络层获取初始的视频对抗样本;具体为:
将视频和集合输入到对抗样本生成系统,使每帧图像生成作用在RGB通道的对应像素点上的干扰,即扰动,将该扰动添加到视频上,得到初始化的视频对抗样本,其中,表示视频中第帧图像和分类结果输入到对抗样本生成系统得到的扰动,表示视频中第帧图像和分类结果输入到对抗样本生成系统得到的扰动。
优化模块:基于初始化的视频对抗样本,利用白盒分类系统对干扰进行优化,生成最终的视频对抗样本,即视频的通用干扰值;具体为:
更新方式:
实施例
将视频和集合输入到对抗样本生成系统,使每帧图像生成作用在RGB通道对应像素点上的干扰,即扰动,将该扰动添加到视频上,得到初始化的视频对抗样本,其中,常用的对抗样本生成系统为FGSM、DeepFool或GAN。
基于白盒分类系统,调整每一帧的扰动,利用框架的梯度方向进行优化(即指损失函数沿每帧图片的颜色通道值梯度方向进行优化),从而使得分类损失最大化,可得到最终的视频对抗样本,即视频的通用干扰值,使得白盒分类系统产生误分类,即在该行为分类的结果不是“熨衣服”。
根据网络层面生成的最终的视频对抗样本,将该扰动应用于摄像设备获取视频前的可调节滤镜上,完成RGB干扰部署工作,从而实现有效干扰。
如:原视频尺寸是2*2的,那么在各帧的这4个像素点上生成的干扰必是一个2*2的矩阵形式(矩阵上的元素代表在每一个像素点需要增加的RGB值),如得到获取某帧图像的通用干扰值为,然后将其传输到可调节滤镜上。若原调节滤镜的像素点值为(即原本不会增加任何RGB干扰),接收到电脑传输的数据(通用干扰值)后,可调节滤镜上的像素点值就变为,若物理世界中在该时刻四个像素点的值为,那么在通过可调节滤镜,呈现在摄像设备的RGB矩阵为,从而达到有效干扰的目的。
综上所述,在用于训练的视频数目为100个时,该对抗样本生成系统的视频对抗样本能够有44.37%的误导率,并且误导率会根据视频数的增大而增大,直到视频数达到10000时趋于平稳(因为训练大量的视频耗费时间,所以选取的视频集数目最大值为15000个)达到92.5%的误导率。
以上仅是本发明众多具体应用范围中的代表性实施例,对本发明的保护范围不构成任何限制。凡采用变换或是等效替换而形成的技术方案,均落在本发明权利保护范围之内。
Claims (8)
1.一种针对视频识别场景的物理干扰方法,其特征在于,包括:
步骤1:基于获取的已授权的摄像设备的视频、白盒分类系统和对抗样本生成系统在网络层获取初始的视频对抗样本;
步骤2:基于初始化的视频对抗样本,利用白盒分类系统对干扰进行优化,优化后生成网络层面最终的视频对抗样本,即视频的通用干扰值;
步骤3:获取视频前,基于最终的视频对抗样本调节摄像设备在RGB通道的可调节滤镜,形成物理干扰。
2.根据权利要求1所述的一种针对视频识别场景的物理干扰方法,其特征在于:所述步骤 1的具体步骤为:
5.一种针对视频识别场景的物理干扰系统,其特征在于,包括:
干扰模块:基于获取的已授权的摄像设备的视频、白盒分类系统和对抗样本生成系统在网络层获取初始的视频对抗样本;
优化模块:基于初始化的视频对抗样本,利用白盒分类系统对干扰进行优化,生成最终的视频对抗样本,即视频的通用干扰值;
物理干扰模块:获取视频前,基于最终的视频对抗样本调节摄像设备在RGB通道的可调节滤镜,形成物理干扰。
6.根据权利要求5所述的一种针对视频识别场景的物理干扰系统,其特征在于:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110797548.3A CN113283545B (zh) | 2021-07-14 | 2021-07-14 | 一种针对视频识别场景的物理干扰方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110797548.3A CN113283545B (zh) | 2021-07-14 | 2021-07-14 | 一种针对视频识别场景的物理干扰方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113283545A true CN113283545A (zh) | 2021-08-20 |
CN113283545B CN113283545B (zh) | 2021-11-02 |
Family
ID=77286756
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110797548.3A Active CN113283545B (zh) | 2021-07-14 | 2021-07-14 | 一种针对视频识别场景的物理干扰方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113283545B (zh) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109543760A (zh) * | 2018-11-28 | 2019-03-29 | 上海交通大学 | 基于图像滤镜算法的对抗样本检测方法 |
US10733292B2 (en) * | 2018-07-10 | 2020-08-04 | International Business Machines Corporation | Defending against model inversion attacks on neural networks |
CN111539916A (zh) * | 2020-04-08 | 2020-08-14 | 中山大学 | 一种对抗鲁棒的图像显著性检测方法及系统 |
CN111627044A (zh) * | 2020-04-26 | 2020-09-04 | 上海交通大学 | 基于深度网络的目标追踪攻击与防御方法 |
US10783401B1 (en) * | 2020-02-23 | 2020-09-22 | Fudan University | Black-box adversarial attacks on videos |
EP3748573A1 (en) * | 2019-06-05 | 2020-12-09 | Sony Interactive Entertainment Inc. | Digital model repair system and method |
CN112115761A (zh) * | 2020-05-12 | 2020-12-22 | 吉林大学 | 自动驾驶汽车视觉感知系统漏洞检测的对抗样本生成方法 |
US20200411167A1 (en) * | 2019-06-27 | 2020-12-31 | Retrace Labs | Automated Dental Patient Identification And Duplicate Content Extraction Using Adversarial Learning |
US20200410649A1 (en) * | 2019-06-27 | 2020-12-31 | Retrace Labs | Inpainting Dental Images With Missing Anatomy |
CN113033747A (zh) * | 2021-05-26 | 2021-06-25 | 中国工程物理研究院计算机应用研究所 | 一种用于人机识别的图形识别码生成方法 |
-
2021
- 2021-07-14 CN CN202110797548.3A patent/CN113283545B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10733292B2 (en) * | 2018-07-10 | 2020-08-04 | International Business Machines Corporation | Defending against model inversion attacks on neural networks |
CN109543760A (zh) * | 2018-11-28 | 2019-03-29 | 上海交通大学 | 基于图像滤镜算法的对抗样本检测方法 |
EP3748573A1 (en) * | 2019-06-05 | 2020-12-09 | Sony Interactive Entertainment Inc. | Digital model repair system and method |
US20200387739A1 (en) * | 2019-06-05 | 2020-12-10 | Sony Interactive Entertainment Inc. | Digital Model Repair System and Method |
US20200411167A1 (en) * | 2019-06-27 | 2020-12-31 | Retrace Labs | Automated Dental Patient Identification And Duplicate Content Extraction Using Adversarial Learning |
US20200410649A1 (en) * | 2019-06-27 | 2020-12-31 | Retrace Labs | Inpainting Dental Images With Missing Anatomy |
US10783401B1 (en) * | 2020-02-23 | 2020-09-22 | Fudan University | Black-box adversarial attacks on videos |
CN111539916A (zh) * | 2020-04-08 | 2020-08-14 | 中山大学 | 一种对抗鲁棒的图像显著性检测方法及系统 |
CN111627044A (zh) * | 2020-04-26 | 2020-09-04 | 上海交通大学 | 基于深度网络的目标追踪攻击与防御方法 |
CN112115761A (zh) * | 2020-05-12 | 2020-12-22 | 吉林大学 | 自动驾驶汽车视觉感知系统漏洞检测的对抗样本生成方法 |
CN113033747A (zh) * | 2021-05-26 | 2021-06-25 | 中国工程物理研究院计算机应用研究所 | 一种用于人机识别的图形识别码生成方法 |
Non-Patent Citations (3)
Title |
---|
SHASHA LI 等: "Adversarial Perturbations Against Real-Time Video Classification Systems", 《NETWORK AND DISTRIBUTED SYSTEMS SECURITY SYMPOSIUM》 * |
ZHIPENGWEI 等: "Heuristic Black-Box Adversarial Attacks on Video Recognition Models", 《THE THIRTY-FOURTH AAAI CONFERENCE ON ARTIFICIAL INTELLIGENCE》 * |
任奎: "人工智能模型数据泄露的攻击与防御研究综述", 《网络与信息安全学报》 * |
Also Published As
Publication number | Publication date |
---|---|
CN113283545B (zh) | 2021-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yu et al. | Attributing fake images to gans: Learning and analyzing gan fingerprints | |
Jourabloo et al. | Face de-spoofing: Anti-spoofing via noise modeling | |
Verdoliva | Extracting camera-based fingerprints for video forensics | |
CN112364745B (zh) | 一种对抗样本的生成方法、装置及电子设备 | |
CN112001429B (zh) | 一种基于纹理特征的深度伪造视频检测方法 | |
Gragnaniello et al. | Analysis of adversarial attacks against CNN-based image forgery detectors | |
CN113361604A (zh) | 一种面向目标检测的物理攻击对抗补丁的生成方法及系统 | |
CN114677722A (zh) | 一种融合多尺度特征的多监督人脸活体检测方法 | |
CN114842526A (zh) | 一种基于对抗进攻的视频流人脸隐私保护方法 | |
Hwang et al. | Just one moment: Structural vulnerability of deep action recognition against one frame attack | |
Wang et al. | Adversarial analysis for source camera identification | |
Sari et al. | The effect of error level analysis on the image forgery detection using deep learning | |
Ma et al. | TransCAB: Transferable clean-annotation backdoor to object detection with natural trigger in real-world | |
CN113283545B (zh) | 一种针对视频识别场景的物理干扰方法及系统 | |
CN116798100A (zh) | 人脸视频的检测方法和装置 | |
CN113486688A (zh) | 一种人脸识别方法及智能设备 | |
Hu et al. | Draw: Defending camera-shooted raw against image manipulation | |
CN116311439A (zh) | 一种人脸验证隐私保护方法和装置 | |
CN111126283A (zh) | 一种自动过滤模糊人脸的快速活体检测方法及系统 | |
CN111191519B (zh) | 一种用于移动供电装置用户接入的活体检测方法 | |
Leonenkova et al. | Ti-Patch: Tiled Physical Adversarial Patch for no-reference video quality metrics | |
Liu et al. | Towards robust gan-generated image detection: a multi-view completion representation | |
Tangari et al. | On the adversarial inversion of deep biometric representations | |
CN113505722A (zh) | 一种基于多尺度特征融合的活体检测方法、系统及装置 | |
Zhu et al. | Campro: Camera-based anti-facial recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |