CN112818407B - 一种基于生成对抗网络的视频隐私保护方法 - Google Patents

一种基于生成对抗网络的视频隐私保护方法 Download PDF

Info

Publication number
CN112818407B
CN112818407B CN202110409156.5A CN202110409156A CN112818407B CN 112818407 B CN112818407 B CN 112818407B CN 202110409156 A CN202110409156 A CN 202110409156A CN 112818407 B CN112818407 B CN 112818407B
Authority
CN
China
Prior art keywords
video
confrontation
samples
network
original
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110409156.5A
Other languages
English (en)
Other versions
CN112818407A (zh
Inventor
刘小垒
胥迤潇
邓虎
路海
殷明勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
COMPUTER APPLICATION RESEARCH INST CHINA ACADEMY OF ENGINEERING PHYSICS
Original Assignee
COMPUTER APPLICATION RESEARCH INST CHINA ACADEMY OF ENGINEERING PHYSICS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by COMPUTER APPLICATION RESEARCH INST CHINA ACADEMY OF ENGINEERING PHYSICS filed Critical COMPUTER APPLICATION RESEARCH INST CHINA ACADEMY OF ENGINEERING PHYSICS
Priority to CN202110409156.5A priority Critical patent/CN112818407B/zh
Publication of CN112818407A publication Critical patent/CN112818407A/zh
Application granted granted Critical
Publication of CN112818407B publication Critical patent/CN112818407B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioethics (AREA)
  • Computer Hardware Design (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Computer Security & Cryptography (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于生成对抗网络的视频隐私保护方法,属于人工智能安全领域,解决现有技术中的隐私保护方法无法对视频进行隐私保护。本发明将点对点的图像生成系统作为对抗网络生成器,并基于视频数据集Image‑net训练得到一系列的视频对抗样本;将三种不同架构的视频分类系统作为对抗网络鉴别器,并基于一系列的对抗样本和对应的原始视频对对抗网络鉴别器进行训练,若训练后能分辨出对抗样本和原始视频的区别,根据训练后的对抗网络鉴别器的参数,利用梯度下降方法对中训练后的对抗网络生成器进行优化,并再次执行,否则,得到训练好的对抗网络生成器对隐私保护的视频进行处理,得到视频对抗样本。本发明用于视频隐私保护。

Description

一种基于生成对抗网络的视频隐私保护方法
技术领域
一种基于生成对抗网络的视频隐私保护方法,用于视频隐私保护,属于人工智能安全领域。
背景技术
近年来,随着深度神经网络技术的发展,基于深度神经网络的视频分类技术得到了广泛的应用,这大大提高了视频内容分析的效率。但与此同时,基于深度神经网络的视频分类系统可对视频内容进行分类,从而广泛地获取个人的行为习惯和行为模式,从而进行大数据分析,导致了针对性的诈骗等风险,即基于深度神经网络的视频分类技术的广泛应用特别容易造成了个人隐私的泄露,如:越来越多的平台提供个人视频上传分享功能,而不经处理的个人视频可能会遭到基于深度神经网络的视频分类系统的分析,从而导致视频中包含的个人隐私遭到侵害。
发明内容
针对上述研究的问题,本发明的目的在于提供一种基于生成对抗网络的视频隐私保护方法,解决现有技术中的隐私保护方法无法对视频进行隐私保护。
为了达到上述目的,本发明采用如下技术方案:
一种基于生成对抗网络的视频隐私保护方法,如下步骤:
S1、将点对点的图像生成系统作为对抗网络生成器,并基于视频数据集Image-net中的原始视频训练对抗网络生成器得到一系列的视频对抗样本;
S2、将三种不同架构的视频分类系统作为对抗网络鉴别器,并基于一系列的视频对抗样本和视频对抗样本对应的原始视频对对抗网络鉴别器进行训练,若训练后的对抗网络鉴别器能分辨出步骤S1中得到的20%以上的视频对抗样本和原始视频的区别,即对抗网络鉴别器能正确分类20%以上的视频对抗样本,转到步骤S3,否则,得到训练好的对抗网络生成器,转到步骤S4;
S3、根据步骤S2中训练后的对抗网络鉴别器的参数,利用梯度下降方法对步骤S1中训练后的对抗网络生成器进行优化,并基于优化后的对抗网络生成器转到步骤S1再次执行;
S4、将需要进行隐私保护的视频输入训练好的对抗网络生成器,得到视频对抗样本。
进一步,所述步骤S1的具体步骤如下:
S1.1、将点对点的图像生成系统作为对抗网络生成器,并从视频数据集Image-net获取原始视频作为原始样本
Figure 628022DEST_PATH_IMAGE001
Figure 740335DEST_PATH_IMAGE002
表示第
Figure 872239DEST_PATH_IMAGE003
个原始样本,
Figure 7685DEST_PATH_IMAGE004
表示原始样本
Figure 883237DEST_PATH_IMAGE002
的第
Figure 115635DEST_PATH_IMAGE005
个像素点,其中,
Figure 28228DEST_PATH_IMAGE006
表示第
Figure 41183DEST_PATH_IMAGE007
个原始样本;
S1.2、将原始样本输入对抗网络生成器
Figure 658109DEST_PATH_IMAGE008
,得到输出
Figure 915653DEST_PATH_IMAGE009
,其中,
Figure 389360DEST_PATH_IMAGE010
为对抗网络生成器对每个像素点添加的扰动,即得到一系列的视频对抗样本
Figure 233819DEST_PATH_IMAGE011
,其中,
Figure 654436DEST_PATH_IMAGE012
表示第
Figure 392585DEST_PATH_IMAGE007
个原始样本
Figure 178138DEST_PATH_IMAGE006
对应得到的视频对抗样本,
Figure 837790DEST_PATH_IMAGE013
表示对第
Figure 593256DEST_PATH_IMAGE014
个像素点
Figure 592436DEST_PATH_IMAGE015
添加的扰动。
进一步,所述步骤S2的具体步骤如下:
S2.1、将三种不同架构的视频分类模型I3D、C3D和CNN+LSTM在视频数据集Image-Net上训练得到三种不同架构的视频分类系统
Figure 407945DEST_PATH_IMAGE016
作为对抗网络鉴别器
Figure 289314DEST_PATH_IMAGE017
S2.2、将一系列的视频对抗样本
Figure 225302DEST_PATH_IMAGE018
和视频对抗样本对应的原始样本
Figure 203622DEST_PATH_IMAGE019
输入对抗网络鉴别器
Figure 393295DEST_PATH_IMAGE017
,输出结果为
Figure 699643DEST_PATH_IMAGE020
,若训练后的对抗网络鉴别器能分辨出步骤S1中得到的20%以上的视频对抗样本和原始视频的区别,即对抗网络鉴别器能正确分类20%以上的视频对抗样本,转到步骤S3,否则,得到训练好的对抗网络生成器,转到步骤S4。其中,
Figure 62491DEST_PATH_IMAGE021
表示视频对抗样本
Figure 833001DEST_PATH_IMAGE022
输入对抗网络鉴别器
Figure 865679DEST_PATH_IMAGE017
输出的结果,
Figure 783956DEST_PATH_IMAGE023
表示视频对抗样本
Figure 560282DEST_PATH_IMAGE022
输入视频分类系统
Figure 450878DEST_PATH_IMAGE024
输出的结果,
Figure 100002_DEST_PATH_IMAGE025
表示视频对抗样本
Figure 949730DEST_PATH_IMAGE022
输入视频分类系统
Figure 89725DEST_PATH_IMAGE026
输出的结果,
Figure 100002_DEST_PATH_IMAGE027
表示视频对抗样本
Figure 404162DEST_PATH_IMAGE022
输入视频分类系统
Figure 946002DEST_PATH_IMAGE028
输出的结果。
进一步,所述步骤S3的具体步骤如下:
根据对抗网络生成器
Figure 648379DEST_PATH_IMAGE008
的损失函数
Figure 100002_DEST_PATH_IMAGE029
,计算损失函数对
Figure 947773DEST_PATH_IMAGE030
中各参数的梯度
Figure 100002_DEST_PATH_IMAGE031
,再沿着梯度下降方向调整参数,对步骤S1中训练后的对抗网络生成器进行优化,即
Figure 800323DEST_PATH_IMAGE030
的参数
Figure 727827DEST_PATH_IMAGE032
,
Figure 100002_DEST_PATH_IMAGE033
为较小的常数,并基于优化后的对抗网络生成器转到步骤S1再次执行,其中,
Figure 509095DEST_PATH_IMAGE034
表示对
Figure 100002_DEST_PATH_IMAGE035
求期望,
Figure 30206DEST_PATH_IMAGE036
表示对
Figure 100002_DEST_PATH_IMAGE037
求期望,
Figure 76660DEST_PATH_IMAGE038
表示第
Figure 468458DEST_PATH_IMAGE039
轮得到的梯度,
Figure 512637DEST_PATH_IMAGE040
表示第
Figure 114520DEST_PATH_IMAGE039
轮得到对抗网络生成器神经网络的参数,是一个多维张量,
Figure 574451DEST_PATH_IMAGE021
表示对抗网络鉴别器的输出,
Figure 148652DEST_PATH_IMAGE030
表示对抗网络生成器的输出。
本发明同现有技术相比,其有益效果表现在:
一、现有视频对抗样本生成技术是基于梯度下降的优化过程,通常需要数万次的迭代,本发明基于生成构造对抗样本,在对抗网络生成器训练完成后,使用时只需要将原始视频输入生成器,经过复杂度O(1)的生成过程即可得到视频对抗样本,大大提高了视频对抗样本生成的效率,实现了对原始视频实时地处理,提高了该方法的实用性;
二、本发明的用户只需要很少的时间即可实现隐私保护,根据原始视频的大小,使用现有其它方法生成对抗样本通常比使用本发明消耗高一个数量级的时间,且视频大小越大两者的差距越大。
附图说明
图1为本发明的流程图。
具体实施方式
下面将结合附图及具体实施方式对本发明作进一步的描述。
一种基于生成对抗网络的视频隐私保护方法,如下步骤:
S1、将点对点的图像生成系统作为对抗网络生成器,并基于视频数据集Image-net中的原始视频训练对抗网络生成器得到一系列的视频对抗样本;
具体步骤如下:
S1.1、将点对点的图像生成系统作为对抗网络生成器,并从视频数据集Image-net获取原始视频作为原始样本
Figure 160470DEST_PATH_IMAGE001
Figure 889130DEST_PATH_IMAGE002
表示第
Figure 215069DEST_PATH_IMAGE003
个原始样本,
Figure 706093DEST_PATH_IMAGE004
表示原始样本
Figure 29758DEST_PATH_IMAGE002
的第
Figure 340654DEST_PATH_IMAGE005
个像素点,其中,
Figure 470284DEST_PATH_IMAGE006
表示第
Figure 956760DEST_PATH_IMAGE007
个原始样本;
S1.2、将原始样本输入对抗网络生成器
Figure 310381DEST_PATH_IMAGE008
,得到输出
Figure 311835DEST_PATH_IMAGE009
,其中,
Figure 917260DEST_PATH_IMAGE010
为对抗网络生成器对每个像素点添加的扰动,即得到一系列的视频对抗样本
Figure 382876DEST_PATH_IMAGE011
,其中,
Figure 110661DEST_PATH_IMAGE012
表示第
Figure 597198DEST_PATH_IMAGE007
个原始样本
Figure 130948DEST_PATH_IMAGE006
对应得到的视频对抗样本,
Figure 326437DEST_PATH_IMAGE013
表示对第
Figure 225123DEST_PATH_IMAGE014
个像素点
Figure 997907DEST_PATH_IMAGE015
添加的扰动。
S2、将三种不同架构的视频分类系统作为对抗网络鉴别器,并基于一系列的视频对抗样本和视频对抗样本对应的原始视频对对抗网络鉴别器进行训练,若训练后的对抗网络鉴别器能分辨出步骤S1中得到的20%以上的视频对抗样本和原始视频的区别,即对抗网络鉴别器能正确分类20%以上的视频对抗样本,转到步骤S3,否则,得到训练好的对抗网络生成器,转到步骤S4;
具体步骤如下:
S2.1、将三种不同架构的视频分类模型I3D、C3D和CNN+LSTM在视频数据集Image-Net上训练得到三种不同架构的视频分类系统
Figure 210713DEST_PATH_IMAGE016
作为对抗网络鉴别器
Figure 119764DEST_PATH_IMAGE017
S2.2、将一系列的视频对抗样本
Figure 454930DEST_PATH_IMAGE018
和视频对抗样本对应的原始样本
Figure 324797DEST_PATH_IMAGE019
输入对抗网络鉴别器
Figure 465928DEST_PATH_IMAGE017
,输出结果为
Figure 603386DEST_PATH_IMAGE020
,若训练后的对抗网络鉴别器能分辨出步骤S1中得到的20%以上的视频对抗样本和原始视频的区别,即对抗网络鉴别器能正确分类20%以上的视频对抗样本,转到步骤S3,否则,得到训练好的对抗网络生成器,转到步骤S4。
具体步骤如下:
根据对抗网络生成器
Figure 109454DEST_PATH_IMAGE008
的损失函数
Figure 856830DEST_PATH_IMAGE029
,计算损失函数对
Figure 145860DEST_PATH_IMAGE030
中各参数的梯度
Figure 232765DEST_PATH_IMAGE031
,再沿着梯度下降方向调整参数,对步骤S1中训练后的对抗网络生成器进行优化,即
Figure 706472DEST_PATH_IMAGE030
的参数
Figure 816510DEST_PATH_IMAGE032
,
Figure 237127DEST_PATH_IMAGE033
为较小的常数,并基于优化后的对抗网络生成器转到步骤S1再次执行,其中,
Figure 975276DEST_PATH_IMAGE034
表示对
Figure 760829DEST_PATH_IMAGE035
求期望,
Figure 217218DEST_PATH_IMAGE036
表示对
Figure 175947DEST_PATH_IMAGE037
求期望,
Figure 411013DEST_PATH_IMAGE038
表示第
Figure 226522DEST_PATH_IMAGE039
轮得到的梯度,
Figure 373470DEST_PATH_IMAGE040
表示第
Figure 807993DEST_PATH_IMAGE039
轮得到对抗网络生成器神经网络的参数,是一个多维张量,
Figure 786313DEST_PATH_IMAGE021
表示对抗网络鉴别器的输出,
Figure 648090DEST_PATH_IMAGE030
表示对抗网络生成器的输出。
S3、根据步骤S2中训练后的对抗网络鉴别器的参数,利用梯度下降方法对步骤S1中训练后的对抗网络生成器进行优化,并基于优化后的对抗网络生成器转到步骤S1再次执行;
S4、将需要进行隐私保护的视频输入训练好的对抗网络生成器,得到视频对抗样本。实施例
首先初始化GAN结构,即对抗网络生成器
Figure 16755DEST_PATH_IMAGE008
的结构,将对抗网络生成器
Figure 379603DEST_PATH_IMAGE008
初始化为点对点的图像生成系统;对抗网络鉴别器D由三种不同架构的视频分类模型I3D、C3D和CNN+LSTM在视频数据集Image-Net上训练得到视频分类系统
Figure 87796DEST_PATH_IMAGE041
组合构成。
在视频数据集Image-Net上对初始化的GAN结构进行训练以达到纳什均衡。即首先输入一系列原始视频到对抗网络生成器
Figure 448370DEST_PATH_IMAGE008
,生成一系列的视频对抗样本。再将生成的一系列的视频对抗样本和原始视频同时输入对抗网络鉴别器D,对对抗网络鉴别器D进行拟合,即对对抗网络鉴别器D进行训练,若训练后的对抗网络鉴别器D能正确分类视频对抗样本和原始视频。根据拟合后对抗网络鉴别器的参数,通过梯度下降算法对对抗网络生成器的参数进行调整,进入下一次循环。直到对抗网络鉴别器无法正确分类对抗网络生成器
Figure 101068DEST_PATH_IMAGE008
生成的视频对抗样本,则退出循环。此时获得的对抗网络生成器
Figure 641509DEST_PATH_IMAGE008
即可用于隐私保护。
假设此时拥有一含有隐私信息的原始视频
Figure 532104DEST_PATH_IMAGE042
,将其输入对抗网络生成器
Figure 860318DEST_PATH_IMAGE008
,即可得到对应的视频对抗样本
Figure 141257DEST_PATH_IMAGE043
。此时的视频对抗样本
Figure 580329DEST_PATH_IMAGE044
具有使得基于深度神经网络的视频分类系统产生误分类的能力,用上传
Figure 997535DEST_PATH_IMAGE044
取代上传
Figure 699912DEST_PATH_IMAGE042
,即实现了对个人隐私信息的保护。
本发明是利用对抗样本的原理对基于深度神经网络的视频分类系统的分析进行防御。
现有技术对图像的处理通常采用模糊化或插值方法,对基于深度神经网络的系统分析缺乏抵抗力。部分采用了对抗样本技术的图片处理方法无法直接应用于视频对抗样本的生成,因为视频的维度比图片高很多,导致时间代价过长。而本方法基于生成的视频对抗样本,可以实现实时地获取视频对抗样本,在时间上具有很大优势。
以上仅是本发明众多具体应用范围中的代表性实施例,对本发明的保护范围不构成任何限制。凡采用变换或是等效替换而形成的技术方案,均落在本发明权利保护范围之内。

Claims (3)

1.一种基于生成对抗网络的视频隐私保护方法,其特征在于,如下步骤:
S1、将点对点的图像生成系统作为对抗网络生成器,并基于视频数据集Image-net中的原始视频训练对抗网络生成器得到一系列的视频对抗样本;
S2、将三种不同架构的视频分类系统作为对抗网络鉴别器,并基于一系列的视频对抗样本和视频对抗样本对应的原始视频对对抗网络鉴别器进行训练,若训练后的对抗网络鉴别器能分辨出步骤S1中得到的20%以上的视频对抗样本和原始视频的区别,即对抗网络鉴别器能正确分类20%以上的视频对抗样本,转到步骤S3,否则,得到训练好的对抗网络生成器,转到步骤S4;
S3、根据步骤S2中训练后的对抗网络鉴别器的参数,利用梯度下降方法对步骤S1中训练后的对抗网络生成器进行优化,并基于优化后的对抗网络生成器转到步骤S1再次执行;
S4、将需要进行隐私保护的视频输入训练好的对抗网络生成器,得到视频对抗样本;
所述步骤S2的具体步骤如下:
S2.1、将三种不同架构的视频分类模型I3D、C3D和CNN+LSTM在视频数据集Image-Net上训练得到三种不同架构的视频分类系统
Figure DEST_PATH_IMAGE001
作为对抗网络鉴别器
Figure DEST_PATH_IMAGE002
S2.2、将一系列的视频对抗样本
Figure DEST_PATH_IMAGE003
和视频对抗样本对应的原始样本
Figure DEST_PATH_IMAGE004
输入对抗网络鉴别器
Figure 501156DEST_PATH_IMAGE002
,输出结果为
Figure DEST_PATH_IMAGE005
,若训练后的对抗网络鉴别器能分辨出步骤S1中得到的20%以上的视频对抗样本和原始视频的区别,即对抗网络鉴别器能正确分类20%以上的视频对抗样本,转到步骤S3,否则,得到训练好的对抗网络生成器,转到步骤S4,其中,
Figure DEST_PATH_IMAGE006
表示视频对抗样本
Figure DEST_PATH_IMAGE007
输入对抗网络鉴别器
Figure 63636DEST_PATH_IMAGE002
输出的结果,
Figure DEST_PATH_IMAGE008
表示视频对抗样本
Figure 171270DEST_PATH_IMAGE007
输入视频分类系统
Figure DEST_PATH_IMAGE009
输出的结果,
Figure DEST_PATH_IMAGE010
表示视频对抗样本
Figure 113949DEST_PATH_IMAGE007
输入视频分类系统
Figure DEST_PATH_IMAGE011
输出的结果,
Figure DEST_PATH_IMAGE012
表示视频对抗样本
Figure 725059DEST_PATH_IMAGE007
输入视频分类系统
Figure DEST_PATH_IMAGE013
输出的结果。
2.根据权利要求1所述的一种基于生成对抗网络的视频隐私保护方法,其特征在于,所述步骤S1的具体步骤如下:
S1.1、将点对点的图像生成系统作为对抗网络生成器,并从视频数据集Image-net获取原始视频作为原始样本
Figure DEST_PATH_IMAGE014
Figure DEST_PATH_IMAGE015
表示第
Figure DEST_PATH_IMAGE016
个原始样本,
Figure DEST_PATH_IMAGE017
表示原始样本
Figure 51DEST_PATH_IMAGE015
的第
Figure DEST_PATH_IMAGE018
个像素点,其中,
Figure DEST_PATH_IMAGE019
表示第
Figure DEST_PATH_IMAGE020
个原始样本;
S1.2、将原始样本输入对抗网络生成器
Figure DEST_PATH_IMAGE021
,得到输出
Figure DEST_PATH_IMAGE022
,其中,
Figure DEST_PATH_IMAGE023
为对抗网络生成器对每个像素点添加的扰动,即得到一系列的视频对抗样本
Figure DEST_PATH_IMAGE024
,其中,
Figure DEST_PATH_IMAGE025
表示第
Figure 781931DEST_PATH_IMAGE020
个原始样本
Figure 715252DEST_PATH_IMAGE019
对应得到的视频对抗样本,
Figure DEST_PATH_IMAGE026
表示对第
Figure DEST_PATH_IMAGE027
个像素点
Figure DEST_PATH_IMAGE028
添加的扰动。
3.根据权利要求2所述的一种基于生成对抗网络的视频隐私保护方法,其特征在于,所述步骤S3的具体步骤如下:
根据对抗网络生成器
Figure 758033DEST_PATH_IMAGE021
的损失函数
Figure DEST_PATH_IMAGE029
,计算损失函数对
Figure DEST_PATH_IMAGE030
中各参数的梯度
Figure DEST_PATH_IMAGE031
,再沿着梯度下降方向调整参数,对步骤S1中训练后的对抗网络生成器进行优化,即
Figure 892342DEST_PATH_IMAGE030
的参数
Figure DEST_PATH_IMAGE032
,
Figure DEST_PATH_IMAGE033
为较小的常数,并基于优化后的对抗网络生成器转到步骤S1再次执行,其中,
Figure DEST_PATH_IMAGE034
表示对
Figure DEST_PATH_IMAGE035
求期望,
Figure DEST_PATH_IMAGE036
表示对
Figure DEST_PATH_IMAGE037
求期望,
Figure DEST_PATH_IMAGE038
表示第
Figure DEST_PATH_IMAGE039
轮得到的梯度,
Figure DEST_PATH_IMAGE040
表示第
Figure 890079DEST_PATH_IMAGE039
轮得到对抗网络生成器神经网络的参数,是一个多维张量,
Figure 95933DEST_PATH_IMAGE006
表示对抗网络鉴别器的输出,
Figure 212793DEST_PATH_IMAGE030
表示对抗网络生成器的输出。
CN202110409156.5A 2021-04-16 2021-04-16 一种基于生成对抗网络的视频隐私保护方法 Active CN112818407B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110409156.5A CN112818407B (zh) 2021-04-16 2021-04-16 一种基于生成对抗网络的视频隐私保护方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110409156.5A CN112818407B (zh) 2021-04-16 2021-04-16 一种基于生成对抗网络的视频隐私保护方法

Publications (2)

Publication Number Publication Date
CN112818407A CN112818407A (zh) 2021-05-18
CN112818407B true CN112818407B (zh) 2021-06-22

Family

ID=75862487

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110409156.5A Active CN112818407B (zh) 2021-04-16 2021-04-16 一种基于生成对抗网络的视频隐私保护方法

Country Status (1)

Country Link
CN (1) CN112818407B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113033747B (zh) * 2021-05-26 2021-07-27 中国工程物理研究院计算机应用研究所 一种用于人机识别的图形识别码生成方法
CN117291252B (zh) * 2023-11-27 2024-02-20 浙江华创视讯科技有限公司 稳定视频生成模型训练方法、生成方法、设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108769993A (zh) * 2018-05-15 2018-11-06 南京邮电大学 基于生成对抗网络的通信网络异常用户检测方法
CN110334806A (zh) * 2019-05-29 2019-10-15 广东技术师范大学 一种基于生成式对抗网络的对抗样本生成方法
CN111563275A (zh) * 2020-07-14 2020-08-21 中国人民解放军国防科技大学 一种基于生成对抗网络的数据脱敏方法
US20200320341A1 (en) * 2019-04-08 2020-10-08 Shutterstock, Inc. Generating synthetic photo-realistic images
CN112084962A (zh) * 2020-09-11 2020-12-15 贵州大学 基于生成式对抗网络脸部隐私保护方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108769993A (zh) * 2018-05-15 2018-11-06 南京邮电大学 基于生成对抗网络的通信网络异常用户检测方法
US20200320341A1 (en) * 2019-04-08 2020-10-08 Shutterstock, Inc. Generating synthetic photo-realistic images
CN110334806A (zh) * 2019-05-29 2019-10-15 广东技术师范大学 一种基于生成式对抗网络的对抗样本生成方法
CN111563275A (zh) * 2020-07-14 2020-08-21 中国人民解放军国防科技大学 一种基于生成对抗网络的数据脱敏方法
CN112084962A (zh) * 2020-09-11 2020-12-15 贵州大学 基于生成式对抗网络脸部隐私保护方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
"Privacy-Preserving Auto-Driving: A GAN-Based Approach to Protect Vehicular Camera Data";Zuobin Xiong等;《2019 IEEE International Conference on Data Mining (ICDM)》;20191111;第668-677页,正文第1-5节 *
"基于GAN的对抗样本生成研究";孙曦音等;《计算机应用与软件》;20190712;第36卷(第7期);第202-297页,正文第1-3节、图1-3 *
"基于深度学习的人体行为识别方法综述";蔡强等;《计算机科学》;20200415;第47卷(第4期);第202-297页,正文第1-4节 *
"基于生成对抗网络的图片隐私保护算法研究与实现";何昱雯;《中国优秀博士学位论文全文数据库 信息科技辑》;20190915(第2019-09期);第I138-123页,正文第2-3章 *
"基于群体智能进化算法的对抗样本生成研究";刘小垒;《中国优秀博士学位论文全文数据库 信息科技辑》;20200415(第2020-04期);第I138-25页,正文第2,4章 *
"生成式对抗网络GAN的研究进展与展望";王坤峰等;《自动化学报》;20170331;第43卷(第3期);第321-329页,正文第1-4节 *

Also Published As

Publication number Publication date
CN112818407A (zh) 2021-05-18

Similar Documents

Publication Publication Date Title
Zhang et al. Discriminative elastic-net regularized linear regression
Zhang et al. LRR for subspace segmentation via tractable schatten-$ p $ norm minimization and factorization
Meng et al. Sample fusion network: An end-to-end data augmentation network for skeleton-based human action recognition
Sadeghi et al. Learning overcomplete dictionaries based on atom-by-atom updating
Tu et al. Spatial-temporal data augmentation based on LSTM autoencoder network for skeleton-based human action recognition
CN112818407B (zh) 一种基于生成对抗网络的视频隐私保护方法
Lui A least squares regression framework on manifolds and its application to gesture recognition
Siudzińska et al. Memory kernel approach to generalized Pauli channels: Markovian, semi-Markov, and beyond
US20110182497A1 (en) Cascade structure for classifying objects in an image
Zhang et al. Collaborative support vector machine for malware detection
Zang et al. Cross domain mean approximation for unsupervised domain adaptation
Wang et al. U-SPDNet: An SPD manifold learning-based neural network for visual classification
Lu et al. Robust and efficient face recognition via low-rank supported extreme learning machine
Ma et al. Cascade transformer decoder based occluded pedestrian detection with dynamic deformable convolution and Gaussian projection channel attention mechanism
Luo et al. Low-rank tensor function representation for multi-dimensional data recovery
Gong et al. Variational selective autoencoder
CN114358177B (zh) 一种基于多维度特征紧凑决策边界的未知网络流量分类方法及系统
Qu et al. A Fast Sparse NMF Optimization Algorithm for Hyperspectral Unmixing
Zhou et al. Learning salient self-representation for image recognition via orthogonal transformation
Chen et al. Robust feature extraction via ℓ∞-norm based nonnegative tucker decomposition
Wang et al. Deep embedded clustering with asymmetric residual autoencoder
Li et al. Learning with coefficient-based regularized regression on Markov resampling
CN117036862B (zh) 基于高斯混合变分自编码器的图像生成方法
Gao et al. Utilizing relevant RGB-D data to help recognize RGB images in the target domain
Maroulas et al. Bayesian topological learning for classifying the structure of biological networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant