CN111666588A - 一种基于生成对抗网络的情绪差分隐私保护方法 - Google Patents

一种基于生成对抗网络的情绪差分隐私保护方法 Download PDF

Info

Publication number
CN111666588A
CN111666588A CN202010405749.XA CN202010405749A CN111666588A CN 111666588 A CN111666588 A CN 111666588A CN 202010405749 A CN202010405749 A CN 202010405749A CN 111666588 A CN111666588 A CN 111666588A
Authority
CN
China
Prior art keywords
emotion
target
image
sentence
privacy protection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010405749.XA
Other languages
English (en)
Other versions
CN111666588B (zh
Inventor
牛晓光
徐远卓
沈达
谢璐遥
林青海
陈闯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN202010405749.XA priority Critical patent/CN111666588B/zh
Publication of CN111666588A publication Critical patent/CN111666588A/zh
Application granted granted Critical
Publication of CN111666588B publication Critical patent/CN111666588B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • G06F21/6263Protecting personal data, e.g. for financial or medical purposes during internet communication, e.g. revealing personal data from cookies
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Bioethics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于生成对抗网络的情绪差分隐私保护方法,能够对语句和图像进行检索,并改变语句和图像中人物的情绪,从而实现对于情绪主题的隐私保护。该方法能够对情绪隐私保护对象进行类型判别,分为语句保护与图像保护;该方法可对语句保护对象进行分词、情绪识别、构建文本对抗生成网络TextGAN进行语句生成并对情绪再判定,进而实现语句对象的情绪隐私保护;该方法可对图像保护对象进行裁剪、特征提取并降维、表情分类、构建StarGAN进行面部属性编辑并对表情进行再判定,进而生成逼真的面部图像,实现图像主体的情绪隐私保护;该方法具有良好的泛用性和可迁移性,无需依赖额外设备,能够显著地提升隐私保护效果。

Description

一种基于生成对抗网络的情绪差分隐私保护方法
技术领域
本发明涉及差分隐私保护技术领域,具体涉及一种基于生成对抗网络的情绪差分隐私保护方法。
背景技术
近年来,生成对抗网络在目标检测和计算机视觉、自然语言处理、语音识别和语义分析等领域成效卓然,受到了越来越多研究者的关注。深度学习通过神经网络的分层处理,将低层特征组合成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示,其模型性能与训练数据集的规模和质量密切相关,而训练数据集中通常包含较多的敏感信息,攻击者通过一定的攻击手段可以还原出训练数据集,从而使得用户隐私信息泄露.例如:公安机关发布犯罪嫌疑人识别模型,其训练数据集包含全国人口图像信息,当攻击者使用某一攻击手段还原出训练数据集中的图像时,会使个人敏感信息泄露.因此,如何在不泄露个人敏感信息的前提下提升数据可用性,是当前深度学习应用面临的主要问题,将极大影响深度学习未来的发展.
目前,关于敏感信息保护问题的研究的前提主要是基于攻击者对于攻击者对用户背景知识的掌握程度,在此条件下攻击者可以进行身份链接攻击、属性链接攻击、成员链接攻击等隐私攻击,因此,相关学者提出了k匿名、l-多样性以及相关的方法,该类方法通过泛化或抑制用户敏感属性并修改数据集中的原始信息的策略,从而达到保护用户隐私的目的,而深度学习模型主要通过提取并抽象训练数据集中的特征,并不改变数据集的原始信息,因此,与传统方法融合时存在较大难度。前几年,Reza等设计了一个深层的神经网络分布式系统实现了训练数据集的隐私保护,该过程使得参与者可以保留其各自数据的隐私。Matt等人的模型反演攻击可以利用去噪自编码网络还原训练集中的原始信息;Ian等利用生成对抗网络GAN生成与训练数据集相近的数据。为了解决模型反演攻击,Nhat等提出查分隐私自编码方法,该方法利用差分隐私理论来扰乱深度自动编码器中目标函数,在数据重建过程中添加噪声从而使得训练数据集的一保护。NIcolas等提出了一种教师-学生模式的深度网络隐私方法,该方法包含多个由敏感信息数据集训练的教师深度模型以及一个由GAN模型就生成的用于预测的学生模型,学生模型是利用教师模型在投票时结合差分隐私理论选出较优的预测结果,使用者利用学生模型进行预测,教师模型不公布,从而达到保护训练数据集的目的。
本申请发明人在实施本发明的过程中,发现现有技术的方法,至少存在如下技术问题:
现有技术的方法,均无法实现对于语句的隐私保护,
也就是说,现有技术中存在隐私保护效果不佳的技术问题。
发明内容
有鉴于此,本发明提供了一种基于LSTM和随机森林混合模型的电力通信业务可靠性评估预测方法及装置,用以解决或者至少部分解决现有技术中存在的隐私保护效果不佳的技术问题。
为了解决上述技术问题,本发明第一方面提供了一种基于生成对抗网络的情绪差分隐私保护方法,包括:
S1:接收隐私保护数据;
S2:识别隐私保护数据的类型并进行向量化,当隐私保护数据的类型为文本时执行步骤S3,当隐私保护数据的类型为图片时执行步骤S4;
S3:利用预设分词算法对文字类型的数据进行分词后,通过情绪分类器进行情绪类型识别,然后构建文本对抗生成网络,生成目标语句并进行隐私保护;
S4:通过预设人脸检测算法对图片类型的数据进行检测,获得面部图像,利用人脸特征点检测算法确定其面部情绪,通过表情分类器进行情绪识别,然后构建图像对抗生成网络,生成目标人脸图片并进行隐私保护。
在一种实施方式中,S1中识别隐私保护数据的类型并进行向量化,包括:
S1.1:根据接收的隐私保护数据的格式识别为文本或者图片类型;
S1.2:根据隐私保护数据生成向量序列,并根据识别出的类型附加类别向量,其中,类别向量用以标识数据的类型,当类型为文本时,附加的类别向量为[-1,…,-1]T,当类型为图片时,附加的类别向量为[0,…,0]T
在一种实施方式中,文本对抗生成网络包括LSTM生成器部分、CNN判别器部分和情绪判别器,S3中具体包括:
S3.1:采用最短路径分词算法匹配出隐私保护数据中包含的词语,构成词图,然后基于词图寻找从起始点到终点的最短路径作为分词组合结果,得到分词后的语句;
S2.2:将分词后的语句根据词序进行向量化,采用情绪分类器进行情绪类型识别,获得第一情绪类别,并将第一情绪类别作为情绪标签与向量化后的语句向量进行融合;
S2.3:根据融合后的向量获取向量化后的语句向量,通过LSTM生成器部分根据向量化后的语句生成目标语句,并通过CNN判别器部分判别生成的目标语句是否为满足要求的真实语句,当判定目标语句为满足要求的真实语句时,通过情绪判别器判定目标语句的第二情绪类别,当第一情绪类别与第二情绪类别不一致时,将LSTM生成器部分生成的新语句作为隐私保护后的语句。
在一种实施方式中,S2.3中LSTM生成器部分采用长短记忆网络LSTM,并基于随机噪声指导目标语句的生成,生成过程具体包括:
LSTM生成器部分将随机噪声向量R1映射成一个目标语句
Figure BDA0002491200200000031
生成概率为:
Figure BDA0002491200200000032
其中,p(w1|R1)=arg max(Vh1),
Figure BDA0002491200200000033
Figure BDA0002491200200000034
为随机噪声向量R1指导下的条件输出,p(wt|w<t,R1)=arg max(Vht),句子
Figure BDA0002491200200000035
wt表示句子的第t个单词,每一个单词wt都映射为一个k维向量xt=We[wt],其中
Figure BDA0002491200200000036
Figure BDA0002491200200000037
是训练过程中逐渐学习的词嵌入矩阵,V是词典大小,
所有词语则按顺序使用LSTM计算得出,直至遇到结束标志符,计算方法如下:
p(wt|w<t,R1)=arg max(Vht)
ht=LSTM(yt-1,ht-1,R1)
yt-1=We[wt-1],ht-1为循环迭代得到的结果,直至最后一个词语生成完毕,则生成一个目标语句。
在一种实施方式中,S2.3中通过CNN判别器部分判别生成的目标语句是否为满足要求的真实语句,包括:
对生成的目标语句进行卷积和池化操作进行特征提取;
同时对原始语句采用同样的方式进行卷积和池化操作进行特征提取,原始语句为接收的隐私保护数据中类型为文本类型的语句;
采用采用L1范数作为损失函数进行判定,判定方式如下:
d=||β-β1||1≤ε
其中,β表示从原始语句中提取出的特征,β1表示从目标语句中提取出的特征,ε为损失阈值,当满足上述判定条件时,对LSTM生成器结果判定为真,即目标语句为满足要求的真实语句;否则返回LSTM生成器部分,反向优化后重新生成。
在一种实施方式中,S2.3中通过情绪判别器判定目标语句的第二情绪类别,包括:
采用使用信息实体增强语言表示框架ERNIE作为情绪判别器对目标语句进行类型识别,并得到第二情绪类别。
在一种实施方式中,图像对抗生成网络包括生成部分、判别部分和情绪分类器,S4具体包括:
S4.1:使用预设人脸检测算法对图片进行人脸检测,提取出图像中的人脸位置和大小,并截取人脸,将人脸从图像背景进行分离。
S4.2:采用ESR算法定位人脸的关键点部位;
S4.3:利用Gabor滤波器进行人脸特征提取;
S4.4:利用PCA对特征进行降维处理;
S4.5:使用SVM作为表情分类器进行情绪识别;
S4.6:通过生成部分生成一个目标人脸图像,判别部分判断生成的目标人脸图像是否满足真实图片的要求,当满足时,通过情绪分类器对目标人脸图像进行类型判断,得到第四情绪类别,与通过表情分类器进行情绪识别得到的第三情绪类别进行比较,当不一致时,将生成部分生成的目标人脸图像为隐私保护后的图像。
在一种实施方式中,S4.6中,生成部分包括生成器G,生成部分生成一个目标人脸图像包括:
将原始人脸图像X和目标向量标签C输入生成器G,输出为y:
G(X,C)→y
原始人脸图像为采用预设人脸检测算法对图片类型的数据进行检测获得的面部图像,目标向量标签为通过表情分类器进行情绪识别得到的第三情绪类别;
将在目标标签向量的指导下生成的图像在原始标签向量下进行人脸重构,通过最小化重构对抗损失,训练生成的目标图像尽可能与真实图像一样,对生成器G使用循环一致性损失函数,如下:
Lrec=Ex,c,c'[||x-G(G(x,c),c')||1]
其中,生成器G以生成的图像G(x,c)以及原始输入图像领域标签c'为输入,重构出与原始图像接近的目标图像,选择L范数作为重构损失函数。
在一种实施方式中,S4.6中,判别部分包括真假判别器,真假判别器采用的对抗损失函数为:
Ladv=Ex[logDsrc(x)]+Ex,c[log(1-Dsrc(G(x,c)))]
其中,Dsrc(x)为输入图像x经过判别器D之后得到的可能性分布,Dsrc(G(x,c))表示生成器G生成的图像经过判别器D后的可能性分布,生成器G的作用是使真假判别器采用的抗损失函数尽可能的小,而判别器D则尽可能使其最大化。
在一种实施方式中,S4.6中,通过情绪分类器对目标人脸图像进行类型判断,得到第四情绪类别,包括:
在情绪分类器上添加一个辅助分类器,并采用目标域分类损失函数进行优化,将目标域分类损失函数分解为两部分:一个真实图像的分布分类损失用于约束目标分类器,一个假图像的分布分类损失用于约束生成器G,表达式如下所示:
Figure BDA0002491200200000051
Dcls(c'|x)代表目标分类器计算出来的领域标签的可能性分布,通过将
Figure BDA0002491200200000052
这个式子最小化,目标分类器将真实图像x正确分类到与其相关分布c',假图像的分类分布的损失函数定义如下:
Figure BDA0002491200200000053
即生成器G使
Figure BDA0002491200200000054
这个式子最小化,使得生成的图像能够被目标分类器判别为目标领域c。
本申请实施例中的上述一个或多个技术方案,至少具有如下一种或多种技术效果:
本发明的提供的一种基于生成对抗网络GAN的情绪差分隐私保护方法,能够对语句和图像进行检索,并改变语句和图像中人物的情绪,从而实现对于情绪主题的隐私保护。该方法能够对情绪隐私保护对象进行类型判别,分为语句保护与图像保护;该方法可对语句保护对象进行分词、情绪识别、构建文本对抗生成网络TextGAN进行语句生成并对情绪再判定,进而实现语句对象的情绪隐私保护;该方法可对图像保护对象进行裁剪、特征提取并降维、表情分类、构建StarGAN进行面部属性编辑并对表情进行再判定,进而生成逼真的面部图像,实现图像主体的情绪隐私保护;该方法具有良好的泛用性和可迁移性,无需依赖额外设备,能够显著地提升隐私保护效果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明提供的一种基于生成对抗网络的情绪差分隐私保护方法的流程图;
图2为本发明情绪标签向量与语句向量融合流程图;
图3为本发明对于语句对象施加隐私保护的基于TextGAN的网络流程图;
图4为本发明对于图像对象施加隐私保护的基于StarGAN的网络流程图。
具体实施方式
本发明目的在于提供一种基于生成对抗网络的情绪差分隐私保护方法,从而改善隐私保护效果。
本发明的总体发明构思如下:
提出并实现了一种基于GAN的情绪差分隐私保护方法,能够对语句和图像进行检索,并改变语句和图像中人物的情绪,从而实现对于情绪主题的隐私保护。该方法能够对情绪隐私保护对象进行类型判别,分为语句保护与图像保护;该方法可对语句保护对象进行分词、情绪识别、构建TextGAN进行语句生成并对情绪再判定,进而实现语句对象的情绪隐私保护;该方法可对图像保护对象进行裁剪、特征提取并降维、表情分类、构建StarGAN进行面部属性编辑并对表情进行再判定,进而生成逼真的面部图像,实现图像主体的情绪隐私保护。
该方法具有良好的泛用性和可迁移性,无需依赖额外设备,能够显著地提升隐私保护效果。
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一
本实施例提供了一种基于生成对抗网络的情绪差分隐私保护方法,该方法包括:
S1:接收隐私保护数据;
S2:识别隐私保护数据的类型并进行向量化,当隐私保护数据的类型为文本时执行步骤S3,当隐私保护数据的类型为图片时执行步骤S4;
S3:利用预设分词算法对文字类型的数据进行分词后,通过情绪分类器进行情绪类型识别,然后构建文本对抗生成网络,生成目标语句并进行隐私保护;
S4:通过预设人脸检测算法对图片类型的数据进行检测,获得面部图像,利用人脸特征点检测算法确定其面部情绪,通过表情分类器进行情绪识别,然后构建图像对抗生成网络,生成目标人脸图片并进行隐私保护。
具体来说,本发明首先对当前的隐私保护对象进行类型识别,分为文本和图片,然后分别针对文本类型的数据和图片类型的数据分别进行处理,从而达到隐私保护的目的。
S3是针对文本类型的数据进行隐私保护,采用预设分词算法对文字类型的数据进行分词,从而划分语法成分,并可以连接文字情绪语料库,通过情绪分类器进行情绪类型识别。为了方便处理,可以将通过情绪分类器进行情绪类型识别出的情绪标签(类别)作为额外向量,并将文字语句进行序列化,利用文本对抗生成网络TextGAN生成新语句,控制判别器确保其隐私信息已覆盖更新。
在一种实施方式中,S1中识别隐私保护数据的类型并进行向量化,包括:
S1.1:根据接收的隐私保护数据的格式识别为文本或者图片类型;
S1.2:根据隐私保护数据生成向量序列,并根据识别出的类型附加类别向量,其中,类别向量用以标识数据的类型,当类型为文本时,附加的类别向量为[-1,…,-1]T,当类型为图片时,附加的类别向量为[0,…,0]T
在具体的实施过程中,可以根据输入的隐私保护数据的格式判断其为文字、或图片格式,并将其向量化,向量序列前附加类别向量,其中文字附加为[-1,…,-1]T,图片附加为[0,…,0]T,附加向量维数根据输入信息向量化维数自适应。
在一种实施方式中,文本对抗生成网络包括LSTM生成器部分、CNN判别器部分和情绪判别器,S3中具体包括:
S3.1:采用最短路径分词算法匹配出隐私保护数据中包含的词语,构成词图,然后基于词图寻找从起始点到终点的最短路径作为分词组合结果,得到分词后的语句;
S2.2:将分词后的语句根据词序进行向量化,采用情绪分类器进行情绪类型识别,获得第一情绪类别,并将第一情绪类别作为情绪标签与向量化后的语句向量进行融合;
S2.3:根据融合后的向量获取向量化后的语句向量,通过LSTM生成器部分根据向量化后的语句生成目标语句,并通过CNN判别器部分判别生成的目标语句是否为满足要求的真实语句,当判定目标语句为满足要求的真实语句时,通过情绪判别器判定目标语句的第二情绪类别,当第一情绪类别与第二情绪类别不一致时,将LSTM生成器部分生成的新语句作为隐私保护后的语句。
具体来说,最短路径分词算法为Dijkstra算法,该算法适用于所有带权有向图,求解源节点到其他所有节点的最短路径,并可以求得全局最优解。Dijkstra本质为贪心算法,在每一步走到当前路径最短的节点,递推地更新原节点到其他节点的距离。
作为优选,还可以采用改进后的最短路径算法,N-最短路径分词是对Dijkstra算法的扩展,在每一步保存最短的N条路径,并记录这些路径上当前节点的前驱,在最后求得最优解时回溯得到最短路径。
通过最短路径分词算法,可以得到最佳分词结果
在具体的实施过程中,将分词后的语句根据词序向量化为[a1,a2,…,an],对非重要词(主语、介词等)进行选择性丢弃,根据隐私保护强度将语句向量维度归一化为n维,语句每一成分单独占有一维。统一维度后,采用ERNIE对分词后的语句进行情绪阅读理解,输出情绪标签E,并添加至语句末端,情绪标签与向量化语句融合为新向量。
请见图2,为本发明情绪标签向量与语句向量融合流程图,对被判定为语句类型的保护对象进行情绪判断,并将标签与向量化后的语句主体进行融合。
在一种实施方式中,S2.3中LSTM生成器部分采用长短记忆网络LSTM,并基于随机噪声指导目标语句的生成,生成过程具体包括:
LSTM生成器部分将随机噪声向量R1映射成一个目标语句
Figure BDA0002491200200000091
生成概率为:
Figure BDA0002491200200000092
其中,p(w1|R1)=arg max(Vh1),
Figure BDA0002491200200000093
Figure BDA0002491200200000094
为随机噪声向量R1指导下的条件输出,p(wt|w<t,R1)=arg max(Vht),句子
Figure BDA0002491200200000095
wt表示句子的第t个单词,每一个单词wt都映射为一个k维向量xt=We[wt],其中
Figure BDA0002491200200000096
Figure BDA0002491200200000097
是训练过程中逐渐学习的词嵌入矩阵,V是词典大小,
所有词语则按顺序使用LSTM计算得出,直至遇到结束标志符,计算方法如下:
p(wt|w<t,R1)=arg max(Vht)
ht=LSTM(yt-1,ht-1,R1)
yt-1=We[wt-1],ht-1为循环迭代得到的结果,直至最后一个词语生成完毕,则生成一个目标语句。
具体来说,LSTM生成器部分的生成器网络编码器采用LSTM,将融合前的语句向量记为S1,分类标签保持不变,添加同尺度随机噪声向量R1,R1标签部分置为0。当最后一个词语生成完毕时,则随机噪声R1指导下
Figure BDA0002491200200000098
的生成部分结束。
该LSTM生成器生成语句结果输出将作为两个判别器的输入以及最后的结果输出的基础(如图3所示)。
在一种实施方式中,S2.3中通过CNN判别器部分判别生成的目标语句是否为满足要求的真实语句,包括:
对生成的目标语句进行卷积和池化操作进行特征提取;
同时对原始语句采用同样的方式进行卷积和池化操作进行特征提取,原始语句为接收的隐私保护数据中类型为文本类型的语句;
采用采用L1范数作为损失函数进行判定,判定方式如下:
d=||β-β1||1≤ε
其中,β表示从原始语句中提取出的特征,β1表示从目标语句中提取出的特征,ε为损失阈值,当满足上述判定条件时,对LSTM生成器结果判定为真,即目标语句为满足要求的真实语句;否则返回LSTM生成器部分,反向优化后重新生成。
具体来说,LSTM生成器部分的结果将传入CNN判别器部分,以判断其是否为满足要求的真实语句。
在具体的实施过程中,因为一个长度为T(长度不足则补齐)的句子可以表示成一个矩阵X∈Rk×T,它的每一列由句子中的单词的词向量组成,因此通过对句子进行卷积和池化操作来完成特征提取。设计卷积核WC∈Rk×T,对句子中h大小窗口内的连续词语做卷积:
c=f(X*WC+b)
其中f(·)是一个非线性激活函数,*是卷积操作,最终可以得到一个特征向量C,然后对特征向量做最大池化操作:
Figure BDA0002491200200000101
Figure BDA0002491200200000102
即作为这次操作的最终特征。
通过最大池化可获取最重要的特征(对应重要的词语位置),过滤掉信息量少的词语。构造多个卷积核可提取h-gram的特征,根据隐私保护对象主体的具体情况,可设置m种窗口大小,采用d个卷积核,最终可以得到一个md维的特征β1。对该特征应用一个softmax层映射为输出D(X)∈[0,1],表示语句X来自真实数据的概率。
同时该CNN判别器接收来自原始语句维度归一化之后的结果,并采用同样的卷积与池化操作得到同一规格的md维特征向量β,为确保LSTM生成语句与原始语句足够相似,采用L1范数作为损失函数进行判定。如下:
d=||β-β1||1≤ε
其中ε为损失阈值,可根据分词结果给定,且ε∝n(n为词数)。若满足上述限制条件,对LSTM生成器结果判定为真,并将其继续作为情绪判别器的输入;否则返回LSTM反向优化后重新生成。
在一种实施方式中,S2.3中通过情绪判别器判定目标语句的第二情绪类别,包括:
采用使用信息实体增强语言表示框架ERNIE作为情绪判别器对目标语句进行类型识别,并得到第二情绪类别。
具体来说,情绪判别器用于对CNN判别器部分判别为真的来自LSTM生成器生成语句进行判别,为了确保模型可实现差分隐私,在保持语句真实性的前提下(已通过CNN判别器控制实现),采用ERNIE对生成语句进行二次判别,得到新的情绪标签E1(即第二情绪类别),目标为:
E≠E1
并输出而分类结果,通过该操作,该情绪判别器可确保来自LSTM的生成结果与原始语句不同,从而完成情绪的差分隐私保护。
下面介绍TextGAN的训练过程,TextGAN和原始GAN有所不同,将采用特征匹配的方法进行训练,迭代优化过程包含以下两个步骤:
Figure BDA0002491200200000111
Figure BDA0002491200200000112
其中∑s和∑r分别表示生成句子特征向量fs真实句子特征向量fr的协方差矩阵,μs和分别表示fs和fr的平均值,∑s、μs和μr可根据具体情景来设置,通过设置∑s=∑r=I,LSTM生成器G的优化则变成了特征匹配。D表示CNN判别器的损失函数,损失
Figure BDA0002491200200000114
是两个多元正态分布N(μr,∑r)和N(μs,∑s)的JS-散度。
LSTM生成器G包含离散变量,直接应用梯度估计的方法无法使用。采用基于得分函数的强化学习算法,利用soft-argmax函数来逼近下式:
yt-1=Wesoftmax(Vht-1⊙L)
该处的L是LSTM生成器的损失,当
Figure BDA0002491200200000113
逼近越接近上式yt-1
对于LSTM生成器,预训练一个标准自编码LSTM模型来初始化生成器的LSTM参数;对于CNN判别器,使用交叉训练策略,利用原始的句子和该句子中随机交换两个词的位置后得到的新句子进行判别训练(在初始化的过程中,运用逐点分类损失函数对CNN判别器进行优化)。交替地对生成器和判别器进行训练,每训练5次LSTM生成器就训练1次CNN判别器,直至其收敛则结束训练。
通过上述训练策略,可实现对语句对象的情绪差分隐私保护。
在一种实施方式中,图像对抗生成网络包括生成部分、判别部分和情绪分类器,S4具体包括:
S4.1:使用预设人脸检测算法对图片进行人脸检测,提取出图像中的人脸位置和大小,并截取人脸,将人脸从图像背景进行分离。
S4.2:采用ESR算法定位人脸的关键点部位;
S4.3:利用Gabor滤波器进行人脸特征提取;
S4.4:利用PCA对特征进行降维处理;
S4.5:使用SVM作为表情分类器进行情绪识别;
S4.6:通过生成部分生成一个目标人脸图像,判别部分判断生成的目标人脸图像是否满足真实图片的要求,当满足时,通过情绪分类器对目标人脸图像进行类型判断,得到第四情绪类别,与通过表情分类器进行情绪识别得到的第三情绪类别进行比较,当不一致时,将生成部分生成的目标人脸图像为隐私保护后的图像。
具体实施过程中,S4.1中可以使用OpenCV中现有的Haar分类器对图片进行人脸检测,提取出图像中的人脸位置和大小,并截取人脸,将人脸从图像背景中分离出来,将人脸的位置一坐标返回,同时返回人脸的大小和此时的姿态。对分离所得人脸进行集合运算,得到人脸位置的端正的人脸图像。
S4.2是实现人脸特征点定位,对S4.1所得的人脸图像使用ESR算法,精确定位人脸的关键点部位,实现方法如下:
(1)两层级联回归模型,第一层(R1,R2,R3),第二层Rt=(r1,r2,r3).
(2)rk(k=1,2,3)是由2个回归组成,F为特征个数,通过阈值可以划分为2F个区域,每个区域与一个回归输出δSb相关。
(3)通过优化目标函数
Figure BDA0002491200200000121
求解并加入收缩参数后有:
Figure BDA0002491200200000131
(4)训练完成后,得到T*K*2F个回归器:δStkb,t=1,2,…,T,k=1,2,…,k,b=1,2,…,2F
通过上述回归模型,可以实现人脸图像的关键点定位。
S4.3是Gabor人脸特征提取,
使用Gabor滤波器进行人脸特征提取,Gabor滤波器公式化定义如下:
复数表达:
Figure BDA0002491200200000132
实数部分:
Figure BDA0002491200200000133
虚数部分:
Figure BDA0002491200200000134
其中,λ为正弦函数的波长;θ为Gabor核函数的方向;φ为相位偏移;γ为图像空间的宽高比;σ的值随着Gabor滤波器带宽值b(预给定)的变化而变化,且为正实数,。b的值越小,式子的标准差越大,Gabor形状就会越大。
通过40个滤波器队图像进行滤波,特征向量选取图像中29个特征点,一共40×29,1160维,选择不同的Gabor核函数生成的图,并将特征点区域的像素值提取出来。
S4.4:特征降维
经上述步骤提取特征之后,利用PCA对特征进行降维处理。
输入特征样本集D,低维空间维数k。将样本集中心化,每一列的特征值减去当前列的均值,且协方差矩阵的特征值和特征向量,选取前k个特征值,对应的特征向量,对中心化数据进行运算:对应的特征向量×中心化数据,输出降维后样本集。一般根据前k个特征值和与所有特征值总和的比值(累计贡献率)选取k值。
S4.5:使用SVM作为表情分类器进行情绪识别,即表情分类,在提取到人脸图像的特征向量并进行降维之后,接下来使用SVM进行表情分类。实现方法如下:
(1)准备训练数据集,将数据处理成SVM的标准格式
(2)训练model,调整好参数,载入数据进行训练
(3)利用训练好的model对样本数据进行预测
(4)分析预测结果与标准结果对比
(5)利用SVM分类器对给定图片的表情分类,根据表情总数构建标签向量,添加为额外维度向量。即得该人脸图像的融合向量。
请见图4,为本发明对被判断为图像的主体施加基于StarGAN的情绪差分隐私保护的网络流程图。
在一种实施方式中,S4.6中,生成部分包括生成器G,生成部分生成一个目标人脸图像包括:
将原始人脸图像X和目标向量标签C输入生成器G,输出为y:
G(X,C)→y
原始人脸图像为采用预设人脸检测算法对图片类型的数据进行检测获得的面部图像,目标向量标签为通过表情分类器进行情绪识别得到的第三情绪类别;
将在目标标签向量的指导下生成的图像在原始标签向量下进行人脸重构,通过最小化重构对抗损失,训练生成的目标图像尽可能与真实图像一样,对生成器G使用循环一致性损失函数,如下:
Lrec=Ex,c,c'[||x-G(G(x,c),c')||1]
其中,生成器G以生成的图像G(x,c)以及原始输入图像领域标签c'为输入,重构出与原始图像接近的目标图像,选择L范数作为重构损失函数。
具体来说,生成部分包含生成器G(两个生成器G使用同一个生成器),判别部分包含重建损失判别器,情绪判别器,真假判别器。
1、多领域图像转换部分(生成器G)
生成器G分为编码和解码部分,均采用堆叠CNN架构,为确保生成器G能够多领域映射,将人脸图像X和目标向量标签C输入生成器,输出为y,即:
G(X,C)→y
该操作使原始人脸图像在目标标签的指导下进行新的人脸图像生成。
2、重建判别部分
将生成器G在目标标签向量的指导下生成的图像在原始标签向量下进行人脸重构,通过最小化重构对抗损失,G训练生成的图像尽可能与真实图像一样,对G使用循环一致性损失函数(cycleconsistencyloss),如下:
Lrec=Ex,c,c'[||x-G(G(x,c),c')||1]
其中:G以生成图像G(x,c)以及原始输入图像领域标签c'为输入,努力重构出原始图像x。选择L范数作为重构损失函数。通过该重构部分,可保证生成器条件生成是可逆的,从而使得标签向量指导生成器将人脸图像向目标域转换。
在一种实施方式中,S4.6中,判别部分包括真假判别器,真假判别器采用的对抗损失函数为:
Ladv=Ex[logDsrc(x)]+Ex,c[log(1-Dsrc(G(x,c)))]
其中,Dsrc(x)为输入图像x经过判别器D之后得到的可能性分布,Dsrc(G(x,c))表示生成器G生成的图像经过判别器D后的可能性分布,生成器G的作用是使真假判别器采用的抗损失函数尽可能的小,而判别器D则尽可能使其最大化。
具体来说,当重构部分训练完毕后,可指导生成器2G以生成面部图像和目标标签向量为输入生成目标人脸图像S。S经过一个真假判别器,判断其生成图像是否为真实图像,真假判别器采用Ladv损失函数。
根据输入图像x和目标领域标签c,由G生成输出图像:G(x,c),同时D区分出真实图像和生成图像。将:Dsrc(x)作为输入图像x经过D之后得到的可能性分布。生成器G使这个式子尽可能的小,而D则尽可能使其最大化。
在一种实施方式中,S4.6中,通过情绪分类器对目标人脸图像进行类型判断,得到第四情绪类别,包括:
在情绪分类器上添加一个辅助分类器,并采用目标域分类损失函数进行优化,将目标域分类损失函数分解为两部分:一个真实图像的分布分类损失用于约束目标分类器,一个假图像的分布分类损失用于约束生成器G,表达式如下所示:
Figure BDA0002491200200000151
Dcls(c'|x)代表目标分类器计算出来的领域标签的可能性分布,通过将
Figure BDA0002491200200000152
这个式子最小化,目标分类器将真实图像x正确分类到与其相关分布c',假图像的分类分布的损失函数定义如下:
Figure BDA0002491200200000161
即生成器G使
Figure BDA0002491200200000162
这个式子最小化,使得生成的图像能够被目标分类器判别为目标领域c。
具体来说,还包括目标分类判别部分,当真假判别其判定生成图像为真,则进行目标分类判别,确保原始人脸图像已转换至目标域。采用以下策略进行:
对于输入图像x和目标分布标签c,目标分类器的目标是将x转换为输出图像y后能够被正确分类为目标分布c。为了实现这一目标,D之上添加一个辅助分类器,并在优化生成器G和目标分类器时采用目标域分类损失函数。将这个式子分解为两部分:一个真实图像的分布分类损失用于约束目标费雷其,一个假图像的分布分类损失用于约束G。Dcls(c'|x)代表目标分类器计算出来的领域标签的可能性分布。一方面,通过将这个式子最小化,目标分类器将真实图像x正确分类到与其相关分布c'。另一方面,假图像的分类分布的损失函数定义如下:
Figure BDA0002491200200000163
即G使这个式子最小化,使得生成的图像能够被目标分类器判别为目标领域c。
接下来介绍StarGAN的训练策略:
将上述StarGAN部分所有损失函数做线性运算,得总体损失函数表示,最终生成器和判别器的损失函数表示如下:
Figure BDA0002491200200000164
Figure BDA0002491200200000165
其中:λcls和λrec是控制分类误差和重构误差相对于对抗误差的相对权重的超参数。
设置为:
λcls=1,λrec=10
损失函数改进:
为了GAN训练过程稳定,生成高质量的图像,可采用自定义梯度惩罚来代替对抗误差损失:
Figure BDA0002491200200000171
其中:
Figure BDA0002491200200000172
表示真实和生成图像之间均匀采样的直线,设置:λgp=10。
在公开人脸数据集(如CelebA,RaFD)上进行训练,即完成StarGAN训练。
此外,引入向量掩码m,使StarGAN模型能够忽略不确定的标签,专注于特定数据集提供的明确的已知标签。在StarGAN中使用n维的one-hot向量来代表m,n表示数据集的数量。除此之外,将标签的同一版本定义为一个数组:
Figure BDA0002491200200000173
其中:[·]表示串联,其中c表示第i个数据集的标签,已知标签c的向量能用二值标签表示二值属性或者用one-hot的形式表示多类属性。对于剩下的n-1个未i知标签置为0。
利用训练好的StarGAN进行图片类型数据进行保护的方法如下:
1、首先利用训练好的StarGAN进行面部属性编辑,
利用训练好的StarGAN对裁剪完毕的面部图像进行属性编辑,对生成的一系列面部图像再次采用S4.5中的表情分类器进行判别,使得情绪标签向量与原始人脸图像不同。
2、将编辑完成的面部图片在原始图片上进行覆盖,记原始图像为S,编辑完的图像为
Figure BDA0002491200200000174
裁剪部分赋予掩码H=1,进行如下变换:
Figure BDA0002491200200000175
面部图片可与原始图片完成融合,情绪隐私保护完成。
总体来说,本发明的创新点和有益效果如下:
1、传统的隐私保护技术主要针对单一类型的对象进行保护,采用基于解算或者加密的方法,这些方法不仅难度大、效果不佳,并且无法拓展迁移至其他类型的对象。本发明采用基于GAN的情绪差分隐私保护技术,利用生成对抗网络生成与隐私保护对象同一类型的逼真样本,并利用情绪分类器进行判别,进而达到对于对象的情绪隐私保护。这是一种全新的基于深度学习的隐私保护技术,训练简单,实用性极强。
2、本发明针对不同的隐私保护对象类型制定了不同的保护策略,不仅可以对语句对象实现有效的保护,还可以对图像中的对象实现隐私保护,对环境并无严格要求,且生成样本效果极其逼真,能够更有效地实现情绪隐私的抹除再生。
3、本发明可以根据输入样本的数据类型自动进行隐私信息的保护,无需任何手动标识,并且一次训练完成后无需反复训练,节约了大量时间,在保证隐私保护效果的前提下节约了大量时间。
4、本发明提出的方法简单易实现,无需依赖任何额外的设备,具有很强的健壮性和可迁移性。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明实施例进行各种改动和变型而不脱离本发明实施例的精神和范围。这样,倘若本发明实施例的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (10)

1.一种基于生成对抗网络的情绪差分隐私保护方法,其特征在于,包括:
S1:接收隐私保护数据;
S2:识别隐私保护数据的类型并进行向量化,当隐私保护数据的类型为文本时执行步骤S3,当隐私保护数据的类型为图片时执行步骤S4;
S3:利用预设分词算法对文字类型的数据进行分词后,通过情绪分类器进行情绪类型识别,然后构建文本对抗生成网络,生成目标语句并进行隐私保护;
S4:通过预设人脸检测算法对图片类型的数据进行检测,获得面部图像,利用人脸特征点检测算法确定其面部情绪,通过表情分类器进行情绪识别,然后构建图像对抗生成网络,生成目标人脸图片并进行隐私保护。
2.如权利要求1所述的方法,其特征在于,S1中识别隐私保护数据的类型并进行向量化,包括:
S1.1:根据接收的隐私保护数据的格式识别为文本或者图片类型;
S1.2:根据隐私保护数据生成向量序列,并根据识别出的类型附加类别向量,其中,类别向量用以标识数据的类型,当类型为文本时,附加的类别向量为[-1,…,-1]T,当类型为图片时,附加的类别向量为[0,…,0]T
3.如权利要求1所述的方法,其特征在于,文本对抗生成网络包括LSTM生成器部分、CNN判别器部分和情绪判别器,S3中具体包括:
S3.1:采用最短路径分词算法匹配出隐私保护数据中包含的词语,构成词图,然后基于词图寻找从起始点到终点的最短路径作为分词组合结果,得到分词后的语句;
S2.2:将分词后的语句根据词序进行向量化,采用情绪分类器进行情绪类型识别,获得第一情绪类别,并将第一情绪类别作为情绪标签与向量化后的语句向量进行融合;
S2.3:根据融合后的向量获取向量化后的语句向量,通过LSTM生成器部分根据向量化后的语句生成目标语句,并通过CNN判别器部分判别生成的目标语句是否为满足要求的真实语句,当判定目标语句为满足要求的真实语句时,通过情绪判别器判定目标语句的第二情绪类别,当第一情绪类别与第二情绪类别不一致时,将LSTM生成器部分生成的新语句作为隐私保护后的语句。
4.如权利要求3所述的方法,其特征在于,S2.3中LSTM生成器部分采用长短记忆网络LSTM,并基于随机噪声指导目标语句的生成,生成过程具体包括:
LSTM生成器部分将随机噪声向量R1映射成一个目标语句
Figure FDA0002491200190000027
生成概率为:
Figure FDA0002491200190000021
其中,p(w1|R1)=arg max(Vh1),
Figure FDA0002491200190000022
Figure FDA0002491200190000023
为随机噪声向量R1指导下的条件输出,p(wt|w<t,R1)=arg max(Vht),句子
Figure FDA0002491200190000024
wt表示句子的第t个单词,每一个单词wt都映射为一个k维向量xt=We[wt],其中
Figure FDA0002491200190000025
Figure FDA0002491200190000026
是训练过程中逐渐学习的词嵌入矩阵,V是词典大小,
所有词语则按顺序使用LSTM计算得出,直至遇到结束标志符,计算方法如下:
p(wt|w<t,R1)=arg max(Vht)
ht=LSTM(yt-1,ht-1,R1)
yt-1=We[wt-1],ht-1为循环迭代得到的结果,直至最后一个词语生成完毕,则生成一个目标语句。
5.如权利要求3所述的方法,其特征在于,S2.3中通过CNN判别器部分判别生成的目标语句是否为满足要求的真实语句,包括:
对生成的目标语句进行卷积和池化操作进行特征提取;
同时对原始语句采用同样的方式进行卷积和池化操作进行特征提取,原始语句为接收的隐私保护数据中类型为文本类型的语句;
采用采用L1范数作为损失函数进行判定,判定方式如下:
d=||β-β1||1≤ε
其中,β表示从原始语句中提取出的特征,β1表示从目标语句中提取出的特征,ε为损失阈值,当满足上述判定条件时,对LSTM生成器结果判定为真,即目标语句为满足要求的真实语句;否则返回LSTM生成器部分,反向优化后重新生成。
6.如权利要求1所述的方法,其特征在于,S2.3中通过情绪判别器判定目标语句的第二情绪类别,包括:
采用使用信息实体增强语言表示框架ERNIE作为情绪判别器对目标语句进行类型识别,并得到第二情绪类别。
7.如权利要求1所述的方法,其特征在于,图像对抗生成网络包括生成部分、判别部分和情绪分类器,S4具体包括:
S4.1:使用预设人脸检测算法对图片进行人脸检测,提取出图像中的人脸位置和大小,并截取人脸,将人脸从图像背景进行分离;
S4.2:采用ESR算法定位人脸的关键点部位;
S4.3:利用Gabor滤波器进行人脸特征提取;
S4.4:利用PCA对特征进行降维处理;
S4.5:使用SVM作为表情分类器进行情绪识别;
S4.6:通过生成部分生成一个目标人脸图像,判别部分判断生成的目标人脸图像是否满足真实图片的要求,当满足时,通过情绪分类器对目标人脸图像进行类型判断,得到第四情绪类别,与通过表情分类器进行情绪识别得到的第三情绪类别进行比较,当不一致时,将生成部分生成的目标人脸图像为隐私保护后的图像。
8.如权利要求1所述的方法,其特征在于,S4.6中,生成部分包括生成器G,生成部分生成一个目标人脸图像包括:
将原始人脸图像X和目标向量标签C输入生成器G,输出为y:
G(X,C)→y
原始人脸图像为采用预设人脸检测算法对图片类型的数据进行检测获得的面部图像,目标向量标签为通过表情分类器进行情绪识别得到的第三情绪类别;
将在目标标签向量的指导下生成的图像在原始标签向量下进行人脸重构,通过最小化重构对抗损失,训练生成的目标图像尽可能与真实图像一样,对生成器G使用循环一致性损失函数,如下:
Lrec=Ex,c,c′[||x-G(G(x,c),c′)||1]
其中,生成器G以生成的图像G(x,c)以及原始输入图像领域标签c’为输入,重构出与原始图像接近的目标图像,选择L范数作为重构损失函数。
9.如权利要求1所述的方法,其特征在于,S4.6中,判别部分包括真假判别器,真假判别器采用的对抗损失函数为:
Ladv=Ex[loggDsrc(x)]+Ex,c[log(1-Dsrc(G(x,c)))]
其中,Dsrc(x)为输入图像x经过判别器D之后得到的可能性分布,Dsrc(G(x,c))表示生成器G生成的图像经过判别器D后的可能性分布,生成器G的作用是使真假判别器采用的抗损失函数尽可能的小,而判别器D则尽可能使其最大化。
10.如权利要求1所述的方法,其特征在于,S4.6中,通过情绪分类器对目标人脸图像进行类型判断,得到第四情绪类别,包括:
在情绪分类器上添加一个辅助分类器,并采用目标域分类损失函数进行优化,将目标域分类损失函数分解为两部分:一个真实图像的分布分类损失用于约束目标分类器,一个假图像的分布分类损失用于约束生成器G,表达式如下所示:
Figure FDA0002491200190000041
Dcls(c′|x)代表目标分类器计算出来的领域标签的可能性分布,通过将
Figure FDA0002491200190000042
这个式子最小化,目标分类器将真实图像x正确分类到与其相关分布c’,假图像的分类分布的损失函数定义如下:
Figure FDA0002491200190000043
即生成器G使
Figure FDA0002491200190000044
这个式子最小化,使得生成的图像能够被目标分类器判别为目标领域c。
CN202010405749.XA 2020-05-14 2020-05-14 一种基于生成对抗网络的情绪差分隐私保护方法 Active CN111666588B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010405749.XA CN111666588B (zh) 2020-05-14 2020-05-14 一种基于生成对抗网络的情绪差分隐私保护方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010405749.XA CN111666588B (zh) 2020-05-14 2020-05-14 一种基于生成对抗网络的情绪差分隐私保护方法

Publications (2)

Publication Number Publication Date
CN111666588A true CN111666588A (zh) 2020-09-15
CN111666588B CN111666588B (zh) 2023-06-23

Family

ID=72382611

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010405749.XA Active CN111666588B (zh) 2020-05-14 2020-05-14 一种基于生成对抗网络的情绪差分隐私保护方法

Country Status (1)

Country Link
CN (1) CN111666588B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112235787A (zh) * 2020-09-30 2021-01-15 南京工业大学 一种基于生成对抗网络的位置隐私保护方法
CN112650399A (zh) * 2020-12-22 2021-04-13 科大讯飞股份有限公司 表情推荐方法及装置
CN113268991A (zh) * 2021-05-19 2021-08-17 北京邮电大学 一种基于cgan模型的用户人格隐私保护方法
CN113436051A (zh) * 2021-06-17 2021-09-24 南京航空航天大学 基于图像对抗的图像隐私保护方法、系统及计算机设备
CN113742772A (zh) * 2021-08-09 2021-12-03 北京工业大学 一种基于gan的用户人格隐私保护方法
CN114333024A (zh) * 2021-12-31 2022-04-12 郑州工程技术学院 基于对抗训练网络进行学生面部表情识别的方法、装置、设备及存储介质
CN115081446A (zh) * 2022-07-08 2022-09-20 重庆大学 一种基于动态多掩码和增强对抗的文本匹配方法
CN116030418A (zh) * 2023-02-14 2023-04-28 北京建工集团有限责任公司 一种汽车吊运行状态监测系统及方法
CN113742772B (zh) * 2021-08-09 2024-10-22 北京工业大学 一种基于gan的用户人格隐私保护方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106919673A (zh) * 2017-02-21 2017-07-04 浙江工商大学 基于深度学习的文本情绪分析系统
CN107368752A (zh) * 2017-07-25 2017-11-21 北京工商大学 一种基于生成式对抗网络的深度差分隐私保护方法
CN108491497A (zh) * 2018-03-20 2018-09-04 苏州大学 基于生成式对抗网络技术的医疗文本生成方法
CN108717406A (zh) * 2018-05-10 2018-10-30 平安科技(深圳)有限公司 文本情绪分析方法、装置及存储介质
WO2019086553A1 (en) * 2017-10-31 2019-05-09 Twinpeek Privacy management
CN110084143A (zh) * 2019-04-04 2019-08-02 广州大学 一种用于人脸识别的情绪信息保护方法及系统
US20200082272A1 (en) * 2018-09-11 2020-03-12 International Business Machines Corporation Enhancing Data Privacy in Remote Deep Learning Services
CN110990795A (zh) * 2019-11-22 2020-04-10 支付宝(杭州)信息技术有限公司 基于对抗样本的隐私信息保护方法、装置及电子设备
CN111091193A (zh) * 2019-10-31 2020-05-01 武汉大学 一种面向深度神经网络的基于差分隐私的域适应隐私保护方法
US20200143079A1 (en) * 2018-11-07 2020-05-07 Nec Laboratories America, Inc. Privacy-preserving visual recognition via adversarial learning

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106919673A (zh) * 2017-02-21 2017-07-04 浙江工商大学 基于深度学习的文本情绪分析系统
CN107368752A (zh) * 2017-07-25 2017-11-21 北京工商大学 一种基于生成式对抗网络的深度差分隐私保护方法
WO2019086553A1 (en) * 2017-10-31 2019-05-09 Twinpeek Privacy management
CN108491497A (zh) * 2018-03-20 2018-09-04 苏州大学 基于生成式对抗网络技术的医疗文本生成方法
CN108717406A (zh) * 2018-05-10 2018-10-30 平安科技(深圳)有限公司 文本情绪分析方法、装置及存储介质
US20200082272A1 (en) * 2018-09-11 2020-03-12 International Business Machines Corporation Enhancing Data Privacy in Remote Deep Learning Services
US20200143079A1 (en) * 2018-11-07 2020-05-07 Nec Laboratories America, Inc. Privacy-preserving visual recognition via adversarial learning
CN110084143A (zh) * 2019-04-04 2019-08-02 广州大学 一种用于人脸识别的情绪信息保护方法及系统
CN111091193A (zh) * 2019-10-31 2020-05-01 武汉大学 一种面向深度神经网络的基于差分隐私的域适应隐私保护方法
CN110990795A (zh) * 2019-11-22 2020-04-10 支付宝(杭州)信息技术有限公司 基于对抗样本的隐私信息保护方法、装置及电子设备

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
BANGZHOU XIN: "Private FL-GAN:Differential Privacy Synthetic Data Generation Based on Federated Learning" *
YI LIU: "PPGAN:Privacy-Preserving Generative Adversarial Network" *
毛典辉: "基于DCGAN反馈的深度差分隐私保护方法" *
郭鹏;钟尚平;陈开志;程航;: "差分隐私GAN梯度裁剪阈值的自适应选取方法" *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112235787A (zh) * 2020-09-30 2021-01-15 南京工业大学 一种基于生成对抗网络的位置隐私保护方法
CN112650399B (zh) * 2020-12-22 2023-12-01 科大讯飞股份有限公司 表情推荐方法及装置
CN112650399A (zh) * 2020-12-22 2021-04-13 科大讯飞股份有限公司 表情推荐方法及装置
CN113268991A (zh) * 2021-05-19 2021-08-17 北京邮电大学 一种基于cgan模型的用户人格隐私保护方法
CN113268991B (zh) * 2021-05-19 2022-09-23 北京邮电大学 一种基于cgan模型的用户人格隐私保护方法
CN113436051A (zh) * 2021-06-17 2021-09-24 南京航空航天大学 基于图像对抗的图像隐私保护方法、系统及计算机设备
CN113742772A (zh) * 2021-08-09 2021-12-03 北京工业大学 一种基于gan的用户人格隐私保护方法
CN113742772B (zh) * 2021-08-09 2024-10-22 北京工业大学 一种基于gan的用户人格隐私保护方法
CN114333024A (zh) * 2021-12-31 2022-04-12 郑州工程技术学院 基于对抗训练网络进行学生面部表情识别的方法、装置、设备及存储介质
CN114333024B (zh) * 2021-12-31 2024-01-26 郑州工程技术学院 基于对抗训练网络进行学生面部表情识别的方法、装置、设备及存储介质
CN115081446A (zh) * 2022-07-08 2022-09-20 重庆大学 一种基于动态多掩码和增强对抗的文本匹配方法
CN116030418B (zh) * 2023-02-14 2023-09-12 北京建工集团有限责任公司 一种汽车吊运行状态监测系统及方法
CN116030418A (zh) * 2023-02-14 2023-04-28 北京建工集团有限责任公司 一种汽车吊运行状态监测系统及方法

Also Published As

Publication number Publication date
CN111666588B (zh) 2023-06-23

Similar Documents

Publication Publication Date Title
CN111666588B (zh) 一种基于生成对抗网络的情绪差分隐私保护方法
Wang et al. Deep visual domain adaptation: A survey
CN111581961B (zh) 一种中文视觉词汇表构建的图像内容自动描述方法
Kong Facial expression recognition method based on deep convolutional neural network combined with improved LBP features
CN109165563B (zh) 行人再识别方法和装置、电子设备、存储介质、程序产品
CN109255289B (zh) 一种基于统一式生成模型的跨衰老人脸识别方法
CN111695053A (zh) 序列标注方法、数据处理设备、可读存储介质
Wilson et al. An information bottleneck approach to optimize the dictionary of visual data
CN117351550A (zh) 基于有监督对比学习的网格自注意力人脸表情识别方法
CN111581964A (zh) 一种汉语古籍的主题分析方法
CN114764939A (zh) 一种基于身份-属性解耦合成的异质人脸识别方法及系统
Li et al. Feature extraction based on deep‐convolutional neural network for face recognition
Chew et al. Facial expression recognition via enhanced stress convolution neural network for stress detection
CN117235605B (zh) 一种基于多模态注意力融合的敏感信息分类方法及装置
Sumalakshmi et al. Fused deep learning based Facial Expression Recognition of students in online learning mode
Gantayat et al. Study of algorithms and methods on emotion detection from facial expressions: a review from past research
Su et al. Discriminative transformation for multi-dimensional temporal sequences
Shukla et al. A novel stochastic deep conviction network for emotion recognition in speech signal
CN115392474B (zh) 一种基于迭代优化的局部感知图表示学习方法
Vijayaraju Image retrieval using image captioning
Hertz Learning Distance Functions: Algo Rithms and Applications
CN116306584A (zh) 基于增强网络的可解释性强的神经主题建模方法、系统及设备
Mohamed A novel technique for human face recognition using fractal code and bi-dimensional subspace
Sastry et al. Sign language conversion tool (slctool) between 30 world sign languages
Wu Correlation-based multi-view representation learning for information fusion

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant