CN111862260A - 基于跨域对偶生成式对抗网络的偏见消除方法与装置 - Google Patents

基于跨域对偶生成式对抗网络的偏见消除方法与装置 Download PDF

Info

Publication number
CN111862260A
CN111862260A CN202010759081.9A CN202010759081A CN111862260A CN 111862260 A CN111862260 A CN 111862260A CN 202010759081 A CN202010759081 A CN 202010759081A CN 111862260 A CN111862260 A CN 111862260A
Authority
CN
China
Prior art keywords
image
generator
sample
domain
discriminator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010759081.9A
Other languages
English (en)
Other versions
CN111862260B (zh
Inventor
陈晋音
徐思雨
缪盛欢
徐国宁
陈治清
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN202010759081.9A priority Critical patent/CN111862260B/zh
Publication of CN111862260A publication Critical patent/CN111862260A/zh
Application granted granted Critical
Publication of CN111862260B publication Critical patent/CN111862260B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/002Image coding using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于跨域对偶生成式对抗网络的偏见消除方法和装置,包括以下步骤:(1)构建样本对;(2)基于跨域对偶生成式对抗网络构建训练系统,包括生成器GA、GB、判别器DA、DB;(3)根据生成图像与样本图像v之间的距离构建判别器DA、DB的损失函数;根据所有生成图像和样本图像之间的距离、根据任务标签和判别标签的交叉熵、受保护属性与编码特征的交叉熵构建生成器GA、GB的损失函数;(4)利用损失函数对训练系统进行对抗训练,训练结束后,提取参数确定的生成器GA和GB作为两个图像迁移模型;(5)应用时,将图像对分别输入至两个图像迁移模型,经计算生成图像域迁移的两张生成图像。

Description

基于跨域对偶生成式对抗网络的偏见消除方法与装置
技术领域
本发明属于图像生成领域,具体设计一种基于跨域对偶生成式对抗网络的偏见消除方法与装置。
背景技术
近年来,深度学习已经被广泛的应用于目标检测、图像检测、数据生成等领域。生成对抗网络(GAN)是目前深度学习中较为先进的技术之一,生成对抗网络通过框架中(至少)两个模块:生成模型(Generative Model)和判别模型(Discriminative Model)的互相博弈学习产生较好的输出,一般采用深度神经网络。
跨域图像-图像翻译的生成对抗网络(GAN)取得了很大的进展。根据任务复杂度的不同,训练生成对抗网络需要成千上万个图像对,而对于大量数据来说图像对是难以获得的。从自然语言翻译中得到对偶学习的启发,产生了一种新的对偶生成对抗网络机制(Dual-GAN),是在原来的生成对抗网络的基础上进一步扩展为两个相互耦合的生成对抗网络,其中有两个生成器和两个判别器,使图像翻译人员可以从两个域的两组图像中进行训练与辨别。对偶生成对抗网络最关键的一点在于,给定一个原始任务模型,对偶任务的模型可以给其提供反馈;同样的,给定一个对偶任务的模型,其原始任务的模型也可以给该对偶任务的模型提供反馈,这两个互为对偶的任务可以相互提供反馈,相互学习,相互提高。
图像识别系统例如一些深度学习网络,虽然它们在实际应用方面取得了很大进展,但它们还是很敏感。当这类系统用于包含人物的图像时,它们可能会将性别、种族或年龄等保护属性与物体或动作标签过度关联,从而放大社会刻板印象。而且,经过训练的模型大大扩大了某些标签与保护属性的关联,超出了人们对有偏见的数据集的接受程度。即使数据集是平衡的,每个标签都与保护属性平等,学习的模型也会放大标签和保护属性之间的关联。这样放大社会刻板印象的现象将直接影响图像生成模型生成的图像,导致错误判断。
这种放大社会刻板印象产生主要来自于两部分的泄露,第一部分是数据集泄露,当数据集被泄露攻击时,攻击者试图从其任务特定标签中,对输入图像中的受保护属性进行反向工程,则会造成保护属性对模型的任务结果产生很大偏见,出现放大社会刻板印象。另一部分是模型泄露,模型直接泄露数据集中被保护属性,则会造成保护属性对模型的任务结果产生很大偏见,出现放大社会刻板印象。
发明内容
本发明的目的是提供一种基于跨域对偶生成式对抗网络(Dual-GAN)的偏见消除方法与装置,以克服因为存在偏见或偏见放大而导致的图像域转移生成图像的不准确性问题。
为实现上述发明目的,本发明提供以下技术方案:
一种基于跨域对偶生成式对抗网络的偏见消除方法,包括以下步骤:
(1)采集图像数据,并标记图像数据的任务标签和受保护属性,将任务标签、受保护属性与图像数据构成一个样本图像,组成样本集,根据任务标签不同将样本集分成U域样本集和V域样本集,U域样本集中样本图像u和V域样本集中的样本图像v组成一个样本对;
(2)基于跨域对偶生成式对抗网络构建训练系统,包括生成器GA、判别器DA、生成器GB、判别器DB,样本对中样本图像u和样本图像v分别输入至生成器GA、生成器GB中,并为生成器GA和生成器GB分别添加噪声信息z和噪声信息z’,样本图像u与噪声信息z经过生成器GA编码的生成图像GA(u,z)再与噪声信息z’经过生成器GB编码得到生成图像GB(GA(u,z),z'),样本图像v与噪声信息z’经过生成器GB编码的生成图像GB(v,z')再与噪声信息z经过生成器GA编码得到生成图像GA(GB(u,z'),z),判别器DA判别生成图像GA(u,z)与样本图像v的真伪,判别器DB判别生成图像GB(v,z')与样本图像u的真伪;
(3)构建损失函数,根据生成图像GA(u,z)与样本图像v之间的距离构建判别器DA的第一损失函数;根据生成图像GB(v,z’)与样本图像u之间的距离构建判别器DB的第二损失函数,根据所有生成图像和样本图像之间的距离构建第一部分损失,根据任务标签和判别标签的交叉熵、受保护属性与编码特征的交叉熵构建第二部分损失,第一部分损失和第二部分损失组成生成器GA和生成器GB的第三损失函数;
(4)利用第一损失函数、第二损失函数以及第三损失函数对训练系统进行对抗训练,训练结束后,提取参数确定的生成器GA和GB作为两个图像迁移模型;
(5)应用时,将图像对分别输入至两个图像迁移模型,经计算生成图像域迁移的两张迁移图像。
一种基于跨域对偶生成式对抗网络的偏见消除装置,包括计算机存储器、计算机处理器以及存储在所述计算机存储器中并可在所述计算机处理器上执行的计算机程序,所述计算机存储器中采用上述基于跨域对偶生成式对抗网络的偏见消除方法构建的两个图像迁移模型;
所述计算机处理器执行所述计算机程序时实现以下步骤:
将图像对分别输入至两个图像迁移模型,经计算生成图像域迁移的两张迁移图像。
与现有技术相比,本发明具有的有益效果至少包括:
通过对Dual-GAN的生成器施加去除偏见操作,采用对抗性的方法,从生成器的中间表示中删除与受保护属性对应的不必要特征,减少偏见放大,同时保持了判别器良好的隶属度评分,提升了图像域转移生成图像的准确性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图做简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动前提下,还可以根据这些附图获得其他附图。
图1是本发明实施例提供的基于跨域对偶生成式对抗网络的偏见消除方法的流程图;
图2是本发明实施例提供的训练系统的结构示意图;
图3是本发明实施例提供的生成器的结构示意图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例对本发明进行进一步的详细说明。应当理解,此处所描述的具体实施方式仅仅用以解释本发明,并不限定本发明的保护范围。
为了解决通过图像域迁移存在偏见问题导致生成图像不准确的问题,本发明实施例提供了一种基于跨域对偶生成式对抗网络的偏见消除方法和装置。
本发明把深度学习模型在做出决策时,受到无关但敏感特征的影响,并且其决策可能会会依赖于这种错误的特征关联的现象定义为模型的偏见行为。以性别歧视为例,假设性别标签是深度学习模型无关但敏感的特征,在其它标签的预测任务中,虽然不包括性别预测,但性别特征可能会影响其它分类任务,从而使深度学习产生性别歧视,即模型存在偏见。该偏见的存在直接影响模型的性能,使得模型的输出结果不准确。这种偏见可能来自于数据集的泄露,也可能来自于模型的泄露。
针对数据集的泄露,如果存在一个函数f(),使得gi≈f(Yi),则任务标签Yi会泄漏有关受保护属性gi的信息,将函数f()称为攻击者,因为它试图从其任务标签Yi中,对输入图像Xi中的受保护属性gi进行反向工程。攻击者的性能,即数据集D中通过任务标签Yi泄漏有关受保护属性gi信息的实例的分数,产生了泄漏的估计:
Figure BDA0002612553440000051
其中,1[]是指标函数,用于扩展了泄漏的定义,以评估在不同的准确性水平上显示了多少受保护属性,其中错误完全是由于偶然造成的,λD为偏见程度,通过扰动真实标签来定义性能为a时的数据集泄漏,其中包含一些函数r(Yi,a),这样,所更改的标签相对于真值的总体精度达到了精度a:
Figure BDA0002612553440000052
针对模型的泄露,通过生成器M的输出
Figure BDA0002612553440000053
泄漏有关受保护属性信息。通过
Figure BDA0002612553440000061
泄漏有关的受保护属性gi信息的百分比,为了衡量预测泄漏,在上训练一个不同的攻击者来提取有关受保护属性gi信息:
Figure BDA0002612553440000062
其中,f()是一个攻击者函数,训练从生成器M的输出中预测受保护属性gi,该函数具有精度得分a。
在数据集的泄露和模型的泄露的基础上,得到偏差放大,将这种偏差放大定义为模型泄漏与数据集泄漏在相同精度a下的差异Δ=λM(a)-λD(a)。需要注意的是,λD(a)测量了一个理想模型的泄露,实现了一个性能水平a,但是只有随机犯错误,不是因为系统性偏差。一个包含Δ(大于0)的模型泄漏的受保护属性信息比预期的要多,即使是简单地完成数据集定义的任务也是如此。这代表了一种依赖于受保护属性来完成预测任务的放大类型。、a可以是任何的性能测量,但是本实验中使用F1分数。之后,将展示所评估的所有模型泄漏的信息比预期的要多,甚至在数据集没有泄漏信息时也会泄漏信息。由此可见这两种偏见的存在极大地影响了模型的性能。
图1为实施例提供的基于跨域对偶生成式对抗网络的偏见消除方法的流程图,如图1所示,该基于跨域对偶生成式对抗网络的偏见消除方法包括以下步骤:
步骤1,采集图像数据,构建样本对。
首先,可以从多标签分类的COCO数据集中采集包含有人的图像作为样本图像,选择职业标签作为任务标签,引起偏见的性别属性作为受保护属性,对任务标签和受保护属性进行标记,将任务标签Y、受保护属性g和图像数据X构成一个样本图像(X,Y,g),组成样本集。
由于本实施例的任务是根据输入图像对来进行图像域迁移生成图像,以调整图像的风格等,因此,在得到样本集后,还需要根据任务标签不同将样本集分成U域样本集和V域样本集,U域样本集中样本图像u和V域样本集中的样本图像v组成一个样本对。组成样本对的样本图像u和样本图像v具有不同的任务标签,假设是一个二分类的任务,任务标签为1代表医生,0代表非医生,则组成样本对的样本图像u和样本图像v中一者拥有医生标签1,另一者拥有非医生标签0,样本图像u和样本图像v是一对不匹配的样本对。根据该样本对可以进行图像域迁移生成其他图像。
步骤2,基于跨域对偶生成式对抗网络构建训练系统。
如图2所示,本实施例提供的训练系统包括:生成器GA、判别器DA、生成器GB、判别器DB。以样本对作为输入,每个样本图像代表一个图像域,Dual-GAN同时从一个域到另一个域学习两个可靠的生成器和判别器,并对图像-图像转换任务进行操作。生成器GA和GB输出尽可能相似的假输出图像,同时减少性别偏见的放大,判别器DA和DB则尽可能区分真图像和假输出图像,通过对抗性的方法,得到最优生成器和辨别器。
样本对中样本图像u和样本图像v分别输入至生成器GA、生成器GB中,并为生成器GA和生成器GB分别添加噪声信息z和噪声信息z’,噪声信息的添加可以使生成器GA和生成器GB编码得到生成图像。样本图像u与噪声信息z经过生成器GA编码的生成图像GA(u,z),该生成图像GA(u,z)再与噪声信息z’经过生成器GB编码得到生成图像GB(GA(u,z),z'),样本图像v与噪声信息z’经过生成器GB编码的生成图像GB(v,z'),该生成图像GB(v,z'再与噪声信息z经过生成器GA编码得到生成图像GA(GB(u,z'),z)。
判别器DA判别生成图像GA(u,z)与样本图像v的真伪,即判断输入判别器DA的图像是来自于原始的样本图像v还是来自于生成器的生成图像GA(u,z),也即是隶属度评分。判别器DB判别生成图像GB(v,z')与样本图像u的真伪,即判断输入判别器DB的图像是来自于原始的样本图像u还是来自于生成器的生成图像GB(v,z'),也即是隶属度评分。
实施例中,生成器GA和生成器GB采用U-net网络。如图3所示,同一列的纵向箭头代表卷积和激活函数,横向箭头代表复制剪切操作,前半部分两列之间的连接箭头代表下采样,后半部分两列之间的连接箭头代表反卷积,最后一个输出箭头代表卷积核为1X1的卷积操作。U-net网络没有全连接层,只有卷积和下采样。U-net可以对像素进行端到端的分割,即输入是一幅图像,输出也是一幅图像。U-net网络由两部分组成:一个收缩路径(contracting path)来获取上下文信息以及一个对称的扩张路径(expanding path)用以精确定位。收缩网络主要负责下采样的工作,提取高维特征信息,每一次下采样包含两个的3x3的卷积操作,一个2x2的池化操作,通过修正线性单元(rectified linear unit,ReLU)作为激活函数,每一次下采样,图片大小变为原来的1/2,特征数量变为原来的2倍。扩张网络主要负责上采样的工作,每一次上采样包含两个3x3的卷积操作,通过修正线性单元作为激活函数。每一次上采样,图片大小变为原来的2倍,特征数量变为原来的1/2。在上采样操作中,将每一次的输出特征与相映射的收缩网络的特征合并在一起,补全中间丢失的边界信息。最后,加入1x1的卷积操作将之前所获的的特征映射到所属分类上面。
判别器DA和判别器DB采用PatchGAN结构,网络结构为3层全卷积层和1层标准化处理,卷积核为4×4大小。
步骤3,构建训练系统的损失函数。
训练系统的损失函数包括三部分,分别为判别器DA第一损失函数、判别器DB的第二损失函数以及生成器的第三损失函数。
其中,根据生成图像GA(u,z)与样本图像v之间的距离构建判别器DA的第一损失函数
Figure BDA0002612553440000091
为:
Figure BDA0002612553440000092
根据生成图像GB(v,z’)与样本图像u之间的距离构建判别器DB的第二损失函数
Figure BDA0002612553440000093
为:
Figure BDA0002612553440000094
其中,DA(v)为样本图像v输入至判别器DA得到的预测判别结果,DA(GA(u,z))为生成图像GA(u,z)输入至判别器DA得到的预测判别结果,DB(u)为样本图像u输入至判别器DB得到的预测判别结果,DB(GB(v,z'))为生成图像GB(v,z')输入至判别器DB得到的预测判别结果。
本实施例中,由于生成器GA和生成器GB具有相同的目标,因此,均采用相同的第三损失函数。第三损失函数中的第一部分损失lg1(u,v)为利用LI距离来测量的重构误差,该重构误差可以使被重构的样本服从域分布。具体地,根据所有生成图像和样本图像之间的距离构建第一部分损失lg1(u,v)为:
lg1(u,v)=λU||u-GB(GA(u,z),z')||+λV||v-GA(GB(u,z'),z)||-DA(GB(v,z'))-DB(GA(u,z))
其中,λU、λV为权重参数,取值范围为100~1000,DA(GB(v,z'))为生成图像GB(v,z')输入至判别器DA得到的预测判别结果,DB(GA(u,z))为生成图像GA(u,z)输入至判别器DB得到的预测判别结果,||·||为L1距离。
根据任务标签和判别标签的交叉熵、受保护属性与编码特征的交叉熵构建第二部分损失lg2(u,v)为:
Figure BDA0002612553440000101
其中,其中,i为样本图像的索引,βU、βV、λ为权重参数,取值范围为0~1,λ用来对受保护属性的敏感性权衡任务性能,|·|l1为L1距离,ui为第i个样本图像u,
Figure BDA0002612553440000102
为样本图像ui输入至生成器GA编码得到的中间表示,
Figure BDA0002612553440000103
为样本图像ui的任务标签,DA(·)为判别器DA的预测判别结果,c(·)为判别模型C的预测判别结果,gi为受保护属性,vi为第i个样本图像v,
Figure BDA0002612553440000104
为样本图像vi输入至生成器GB编码得到的中间表示,DB(·)为判别器DB的预测判别结果,L(·)和Lc(·)均为交叉熵函数。
根据第二部分损失lg2(u,v)可以得,第二部分损失中增加了克服数据集泄露和模型泄露的损失部分,构造一个判别模型C作为批评者,判别模型C试图从生成器的中间表示预测受保护属性的信息。批评者试图尽量减少它能提取的信息量的损失
Figure BDA0002612553440000105
Figure BDA0002612553440000106
虽然判别器试图尽量减少其在目标任务预测上的损失,同时增加评判的损失
Figure BDA0002612553440000107
Figure BDA0002612553440000108
在此基础上,通过利用自动编码输入图像的生成器来优化输入特征空间上的对抗性损失。为了实现这一目标,还增加了一个额外的损失
Figure BDA0002612553440000109
Figure BDA00026125534400001010
样本图像
Figure BDA00026125534400001011
和样本图像
Figure BDA00026125534400001012
是生成器编码得到的中间表示,将中间表示引入到损失函数中,即在训练过程中能够克服模型泄露引起的偏见问题,同时还采用了判别模型C对中间表示进行预测,并计算这个预测结果与受保护属性的交叉熵,这样在训练过程中能够克服数据集泄露引起的偏见问题。
最后,第一部分损失lg1(u,v)和第二部分损失lg2(u,v)组成生成器GA和生成器GB的第三损失函数lg(u,v)为:
lg(u,v)=lg1(u,v)+lg2(u,v)
实施例中,判别模型C是区别于判别器DA和DB的网络模型,采用为卷积神经网络CNN,该判别模型C输入为给定图像,输出为预测的受保护属性的概率值。
步骤4,利用损失函数对训练系统进行对抗训练,得到图像迁移模型。
在训练时,将样本对输入至训练系统中,并采用步骤3构建的第一损失函数、第二损失函数以及第三损失函数对训练系统进行对抗训练,训练时,batch size设为1,每个epoch训练1000张图,训练次数为100个epoch,同时生成器和判别器都默认使用Adam优化器,初始参数默认为相同的学习率。训练结束后,提取参数确定的生成器GA和GB作为两个图像迁移模型。该两个图像迁移模型可以用来生成基于图像域迁移的新图像。
步骤5,应用时,将图像对分别输入至两个图像迁移模型,经计算生成图像域迁移的两张生成图像。
在应用时,将图像对中的一个图像输入到的第一个图像迁移模型中,第一个图像迁移模型会根据输入图像和噪声信息生成第一迁移图像,第一迁移图像输入至第二个图像迁移模型中,会跟噪声信息生成优化的第一迁移图像。将图像对中的另一个图像输入到的第二个图像迁移模型中,第二个图像迁移模型会根据输入图像和噪声信息生成第二迁移图像,第二迁移图像输入至第一个图像迁移模型中,会跟噪声信息生成优化的第二迁移图像。这两个优化的第一迁移图像和第二迁移图像都能够克服受保护属性的影响导致的偏见问题。
例如,针对由医院图像和人物图像组成的图像对,再利用第一图像迁移模型和第二图像迁移模型生成医生在医院的场景图时,由于两个迁移模型能够克服性别偏见,因此,生成的迁移图像中将人物迁移到了医院图像中,生成了包含女医生的医院场景图,克服了医生就是男性的性别偏见问题。提升了迁移图像的准确性。
上述基于跨域对偶生成式对抗网络的偏见消除方法,通过对Dual-GAN的生成器施加去除偏见操作,采用对抗性的方法,从生成器的中间表示中删除与受保护属性对应的不必要特征,减少偏见放大,同时保持了判别器良好的隶属度评分,提升了图像域转移生成图像的准确性。
实施例还提供了一种基于跨域对偶生成式对抗网络的偏见消除装置,包括计算机存储器、计算机处理器以及存储在所述计算机存储器中并可在所述计算机处理器上执行的计算机程序,所述计算机存储器中采用上述基于跨域对偶生成式对抗网络的偏见消除方法构建的两个图像迁移模型;
所述计算机处理器执行所述计算机程序时实现以下步骤:
将图像对分别输入至两个图像迁移模型,经计算生成图像域迁移的两张迁移图像。
实际应用中,计算机存储器可以为在近端的易失性存储器,如RAM,还可以是失性存储器,如ROM,FLASH,软盘,机械硬盘等,还可以是远端的存储云。计算机处理器可以为中央处理器(CPU)、微处理器(MPU)、数字信号处理器(DSP)、或现场可编程门阵列(FPGA),即可以通过这些处理器实现迁移图像的生成步骤。
上述基于跨域对偶生成式对抗网络的偏见消除装置,通过对Dual-GAN的生成器施加去除偏见操作,采用对抗性的方法,从生成器的中间表示中删除与受保护属性对应的不必要特征,减少偏见放大,同时保持了判别器良好的隶属度评分,提升了图像域转移生成图像的准确性。
以上所述的具体实施方式对本发明的技术方案和有益效果进行了详细说明,应理解的是以上所述仅为本发明的最优选实施例,并不用于限制本发明,凡在本发明的原则范围内所做的任何修改、补充和等同替换等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种基于跨域对偶生成式对抗网络的偏见消除方法,其特征在于,包括以下步骤:
(1)采集图像数据,并标记图像数据的任务标签和受保护属性,将任务标签、受保护属性与图像数据构成一个样本图像,组成样本集,根据任务标签不同将样本集分成U域样本集和V域样本集,U域样本集中样本图像u和V域样本集中的样本图像v组成一个样本对;
(2)基于跨域对偶生成式对抗网络构建训练系统,包括生成器GA、判别器DA、生成器GB、判别器DB,样本对中样本图像u和样本图像v分别输入至生成器GA、生成器GB中,并为生成器GA和生成器GB分别添加噪声信息z和噪声信息z’,样本图像u与噪声信息z经过生成器GA编码的生成图像GA(u,z)再与噪声信息z’经过生成器GB编码得到生成图像GB(GA(u,z),z'),样本图像v与噪声信息z’经过生成器GB编码的生成图像GB(v,z')再与噪声信息z经过生成器GA编码得到生成图像GA(GB(u,z'),z),判别器DA判别生成图像GA(u,z)与样本图像v的真伪,判别器DB判别生成图像GB(v,z')与样本图像u的真伪;
(3)构建损失函数,根据生成图像GA(u,z)与样本图像v之间的距离构建判别器DA的第一损失函数;根据生成图像GB(v,z’)与样本图像u之间的距离构建判别器DB的第二损失函数,根据所有生成图像和样本图像之间的距离构建第一部分损失,根据任务标签和判别标签的交叉熵、受保护属性与编码特征的交叉熵构建第二部分损失,第一部分损失和第二部分损失组成生成器GA和生成器GB的第三损失函数;
(4)利用第一损失函数、第二损失函数以及第三损失函数对训练系统进行对抗训练,训练结束后,提取参数确定的生成器GA和GB作为两个图像迁移模型;
(5)应用时,将图像对分别输入至两个图像迁移模型,经计算生成图像域迁移的两张迁移图像。
2.如权利要求1所述的基于跨域对偶生成式对抗网络的偏见消除方法,其特征在于,所述第一损失函数
Figure FDA0002612553430000021
为:
Figure FDA0002612553430000022
第二损失函数
Figure FDA0002612553430000023
为:
Figure FDA0002612553430000024
其中,DA(v)为样本图像v输入至判别器DA得到的预测判别结果,DA(GA(u,z))为生成图像GA(u,z)输入至判别器DA得到的预测判别结果,DB(u)为样本图像u输入至判别器DB得到的预测判别结果,DB(GB(v,z'))为生成图像GB(v,z')输入至判别器DB得到的预测判别结果。
3.如权利要求1所述的基于跨域对偶生成式对抗网络的偏见消除方法,其特征在于,所述第三损失函数lg(u,v)为:
lg(u,v)=lg1(u,v)+lg2(u,v)
第一部分损失lg1(u,v)为:
lg1(u,v)=λU||u-GB(GA(u,z),z')||+λV||v-GA(GB(u,z'),z)||-DA(GB(v,z'))-DB(GA(u,z))
其中,λU、λV为权重参数,取值范围为0~1,DA(GB(v,z'))为生成图像GB(v,z')输入至判别器DA得到的预测判别结果,DB(GA(u,z))为生成图像GA(u,z)输入至判别器DB得到的预测判别结果,||·||为L1距离;
第二部分损失lg2(u,v)为:
Figure FDA0002612553430000031
其中,i为样本图像的索引,βU、βV、λ为权重参数,取值范围为0~1,
Figure FDA0002612553430000032
为L1距离,ui为第i个样本图像u,
Figure FDA0002612553430000033
为样本图像ui输入至生成器GA编码得到的中间表示,
Figure FDA0002612553430000034
为样本图像ui的任务标签,DA(·)为判别器DA的预测判别结果,c(·)为判别模型C的预测判别结果,gi为受保护属性,vi为第i个样本图像v,
Figure FDA0002612553430000035
为样本图像vi输入至生成器GB编码得到的中间表示,DB(·)为判别器DB的预测判别结果,L(·)和Lc(·)均为交叉熵函数。
4.如权利要求1所述的基于跨域对偶生成式对抗网络的偏见消除方法,其特征在于,所述生成器GA和生成器GB采用U-net网络。
5.如权利要求1所述的基于跨域对偶生成式对抗网络的偏见消除方法,其特征在于,所述判别器DA和判别器DB采用PatchGAN结构,网络结构为3层全卷积层和1层标准化处理,卷积核为4×4大小。
6.如权利要求3所述的基于跨域对偶生成式对抗网络的偏见消除方法,其特征在于,所述判别模型结构不同于判别器DA和DB,采用卷积神经网络。
7.如权利要求1所述的基于跨域对偶生成式对抗网络的偏见消除方法,其特征在于,训练时,batch size设为1,每个epoch训练1000张图,训练次数为100个epoch,同时生成器和判别器都默认使用Adam优化器,初始参数默认为相同的学习率。
8.一种基于跨域对偶生成式对抗网络的偏见消除装置,包括计算机存储器、计算机处理器以及存储在所述计算机存储器中并可在所述计算机处理器上执行的计算机程序,其特征在于,所述计算机存储器中采用权利要求1~7任一项所述的基于跨域对偶生成式对抗网络的偏见消除方法构建的两个图像迁移模型;
所述计算机处理器执行所述计算机程序时实现以下步骤:
将图像对分别输入至两个图像迁移模型,经计算生成图像域迁移的两张迁移图像。
CN202010759081.9A 2020-07-31 2020-07-31 基于跨域对偶生成式对抗网络的偏见消除方法与装置 Active CN111862260B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010759081.9A CN111862260B (zh) 2020-07-31 2020-07-31 基于跨域对偶生成式对抗网络的偏见消除方法与装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010759081.9A CN111862260B (zh) 2020-07-31 2020-07-31 基于跨域对偶生成式对抗网络的偏见消除方法与装置

Publications (2)

Publication Number Publication Date
CN111862260A true CN111862260A (zh) 2020-10-30
CN111862260B CN111862260B (zh) 2024-03-15

Family

ID=72953648

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010759081.9A Active CN111862260B (zh) 2020-07-31 2020-07-31 基于跨域对偶生成式对抗网络的偏见消除方法与装置

Country Status (1)

Country Link
CN (1) CN111862260B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113536298A (zh) * 2021-06-11 2021-10-22 浙江工业大学 一种面向深度学习模型偏见中毒攻击的防御方法
CN115114395A (zh) * 2022-04-15 2022-09-27 腾讯科技(深圳)有限公司 内容检索及模型训练方法、装置、电子设备和存储介质
CN115281662A (zh) * 2022-09-26 2022-11-04 北京科技大学 一种慢性踝关节不稳智能辅助诊断系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108564611A (zh) * 2018-03-09 2018-09-21 天津大学 一种基于条件生成对抗网络的单目图像深度估计方法
US20180314716A1 (en) * 2017-04-27 2018-11-01 Sk Telecom Co., Ltd. Method for learning cross-domain relations based on generative adversarial networks
CN109753992A (zh) * 2018-12-10 2019-05-14 南京师范大学 基于条件生成对抗网络的无监督域适应图像分类方法
WO2020029356A1 (zh) * 2018-08-08 2020-02-13 杰创智能科技股份有限公司 一种基于生成对抗网络的脸部变化预测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180314716A1 (en) * 2017-04-27 2018-11-01 Sk Telecom Co., Ltd. Method for learning cross-domain relations based on generative adversarial networks
CN108564611A (zh) * 2018-03-09 2018-09-21 天津大学 一种基于条件生成对抗网络的单目图像深度估计方法
WO2020029356A1 (zh) * 2018-08-08 2020-02-13 杰创智能科技股份有限公司 一种基于生成对抗网络的脸部变化预测方法
CN109753992A (zh) * 2018-12-10 2019-05-14 南京师范大学 基于条件生成对抗网络的无监督域适应图像分类方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
侯柯冰;程晓荣;: "基于生成对抗网络的ACGAN模型", 信息技术与信息化, no. 05, 28 May 2020 (2020-05-28) *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113536298A (zh) * 2021-06-11 2021-10-22 浙江工业大学 一种面向深度学习模型偏见中毒攻击的防御方法
CN113536298B (zh) * 2021-06-11 2024-04-30 浙江工业大学 一种面向深度学习模型偏见中毒攻击的防御方法
CN115114395A (zh) * 2022-04-15 2022-09-27 腾讯科技(深圳)有限公司 内容检索及模型训练方法、装置、电子设备和存储介质
CN115114395B (zh) * 2022-04-15 2024-03-19 腾讯科技(深圳)有限公司 内容检索及模型训练方法、装置、电子设备和存储介质
CN115281662A (zh) * 2022-09-26 2022-11-04 北京科技大学 一种慢性踝关节不稳智能辅助诊断系统

Also Published As

Publication number Publication date
CN111862260B (zh) 2024-03-15

Similar Documents

Publication Publication Date Title
AU2019200270B2 (en) Concept mask: large-scale segmentation from semantic concepts
CN111695415B (zh) 图像识别方法及相关设备
CN111862260B (zh) 基于跨域对偶生成式对抗网络的偏见消除方法与装置
CN109840322B (zh) 一种基于强化学习的完形填空型阅读理解分析模型及方法
Zhang et al. Progressive hard-mining network for monocular depth estimation
CN113449801B (zh) 一种基于多级图像上下文编解码的图像人物行为描述生成方法
CN111966812A (zh) 一种基于动态词向量的自动问答方法和存储介质
CN114612767B (zh) 一种基于场景图的图像理解与表达方法、系统与存储介质
CN114926835A (zh) 文本生成、模型训练方法和装置
CN113298816A (zh) 一种遥感图像语义分割方法、装置和计算机设备
CN115080766A (zh) 基于预训练模型的多模态知识图谱表征系统及方法
Li et al. Small object detection algorithm based on feature pyramid-enhanced fusion SSD
CN114898121A (zh) 基于图注意力网络的混凝土坝缺陷图像描述自动生成方法
CN117115339A (zh) 一种基于NeRF 5D神经辐射场的建筑三维重建与损伤识别方法
KR102166117B1 (ko) 시멘틱 매칭 장치 및 방법
CN114782503A (zh) 一种基于多尺度特征相似度约束的点云配准方法及系统
CN115994558A (zh) 医学影像编码网络的预训练方法、装置、设备及存储介质
CN117727043A (zh) 信息重构模型的训练、图像检索方法、装置及设备
Li et al. SAE‐CenterNet: Self‐attention enhanced CenterNet for small dense object detection
CN116975651A (zh) 相似度确定模型处理方法、目标对象搜索方法和装置
CN107533672A (zh) 模式识别装置、模式识别方法以及程序
CN117036425A (zh) 点云分级决策配准方法、系统、设备及介质
CN116561272A (zh) 开放域视觉语言问答方法、装置、电子设备及存储介质
CN110852066B (zh) 一种基于对抗训练机制的多语言实体关系抽取方法及系统
Wang et al. Visual Explanations of Image-Text Representations via Multi-Modal Information Bottleneck Attribution

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant