CN111753918B - 一种基于对抗学习的去性别偏见的图像识别模型及应用 - Google Patents
一种基于对抗学习的去性别偏见的图像识别模型及应用 Download PDFInfo
- Publication number
- CN111753918B CN111753918B CN202010619858.1A CN202010619858A CN111753918B CN 111753918 B CN111753918 B CN 111753918B CN 202010619858 A CN202010619858 A CN 202010619858A CN 111753918 B CN111753918 B CN 111753918B
- Authority
- CN
- China
- Prior art keywords
- image
- training
- gender
- recognition model
- image recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 claims abstract description 107
- 238000000034 method Methods 0.000 claims description 28
- 230000006870 function Effects 0.000 claims description 23
- 238000004364 calculation method Methods 0.000 claims description 7
- 239000011159 matrix material Substances 0.000 claims description 6
- 239000013598 vector Substances 0.000 claims description 6
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 4
- 238000010276 construction Methods 0.000 claims description 4
- 238000012854 evaluation process Methods 0.000 claims description 2
- 206010011985 Decubitus ulcer Diseases 0.000 claims 3
- 238000013136 deep learning model Methods 0.000 description 19
- 238000012360 testing method Methods 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 3
- 230000035945 sensitivity Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 230000003042 antagnostic effect Effects 0.000 description 1
- 230000008485 antagonism Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于对抗学习的去性别偏见的图像识别模型及应用,包括:(1)准备第三样本集,不包含性别标签的第一样本集,只有性别标签的第二样本集;(2)构建包含特征提取器和分类器的图像分类网络,以第一样本集来优化网络参数;(3)构建包括参数确定的特征提取器和对抗学习器的对抗学习网络,以第二样本集来优化对抗学习器的网络参数;(4)构建包括特征提取器、分类器、参数确定的对抗学习器的训练体系,(5)以分类器的目标任务损失和对抗学习器的去除性别偏见损失之和作为训练体系的总损失,根据第三样本集,利用该总损失对训练体系进行训练,当训练结束后,提取参数确定的特征提取器和分类器作为图像识别模型。
Description
技术领域
本发明属于图像识别领域,具体涉及一种基于对抗学习的去性别偏见的图像识别模型及应用。
背景技术
深度学习主要是凭借其强大的特征提取与拟合能力来学习样本数据的内在规律,使得机器能够模仿人类思维,自动做出决策,因此解决了人类社会很多复杂的问题,并被广泛应用于各个领域,如图像识别、机器翻译、语音识别、自然语言处理、推荐系统、生物信息、目标检测与识别等。随着研究者们的不懈努力,深度学习技术日益成熟,这对改善和提高人们的生活水平具有深远的意义。
虽然深度学习在实际应用中取得了很大的进展,然而最新的一些研究表明,先进的深度学习模型存在不公平的偏见,这是因为深度学习模型也会对一些无关的特征很敏感,并且其决策往往会依赖于这种错误的特征关联,这种偏见可能表现在:当模型在预测一张图片中的人物性别时,模型的决策可能会更多依赖于无关的人物背景信息,从而导致错误的决策。因此,当这种存在偏见的深度学习模型反应在识别或检测含有人的图像时,可能会造成许多负面影响和社会危害,例如,软件工程师在图像搜索结果中男性的代表性过高,可能会造成性别歧视;在自动驾驶中检测行人时,不同肤色的行人识别率是不一样的,可能会对生命造成威胁。
研究者对于减轻和防止深度学习模型在决策时产生偏见的工作主要基于三个方面:(1)通过对数据集进行预处理来消除样本数据集中存在的偏见,从而防止深度学习模型在训练时获得不必要的偏见。(2)直接对深度学习模型进行修改来消除模型中存在的偏见。(3)对深度学习模型进行公平性的评估。虽然这些方法对于防止深度学习模型在决策时产生偏见都是有效的,但是最新的研究表明,深度学习模型会放大样本数据集中存在的偏见,同时研究还表明直接对深度学习模型进行修改来消除模型中存在的偏见比对数据集进行预处理更有效。
目前通过直接修改深度学习模型来防止偏见的方法大多数是通过对抗学习在原来深度学习模型的参数上进行小规模的修改,即在第二次训练时加入产生偏见的损失分数来降低模型在决策时的偏见程度。然而,通过这类方法训练的到的深度学习模型中,大部分参数的空间分布是基于第一次训练得到的,而这些参数和深度学习模型产生偏见具有很大的关联。虽然经过第二次训练,模型的参数有了一定的改变,但是这并不能改变第一次训练得到的参数的空间分布对最终模型的影响。
鉴于深度学习模型存在上述的偏见问题,以及目前对于防止这种偏见的研究所存在的局限性,研究一种基于对抗学习的无偏模型训练方法,生成没有偏见的深度学习模型具有极其重要的理论与实践意义。
发明内容
为了解决模型的性别偏见问题,本发明提供了一种基于对抗学习的去性别偏见的图像识别模型及应用。将性别偏见看作是一种攻击扰动,通过消除这种扰动,降低图像识别模型对无关特征的敏感度,进一步保证图像识别模型做出决策的公平性。
本发明的技术方案为:
第一方面,一种基于对抗学习的去性别偏见的图像识别模型的构建方法,包括以下步骤:
(1)准备包含人类信息的COCO子数据集作为第一样本集,并为第一样本集中的图像添加性别标签,该性别标签与图像形成第二样本集,将第一样本集和性别标签形成第三样本集;
(2)构建并训练图像分类网络,该图像分类网络包括第一特征提取器和由至少2层全连接层和组成的第一分类器,训练时,以第一样本集对图像分类网络进行训练,优化图像分类网络的网络参数;
(3)构建并训练对抗学习网络,该对抗学习网络包括经过步骤(2)训练后参数确定的第一特征提取器和由卷积层和全连接层组成的对抗学习器,训练时,以第二样本集对对抗学习网络进行训练,优化对抗学习器的网络参数;
(4)构建图像识别模型的训练体系,该训练体系包括第二特征提取器、第二分类器以及经步骤(3)训练参数确定的对抗学习器,第二特征提取器的输出分别输入至对抗学习器和第二分类器,其中,第二特征提取器、第二分类器与步骤(2)中训练前图像分类网络中的第一特征提取器和第一分类器的结构相同;
(5)以分类器的目标任务损失和对抗学习器的去除性别偏见损失之和作为训练体系的总损失,根据第三样本集,利用该总损失对训练体系进行训练,当训练结束后,提取参数确定的第二特征提取器和第二分类器作为图像识别模型。
第二方面,一种去性别偏见的图像识别模型,所述图像识别模型通过上述基于对抗学习的去性别偏见的图像识别模型的构建方法获得。
第三方面,一种去性别偏见的图像识别方法,包括以下步骤:
(a)利用上述基于对抗学习的去性别偏见的图像识别模型的构建方法构建参数确定的图像识别模型;
(b)将待识别图像输入至步骤(a)构建的图像识别模型中,经过计算输出去性别偏见的图像识别结果。
与现有技术相比,本发明具有的有益效果为:
本发明通过将图像识别模型中存在的偏见看成是对该图像识别模型的一种攻击,通过构造一个对抗学习网络来计算偏见的损失函数分数,与原始目标任务的损失函数分数进行叠加后作为总的损失函数来训练图像识别模型,从而降低图像识别模型对无关特征的敏感度,进一步保证深度学习模型做出决策的公平性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图做简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动前提下,还可以根据这些附图获得其他附图。
图1是本发明实施例提供的基于对抗学习的去性别偏见的图像识别模型的构建方法的流程图;
图2是本发明实施例提供的训练体系的结构示意图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例对本发明进行进一步的详细说明。应当理解,此处所描述的具体实施方式仅仅用以解释本发明,并不限定本发明的保护范围。
如图1所示,实施例提供了一种基于对抗学习的去性别偏见的图像识别模型的构建方法,包括以下步骤:
步骤1,构建第三样本集、不包含性别标签的第一样本集和仅包含性别标签的第二样本集。
针对图像识别任务,将把图像识别模型在做出决策时,受到无关但敏感特征的影响,并且其决策可能会会依赖于这种错误的特征关联的现象定义为模型的偏见行为,本发明实施例主要以性别偏见为主。认为性别标签是图像识别模型无关但敏感的特征,在其它标签的预测任务中,虽然不包括性别预测,但性别特征可能会影响其它分类任务,从而使深度学习产生性别歧视,即图像识别模型存在偏见。这种性别偏见会影响图像识别模型的识别结果,因此需要进行去性别偏见。
实施例中,以包含人的COCO子数据集作为第一样本集,并为第一样本集中的图像添加性别标签,该性别标签与图像形成第二样本集,将第一样本集和性别标签形成第三样本集。第一样本集中包括图像和图像的原始标签,第三样本集中包含图像,原始标签和性别标签。
第一样本集可以再分成训练集和测试集,用于图像分类网络的训练。第二样本集可以再分成训练集和测试集,用于对抗学习网络的训练。第三样本集用于训练体系的训练,以获得图像识别模型。以上第三样本集、第一样本集和第二样本集在作为训练样本输入网络之前,均需要进行归一化预处理。
步骤2,构建并训练图像分类网络。
实施例中,图像分类网络包括第一特征提取器和由至少2层全连接层和组成的第一分类器,其中,第一特征提取器用于提取输入样本图像的图像特征,第一分类器用于根据图像特征进行图像的分类,以识别图像中的内容。训练时,以第一样本集对图像分类网络进行训练,优化图像分类网络的网络参数。
具体地,第一特征提取器采用预训练的ResNet-50模型;预训练的ResNet-50模型是指研究人员经过训练以执行大量数据上的特定任务,在训练结束时结果比较好的一组权重值。在本发明中,ResNet-50模型的输入是COCO样本图像,输出是样本图像的特征分布,使用ResNet-50模型可以降低深度学习模型的训练时间。
第一分类器包括4层全连接层,全连接层采用ReLU函数,其输入为ResNet-50模型的输出,即样本图像的特征分布;还包括一个输出层,输出层采用logits层,经过softmax函数得到图像标签预测的概率分布。
训练图像分类网络时,训练参数Batch大小设为32,epoch最大值设为50;以第一样本集的训练集作为图像分类网络的输入,以输入图像的预测标签值与真实标签值的交叉熵作为损失函数,利用损失函数更新图像分类网络的网络参数。训练一段时间后,采用第一样本集的测试集对分类器进行测试,使其达到预设的分类准确率。
步骤3,构建并训练对抗学习网络。
实施例中,对抗学习网络包括经过步骤(2)训练后参数确定的第一特征提取器和由卷积层和全连接层组成的对抗学习器,其中,第一特征提取器用于提取输入样本图像的图像特征,对抗学习器用于识别样本图像的性别。训练时,以第二样本集对对抗学习网络进行训练,优化对抗学习器的网络参数。
具体地,对抗学习器包括3个卷积层和4个全连接层,全连接层采用ReLU函数,其输入是ResNet-50模型的输出,即样本数据的特征分布,还包括一个输出层,输出层采用logits层,经过softmax函数得到图像性别预测的概率分布。
训练对抗学习网络时,训练参数Batch大小设为32,epoch最大值设为70;以第二样本集的训练集作为图像分类网络的输入,以输入图像的预测性别标签值与真实性别标签值的交叉熵作为损失函数,利用损失函数更新对抗学习器的网络参数。训练一段时间后,采用第二样本集的测试集对对抗学习器进行测试,使其达到预设的分类准确率。
步骤4,构建图像识别模型的训练体系。
实施例中,图像识别模型的训练体系包括第二特征提取器、第二分类器以及经步骤(3)训练参数确定的对抗学习器,第二特征提取器的输出分别输入至对抗学习器和分类器,其中,训练体系中的第二特征提取器、第二分类器与步骤(2)中训练前图像分类网络中的第一特征提取器和第一分类器的结构相同。也就是说训练体系中的对抗学习器的网络参数是确定的,在训练的过程中不再改变;第二特征提取器和第二分类器的网络参数在训练过程中是需要经过样本图像进行优化的。
步骤5,构建总损失,并根据总损失对图像识别模型的训练体系进行训练,以获得图像识别模型。
实施例中,以分类器的目标任务损失和对抗学习器的去除性别偏见损失之和作为训练体系的总损失,根据第三样本集,利用该总损失对训练体系进行训练,当训练结束后,提取参数确定的第二特征提取器和第二分类器作为图像识别模型。
具体地,训练体系的总损失Loss为:
Loss=Loss_Y+Loss_Adv (1)
Loss_Y为目标任务损失,计算公式为:
其中,i为样本图像的索引,xi为不含性别标签的样本图像,N为样本图像总数,c1(xi)为样本图像xi输入至网络参数经训练确定的图像分类网络后,图像分类网络的输出矩阵,c2(xi)为样本图像xi输入至训练体系中第二特征提取器、第二分类器后,第二分类器的输出矩阵,k为输出矩阵c2(xi)或的c1(xi)维度,在计算目标任务的损失函数Loss_Y时,为了直接将图像分类网络中的第一分类器对于目标任务的学习知识迁移到训练体系中第二分类器中,采用软标签c1(xi)替代样本图像xi的真实标签。
Loss_Adv为去除性别偏见损失,计算公式为:
Loss_Adv=-λ∑L(adv(hi),Zi) (3)
λ是用于调节去除性别偏见损失占比的超参数,Zi是样本图像xi的真实性别标签,hi是样本图像xi输入至训练体系中特征提取器后输出的特征向量;L(adv(hi),Zi)表示hi输入至对抗学习器输出的性别预测值adv(hi)与的真实性别标签Zi的交叉熵。
在对训练体系训练时,设置批次Batch大小设为32,训练最大迭代次数设为50;分类器的网络参数采用Adam优化器进行更新,Adam优化器参数中,学习率alpha设置为0.001,第一次估计的指数衰减率beta1设为0.9,第二次估计的指数衰减率beta2设为0.999,模糊因子epsilon设为10-8;将第三样本集中的图像输入至训练体系的第二特征提取器中,根据总损失函数更新训练体系中第二特征提取器、第二分类器的网络参数,训练结束后,取参数确定的第二特征提取器和第二分类器作为图像识别模型。
步骤6,评价图像识别模型的去性别偏见性能
在获得图像识别模型后,还对图像识别模型进行去性别偏见性能的评价,当图像识别模型的去性别偏见性能不满足要求时,继续利用训练体系对图像识别模型进行训练;
具体去性别偏见性能的评价过程为:
利用公式(4)计算图像识别模型的去性别偏见性能值β:
其中,Zi是样本图像xi的真实性别标签,adv(hi)为hi输入至对抗学习器输出的性别预测值,hi是样本图像xi输入至第二特征提取器后输出的特征向量,i为样本图像的索引,n为样本图像的总个数,当adv(hi)等于Zi时,f(adv(hi)==Zi)取值为1,当adv(hi)不等于Zi时,f(adv(hi)==Zi)取值为0;
当去性别偏见性能值β越接近于1,表示图像识别模型的去性别偏见性能越好,当去性别偏见性能值β小于阈值时,则认为图像识别模型的去性别偏见性能不满足要求。
实施例还提供了一种去性别偏见的图像识别模型,所述图像识别模型通过上述基于对抗学习的去性别偏见的图像识别模型的构建方法获得。
实施例还提供了一种去性别偏见的图像识别方法,包括以下步骤:
(a)利用上述基于对抗学习的去性别偏见的图像识别模型的构建方法构建参数确定的图像识别模型;
(b)将待识别图像输入至步骤(a)构建的图像识别模型中,经过计算输出去性别偏见的图像识别结果。
上述基于对抗学习的去性别偏见的图像识别模型的构建方法,采用一种基于对抗学习的策略,提出了一种新的无偏模型训练框架,通过对抗学习网络来获得样本数据在图像识别模型中的偏见损失函数,通过模型知识迁移和对抗学习的训练方法,能够生成无偏见的图像识别模型,不仅保证了原始目标分类任务的性能,也降低了图像识别对无关特征的敏感度,从而进一步保证深度学习模型在做出决策时的公平性;本发明采用ResNet-50预训练模型作为底层模型,降低了图像识别模型的训练时间。
以上所述的具体实施方式对本发明的技术方案和有益效果进行了详细说明,应理解的是以上所述仅为本发明的最优选实施例,并不用于限制本发明,凡在本发明的原则范围内所做的任何修改、补充和等同替换等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种基于对抗学习的去性别偏见的图像识别模型的构建方法,其特征在于,包括以下步骤:
(1)准备包含人类信息的COCO子数据集作为第一样本集,并为第一样本集中的图像添加性别标签,该性别标签与图像形成第二样本集,将第一样本集和性别标签形成第三样本集;
(2)构建并训练图像分类网络,该图像分类网络包括第一特征提取器和由至少2层全连接层组成的第一分类器,训练时,以第一样本集对图像分类网络进行训练,优化图像分类网络的网络参数;
(3)构建并训练对抗学习网络,该对抗学习网络包括经过步骤(2)训练后参数确定的第一特征提取器和由卷积层和全连接层组成的对抗学习器,训练时,以第二样本集对对抗学习网络进行训练,优化对抗学习器的网络参数;
(4)构建图像识别模型的训练体系,该训练体系包括第二特征提取器、第二分类器以及经步骤(3)训练参数确定的对抗学习器,第二特征提取器的输出分别输入至对抗学习器和第二分类器,其中,第二特征提取器、第二分类器与步骤(2)中训练前图像分类网络中的第一特征提取器和第一分类器的结构相同;
(5)以第二分类器的目标任务损失和对抗学习器的去除性别偏见损失之和作为训练体系的总损失,根据第三样本集,利用该总损失对训练体系进行训练,当训练结束后,提取参数确定的第二特征提取器和第二分类器作为图像识别模型;
其中,训练体系的总损失Loss为:
Loss=Loss_Y+Loss_Adv (1)
Loss_Y为目标任务损失,计算公式为:
Loss_Adv为去除性别偏见损失,计算公式为:
Loss_Adv=-λ∑L(adv(hi),Zi) (3)
其中,i为样本图像的索引,xi为不含性别标签的样本图像,N为样本图像总数,c1(xi)为样本图像xi输入至网络参数经训练确定的图像分类网络后,图像分类网络的输出矩阵,c2(xi)为样本图像xi输入至训练体系中第二征提取器、第二分类器后,第二分类器的输出矩阵,k为输出矩阵c2(xi)或c1(xi)的维度,λ是用于调节去除性别偏见损失占比的超参数,Zi是样本图像xi的真实性别标签,hi是样本图像xi输入至训练体系中第二特征提取器后输出的特征向量;L(adv(hi),Zi)表示hi输入至对抗学习器输出的性别预测值adv(hi)与的真实性别标签Zi的交叉熵。
2.如权利要求1所述的基于对抗学习的去性别偏见的图像识别模型的构建方法,其特征在于,所述第一特征提取器采用预训练的ResNet-50模型;所述第一分类器包括4层全连接层,全连接层采用ReLU函数,其输入为ResNet-50模型的输出;还包括一个输出层,输出层采用logits层,经过softmax函数得到图像标签预测的概率分布。
3.如权利要求1或2所述的基于对抗学习的去性别偏见的图像识别模型的构建方法,其特征在于,训练图像分类网络时,训练参数Batch大小设为32,epoch最大值设为50;以输入图像的预测标签值与真实标签值的交叉熵作为损失函数,利用损失函数更新图像分类网络的网络参数。
4.如权利要求1所述的基于对抗学习的去性别偏见的图像识别模型的构建方法,其特征在于,所述对抗学习器包括3个卷积层和4个全连接层,全连接层采用ReLU函数,还包括一个输出层,输出层采用logits层,经过softmax函数得到图像性别预测的概率分布。
5.如权利要求1所述的基于对抗学习的去性别偏见的图像识别模型的构建方法,其特征在于,训练对抗学习网络时,训练参数Batch大小设为32,epoch最大值设为70;以输入图像的预测性别标签值与真实性别标签值的交叉熵作为损失函数,利用损失函数更新对抗学习器的网络参数。
6.如权利要求1所述的基于对抗学习的去性别偏见的图像识别模型的构建方法,其特征在于,在对训练体系训练时,设置Batch大小设为32,训练最大迭代次数设为50;分类器的网络参数采用Adam优化器进行更新,Adam优化器参数中,学习率alpha设置为0.001,第一次估计的指数衰减率beta1设为0.9,第二次估计的指数衰减率beta2设为0.999,模糊因子epsilon设为10-8;将第三样本集中的图像输入至训练体系的第二特征提取器中,根据总损失函数更新训练体系中第二特征提取器、第二分类器的网络参数,训练结束后,取参数确定的第二特征提取器和第二分类器作为图像识别模型。
7.如权利要求1所述的基于对抗学习的去性别偏见的图像识别模型的构建方法,其特征在于,在获得图像识别模型后,还对图像识别模型进行去性别偏见性能的评价,当图像识别模型的去性别偏见性能不满足要求时,继续利用训练体系对图像识别模型进行训练;
具体去性别偏见性能的评价过程为:
利用公式(4)计算图像识别模型的去性别偏见性能值β:
其中,Zi是样本图像xi的真实性别标签,adv(hi)为hi输入至对抗学习器输出的性别预测值,hi是样本图像xi输入至第二特征提取器后输出的特征向量,i为样本图像的索引,n为样本图像的总个数,当adv(hi)等于Zi时,f(adv(hi)==Zi)取值为1,当adv(hi)不等于Zi时,f(adv(hi)==Zi)取值为0;
当去性别偏见性能值β越接近于1,表示图像识别模型的去性别偏见性能越好,当去性别偏见性能值β小于阈值时,则认为图像识别模型的去性别偏见性能不满足要求。
8.一种去性别偏见的图像识别模型,其特征在于,所述图像识别模型通过如权利要求1~7任一项所述的基于对抗学习的去性别偏见的图像识别模型的构建方法获得。
9.一种去性别偏见的图像识别方法,其特征在于,包括以下步骤:
(a)利用权利要求1~7任一项所述的基于对抗学习的去性别偏见的图像识别模型的构建方法构建参数确定的图像识别模型;
(b)将待识别图像输入至步骤(a)构建的图像识别模型中,经过计算输出去性别偏见的图像识别结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010619858.1A CN111753918B (zh) | 2020-06-30 | 2020-06-30 | 一种基于对抗学习的去性别偏见的图像识别模型及应用 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010619858.1A CN111753918B (zh) | 2020-06-30 | 2020-06-30 | 一种基于对抗学习的去性别偏见的图像识别模型及应用 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111753918A CN111753918A (zh) | 2020-10-09 |
CN111753918B true CN111753918B (zh) | 2024-02-23 |
Family
ID=72678759
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010619858.1A Active CN111753918B (zh) | 2020-06-30 | 2020-06-30 | 一种基于对抗学习的去性别偏见的图像识别模型及应用 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111753918B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113077057B (zh) * | 2021-04-20 | 2022-09-06 | 中国科学技术大学 | 无偏机器学习方法 |
CN113298254A (zh) * | 2021-06-10 | 2021-08-24 | 浙江工业大学 | 面向深度迁移学习的去偏方法及其装置 |
CN113792630B (zh) * | 2021-08-31 | 2023-11-07 | 北京大学 | 一种基于对比学习的地外探测图像识别方法及系统 |
CN114419379A (zh) * | 2022-03-30 | 2022-04-29 | 浙江大学 | 一种基于对抗性扰动的深度学习模型公平性提升系统及方法 |
CN114970670A (zh) * | 2022-04-12 | 2022-08-30 | 阿里巴巴(中国)有限公司 | 模型公平性评估方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108197525A (zh) * | 2017-11-20 | 2018-06-22 | 中国科学院自动化研究所 | 人脸图像生成方法及装置 |
CN110741388A (zh) * | 2019-08-14 | 2020-01-31 | 东莞理工学院 | 对抗样本检测方法、装置、计算设备及计算机存储介质 |
CN110837850A (zh) * | 2019-10-23 | 2020-02-25 | 浙江大学 | 一种基于对抗学习损失函数的无监督域适应方法 |
-
2020
- 2020-06-30 CN CN202010619858.1A patent/CN111753918B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108197525A (zh) * | 2017-11-20 | 2018-06-22 | 中国科学院自动化研究所 | 人脸图像生成方法及装置 |
CN110741388A (zh) * | 2019-08-14 | 2020-01-31 | 东莞理工学院 | 对抗样本检测方法、装置、计算设备及计算机存储介质 |
CN110837850A (zh) * | 2019-10-23 | 2020-02-25 | 浙江大学 | 一种基于对抗学习损失函数的无监督域适应方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111753918A (zh) | 2020-10-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111753918B (zh) | 一种基于对抗学习的去性别偏见的图像识别模型及应用 | |
CN112115963B (zh) | 一种基于迁移学习生成无偏见深度学习模型的方法 | |
CN110490239B (zh) | 图像质控网络的训练方法、质量分类方法、装置及设备 | |
CN111125406A (zh) | 一种基于自适应聚类学习的视觉关系检测方法 | |
CN114239585A (zh) | 一种生物医学嵌套命名实体识别方法 | |
CN112560948B (zh) | 数据偏差下的眼底图分类方法及成像方法 | |
CN113159066B (zh) | 基于类间相似度的分布式标签的细粒度图像识别算法 | |
CN114417913B (zh) | 基于pc-tcn和迁移学习的轴承寿命预测方法 | |
CN112529638B (zh) | 基于用户分类和深度学习的服务需求动态预测方法及系统 | |
CN112819024B (zh) | 模型处理方法、用户数据处理方法及装置、计算机设备 | |
CN116310519A (zh) | 一种半监督深度学习的表面缺陷分类方法 | |
CN105809119A (zh) | 一种基于稀疏低秩结构多任务学习的行为识别方法 | |
CN110458022A (zh) | 一种基于域适应的可自主学习目标检测方法 | |
CN112883931A (zh) | 基于长短期记忆网络的实时真假运动判断方法 | |
CN117152503A (zh) | 一种基于伪标签不确定性感知的遥感图像跨域小样本分类方法 | |
CN116029604B (zh) | 一种基于健康舒适度的笼养肉鸭养殖环境调控方法 | |
CN117094835A (zh) | 面向社交媒体内容的多目标群体分类方法 | |
CN116433909A (zh) | 基于相似度加权多教师网络模型的半监督图像语义分割方法 | |
CN111275025A (zh) | 一种基于深度学习的车位检测方法 | |
CN111860441B (zh) | 基于无偏深度迁移学习的视频目标识别方法 | |
CN115712574A (zh) | 一种面向人工智能组件的测试用例生成方法 | |
CN112597842B (zh) | 基于人工智能的运动检测面瘫程度评估系统 | |
CN116028803A (zh) | 一种基于敏感属性再平衡的去偏方法 | |
CN115293249A (zh) | 一种基于动态时序预测的电力系统典型场景概率预测方法 | |
CN114462466A (zh) | 一种面向深度学习的数据去偏方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |