CN114973350A - 一种源域数据无关的跨域人脸表情识别方法 - Google Patents
一种源域数据无关的跨域人脸表情识别方法 Download PDFInfo
- Publication number
- CN114973350A CN114973350A CN202210302610.1A CN202210302610A CN114973350A CN 114973350 A CN114973350 A CN 114973350A CN 202210302610 A CN202210302610 A CN 202210302610A CN 114973350 A CN114973350 A CN 114973350A
- Authority
- CN
- China
- Prior art keywords
- source domain
- domain
- loss
- model
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000008921 facial expression Effects 0.000 title claims abstract description 45
- 238000000034 method Methods 0.000 title claims abstract description 35
- 238000012549 training Methods 0.000 claims abstract description 55
- 238000009826 distribution Methods 0.000 claims abstract description 29
- 230000003044 adaptive effect Effects 0.000 claims abstract description 21
- 238000009499 grossing Methods 0.000 claims abstract description 8
- 238000007781 pre-processing Methods 0.000 claims abstract description 8
- 238000001514 detection method Methods 0.000 claims abstract description 7
- 239000010410 layer Substances 0.000 claims description 43
- 230000014509 gene expression Effects 0.000 claims description 20
- 239000002356 single layer Substances 0.000 claims description 12
- 230000009466 transformation Effects 0.000 claims description 10
- 238000010606 normalization Methods 0.000 claims description 8
- 230000004913 activation Effects 0.000 claims description 6
- 238000013527 convolutional neural network Methods 0.000 claims description 5
- 238000011478 gradient descent method Methods 0.000 claims description 4
- 238000003064 k means clustering Methods 0.000 claims description 4
- 239000000203 mixture Substances 0.000 claims description 2
- 230000006870 function Effects 0.000 description 19
- 238000012360 testing method Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000003042 antagnostic effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 229910052731 fluorine Inorganic materials 0.000 description 1
- 125000001153 fluoro group Chemical group F* 0.000 description 1
- 230000008014 freezing Effects 0.000 description 1
- 238000007710 freezing Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种源域数据无关的跨域人脸表情识别方法,首先对数据集中的数据进行人脸检测及裁剪等预处理;然后,针对在跨域人脸表情识别模型训练时源域数据访问受限的问题,构建了源域数据无关的跨域人脸表情识别模型;在计算模型损失时,本发明构建了源域数据无关的自适应损失函数,通过最小化Tsallis熵增加预测标签的确信度,同时最大化预测标签种类,据此联合计算信息最大化损失,随后计算交叉熵损失,还使用虚拟对抗训练的方法最小化模型的局部分布平滑损失。本发明直接从训练好的源域模型出发,解决了源域数据访问受限时较难进行跨域人脸表情识别的问题;进一步提高了人脸表情识别的准确率,实现了对人脸表情的高效识别。
Description
技术领域
本发明属于模式识别技术领域,具体涉及一种跨域人脸表情识别方法。
背景技术
基于深度学习方法进行人脸表情识别,只有在训练集和测试集数据独立同分布时, 才能在测试集上取得良好的识别结果。然而在实际应用中,经常会遇到训练时所用的人脸表情数据(源域)和测试时的人脸表情数据(目标域)来自于不同分布的领域, 即跨域人脸表情识别问题。由于不同域之间的数据分布存在差异,这会导致直接使用 源域数据训练得到的人脸表情识别模型在目标域数据上的识别准确率表现不佳。同时 现在人们对隐私的关注和担忧越来越多,很多学者在公开自己算法的同时,选择不公 开数据集,这就使得其他人较难直接获取大量的人脸表情数据,从而进一步增大了跨 域人脸表情识别的难度。
文献“Chen T,Pu T,Wu H,et al.Cross-domain facial expressionrecognition:A unified evaluation benchmark and adversarial graph learning[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2021,doi:10.1109/TPAMI.2021.3131222.”公开了一种 跨域人脸表情识别方法,该方法首先对输入图像提取整体特征和局部特征,并构建两 个图网络分别关联同一领域内和不同领域之间的整体特征和局部特征。然后,使用不 同种类人脸表情的特征统计分布来初始化相应的图节点。最后,采用两个堆叠的图卷 积网络,一个在域内传播整体和局部特征,以此探索整体区域与局部区域的相互关系, 另一个在不同域间传播整体和局部特征,从而进行整体和局部特征的协同适应。但是, 该方法存在以下问题:该方法进行跨域人脸表情识别任务时,需要直接访问源域人脸 表情数据集,并基于源域数据进行无监督领域的自适应训练,而当源域数据访问受限 时该跨域人脸表情识别方法则无法使用。
发明内容
为了克服现有技术的不足,本发明提供了一种源域数据无关的跨域人脸表情识别方法,首先对数据集中的数据进行人脸检测及裁剪等预处理;然后,针对在跨域人脸 表情识别模型训练时源域数据访问受限的问题,构建了源域数据无关的跨域人脸表情 识别模型;在计算模型损失时,本发明构建了源域数据无关的自适应损失函数,通过 最小化Tsallis熵增加预测标签的确信度,同时最大化预测标签种类,据此联合计算信 息最大化损失,随后计算交叉熵损失,还使用虚拟对抗训练的方法最小化模型的局部 分布平滑损失。本发明直接从训练好的源域模型出发,解决了源域数据访问受限时较 难进行跨域人脸表情识别的问题;进一步提高了人脸表情识别的准确率,实现了对人 脸表情的高效识别。
本发明解决其技术问题所采用的技术方案包括如下步骤:
步骤1:数据预处理及扩充;
对源域图像集和目标域图像集中的图像进行人脸检测后,再进行人脸裁剪,得到人脸图像;
再对人脸图像进行镜面翻转变换、旋转变换、引入高斯噪声的数据增强方式,并将处理后的人脸图像作为源域样本和目标域样本分别放到源域图像训练集和目标域图 像训练集中,起到扩充数据的目的;
步骤2:构建源域数据无关的跨域人脸表情识别模型;
构建源域模型:所述源域模型的骨干网络采用卷积神经网络IR-50;源域模型的特征提取器骨干部分由4个残差层组成,每个残差层由多个残差单元组成;将分类器中 的单层全连接层替换为一个瓶颈层和一个任务相关的全连接层,所述瓶颈层包括一个 单层全连接层、一个批量归一化层;所述任务相关的全连接层包括一个单层全连接层、 一个权重归一化层;
构建目标域模型:采用源域图像训练集训练源域模型,将训练完成的源域模型作为目标域模型;
步骤3:基于源域数据无关自适应损失的表情类别判定;
步骤3-1:构建源域数据无关自适应损失函数,包括如下4部分;
步骤3-1-1:Tsallis熵损失;
定义Tsallis熵如式(1):
其中α>0,为熵指数;y[i]表示预测标签,i为预测标签数量;根据Tsallis熵最小化的 要求,Tsallis熵损失的表达式为:
其中ft表示目标域模型;xt表示来自目标域图像训练集中的样本;ft(xt)=ht(gt(xt)) 表示目标域样本的K维逻辑输出,gt(xt)表示xt经过特征提取器gt得到的输出;δk表示经过Softmax激活;
步骤3-1-2:标签多样化损失;
定义为:
步骤3-1-3:伪标签交叉熵损失;
表达式为:
步骤3-1-4:局部分布平滑损失;
表达式为:
其中rvadv表示在目标域样本xt加入的扰动,D[q,p]是一个非负函数,用于衡量p和q之 间分布的差异,p(y|xt,ft)表示不加扰动时的预测标签分布,p(y|xt+rvadv,ft)表示 加入扰动后的预测标签分布;
步骤3-1-5:将Tsallis熵损失、标签多样化损失、伪标签交叉熵损失和局部分布平滑损失结合,构建源域数据无关自适应损失函数:
其中λ和β为超参数,用于平衡各损失;
步骤3-2:使用目标域图像训练集训练目标域模型,在训练时保持分类器参数不变,首先提取目标域样本的特征,并根据K-means聚类获得每个类别特征的聚类中心; 随后,根据样本特征点与类别特征聚类中心的远近,得到目标域样本的伪标签,根据 更新的伪标签重新更新聚类中心;然后再开始更新分类器参数,同时不断更新目标域 样本的伪标签和每个类别的特征聚类中心,直到源域数据无关自适应损失函数最小; 在训练时通过反向传播使用随机梯度下降法更新网络参数;
步骤3-3:使用训练完成的目标域模型实现人脸表情分类。
本发明的有益效果如下:
本发明通过计算交叉熵损失,可以提高识别模型的识别精度,而通过使用虚拟对抗训练的方法则可以进一步提高模型的鲁棒性。本发明将公共人脸表情数据集RAF- DB作为源域,EXPW作为目标域时的识别率为70.84%,相比于文献方法的识别率 68.50%具有显著的优越性。此外,本发明无需直接访问源域数据,只需访问源域模型, 适合在源域数据访问受限的场景使用,能有效扩展跨域人脸表情识别算法的应用场景。
具体实施方式
现有的基于深度学习的跨域人脸表情识别方法都需要直接访问源域数据,而在源域数据访问受限时现有的跨域人脸表情识别方法失效,影响实际应用。针对以上问题, 本发明提出了一种源域数据无关的跨域人脸表情识别方法。
一种源域数据无关的跨域人脸表情识别方法,包括如下步骤:
步骤1:数据预处理及扩充;
对源域图像集和目标域图像集中的图像进行人脸检测后,再进行人脸裁剪,得到人脸图像;
再对人脸图像进行镜面翻转变换、旋转变换、引入高斯噪声的数据增强方式,并将处理后的人脸图像作为源域样本和目标域样本分别放到源域图像训练集和目标域图 像训练集中,起到扩充数据的目的;
步骤2:构建源域数据无关的跨域人脸表情识别模型;
构建源域模型:所述源域模型的骨干网络采用卷积神经网络IR-50;源域模型的特征提取器骨干部分由4个残差层组成,每个残差层由多个残差单元组成;将分类器中 的单层全连接层替换为一个瓶颈层和一个任务相关的全连接层,所述瓶颈层包括一个 单层全连接层、一个批量归一化层;所述任务相关的全连接层包括一个单层全连接层、 一个权重归一化层;
构建目标域模型:采用源域图像训练集训练源域模型,将训练完成的源域模型作为目标域模型;
步骤3:基于源域数据无关自适应损失的表情类别判定;
步骤3-1:构建源域数据无关自适应损失函数,包括如下4部分;
步骤3-1-1:Tsallis熵损失;
定义Tsallis熵如式(1):
其中α>0,为熵指数;y[i]表示预测标签,i为预测标签数量;根据Tsallis熵最小化的 要求,Tsallis熵损失的表达式为:
步骤3-1-2:标签多样化损失;
定义为:
步骤3-1-3:伪标签交叉熵损失;
表达式为:
步骤3-1-4:局部分布平滑损失;
表达式为:
其中rvadv表示在目标域样本xt加入的扰动,D[q,p]是一个非负函数,用于衡量p和q之间分布的差异,p(y|xt,ft)表示不加扰动时的预测标签分布,p(y|xt+rvadv,ft)表 示加入扰动后的预测标签分布;
步骤3-1-5:将Tsallis熵损失、标签多样化损失、伪标签交叉熵损失和局部分布平滑损失结合,构建源域数据无关自适应损失函数:
其中λ和β为超参数,用于平衡各损失;
步骤3-2:使用目标域图像训练集训练目标域模型,在训练时保持分类器参数不变,首先提取目标域样本的特征,并根据K-means聚类获得每个类别特征的聚类中心; 随后,根据样本特征点与类别特征聚类中心的远近,得到目标域样本的伪标签,根据 更新的伪标签重新更新聚类中心;然后再开始更新分类器参数,同时不断更新目标域 样本的伪标签和每个类别的特征聚类中心,直到源域数据无关自适应损失函数最小; 在训练时通过反向传播使用随机梯度下降法更新网络参数;
步骤3-3:使用训练完成的目标域模型实现人脸表情分类。
具体实施例:
(a)将数据集中的数据进行预处理和扩充。首先对数据集中的数据进行人脸检测及 人脸裁剪等预处理操作。为了进一步扩充训练数据,采取镜面翻转变换、旋转变换、 引入高斯噪声等数据增强方式,对数据集中数据进行处理,并将处理后的数据放回到 训练集中,起到扩充数据的目的。
(b)构建源域数据无关的跨域人脸表情识别模型。针对在跨域人脸表情识别模型训 练时源域数据访问受限的问题,为了充分利用网络模型的先验知识,对源域和目标域训练模型的骨干网络都使用经典卷积神经网络IR-50,两个模型的特征提取器参数不 同,分类器参数相同。为了模拟源域数据访问受限的情况,采用带标签的源域样本训 练一个源域模型;训练结束后,将源域数据丢弃,只将源域模型保存,后续过程不再 访问源域数据,此后使用源域模型参数完成对目标域模型参数的初始化。
(c)基于源域数据无关自适应损失对表情类别进行判定。通过最小化Tsallis熵增加 预测标签的确信度,同时最大化预测标签种类,用于防止模型发生坍塌,据此联合计 算信息最大化损失。随后,为了提高预测标签的准确度并充分挖掘伪标签中的信息, 使用深度聚类方法获得伪标签,进而根据该伪标签计算交叉熵损失。为了进一步提升 模型的鲁棒性,使用虚拟对抗训练的方法最小化模型的局部分布平滑损失。最后联合 信息最大化损失、交叉熵损失和局部分布平滑损失构建源域数据无关自适应损失,作 为网络训练的损失函数,优化网络性能,完成表情类别的判定。
具体如下:
1、数据预处理及扩充
基于人脸68个基准点,对输入的人脸图片进行人脸检测和人脸裁剪等预处理操作。
为了进一步扩充训练数据,本实施例采取镜面翻转变换、旋转变换、引入高斯噪声等数据增强方式,对数据集中数据进行处理,并将处理后的数据放回到训练集中, 起到扩充数据的目的。
2、源域数据无关的跨域人脸表情识别模型构建
本实施例对源域和目标域训练模型的骨干网络都使用经典卷积神经网络IR-50,两个模型的特征提取器参数不同,分类器参数相同。特征提取器骨干部分是由4个大 的残差层组成,每个大的残差层由一系列改进的残差单元组成。为了更好适配跨域人 脸表情识别任务,将IR-50分类器模块中的单层全连接层替换为一个瓶颈层和一个任 务相关的全连接层,瓶颈层包含一个单层全连接层,一个批量归一化层;而任务相关 的全连接层包含一个单层全连接层,一个权重归一化层。
为了模拟真实源域数据访问受限的情况,本实施例首先用带标签的源域样本训练一个源域模型;训练结束后,将源域数据丢弃,只将源域模型保存,后续过程不再访 问源域数据;然后,将训练好的源域模型参数拷贝到目标域模型中,并将目标域模型 的中分类器参数进行冻结,完成对目标域模型参数的初始化。
3、基于源域数据无关自适应损失的表情类别判定
与普通跨域人脸表情识别不同,在源域数据访问受限的情况下,训练目标域模型时无法直接访问源域数据,亦无法获得源域数据的特征分布,因此无法直接将源域和 目标域样本进行特征空间对齐。通过构建基于源域数据无关的自适应损失函数,将源 域和目标域样本的特征空间对齐问题转化为源域模型的输出与目标域模型的预测输出 格式需要尽可能保持一致的问题,并通过最小化目标域样本预测标签的Tsallis熵增加 预测标签的预测确信度。对于使用Softmax激活的模型输出预测值为本实施 例所使用的α-Tsallis熵可以表示为:
其中α>0,为熵指数,y[i]表示预测标签,根据Tsallis熵最小化的要求,Tsallis熵损 失的表达式为:
为了防止模型退化,本实施例使用了标签多样化损失,使得模型给出的预测类别尽可能多样。损失函数定义为:
为了消除只使用信息最大化损失约束模型训练时,部分目标域样本被聚集到错误的类别,从而出现确信偏差的问题,本实施例使用了伪标签交叉熵损失进一步约束模 型的优化。在计算伪标签交叉熵损失时,首先提取目标域样本的特征,并根据K-means 聚类获得每个类别特征的聚类中心;随后,根据样本特征点与类别特征聚类中心的远 近,得到目标域样本的伪标签,根据更新的伪标签重新更新聚类中心。在训练时,不 断更新目标域样本的伪标签和每个类别的特征聚类中心。最后使用目标域的样本和伪 标签计算分类交叉熵损失,其表达式为:
为了减弱噪声标签对模型训练的影响,本发明同时引入了虚拟对抗训练方式作为正则项进行模型训练,通过最小化局部分布平滑损失,可以使得整个模型在每个样本 处的预测更加平滑。本发明中所使用的局部分布平滑损失函数为:
其中rvadv表示在目标域样本xt加入的扰动,D[q,p]是一个非负函数,用于衡量p和q之 间分布的差异,p(y|xt,ft)表示不加扰动时的预测标签分布,p(y|xt,ft)表示加入扰动后的预测标签分布。
本实施例将信息最大化损失、局部分布平滑损失和伪标签交叉熵损失相结合,构建了源域数据无关的自适应损失,完成最终的表情类别判定。本发明所构建的源域数 据无关自适应损失函数的表达式为:
其中λ和β为超参数,用于平衡信息最大化损失、局部分布平滑损失和伪标签交叉熵损失。本实施例的网络参数都通过反向传播使用随机梯度下降法进行更新。
Claims (1)
1.一种源域数据无关的跨域人脸表情识别方法,其特征在于,包括如下步骤:
步骤1:数据预处理及扩充;
对源域图像集和目标域图像集中的图像进行人脸检测后,再进行人脸裁剪,得到人脸图像;
再对人脸图像进行镜面翻转变换、旋转变换、引入高斯噪声的数据增强方式,并将处理后的人脸图像作为源域样本和目标域样本分别放到源域图像训练集和目标域图像训练集中,起到扩充数据的目的;
步骤2:构建源域数据无关的跨域人脸表情识别模型;
构建源域模型:所述源域模型的骨干网络采用卷积神经网络IR-50;源域模型的特征提取器骨干部分由4个残差层组成,每个残差层由多个残差单元组成;将分类器中的单层全连接层替换为一个瓶颈层和一个任务相关的全连接层,所述瓶颈层包括一个单层全连接层、一个批量归一化层;所述任务相关的全连接层包括一个单层全连接层、一个权重归一化层;
构建目标域模型:采用源域图像训练集训练源域模型,将训练完成的源域模型作为目标域模型;
步骤3:基于源域数据无关自适应损失的表情类别判定;
步骤3-1:构建源域数据无关自适应损失函数,包括如下4部分;
步骤3-1-1:Tsallis熵损失;
定义Tsallis熵如式(1):
其中α>0,为熵指数;y[i]表示预测标签,i为预测标签数量;根据Tsallis熵最小化的要求,Tsallis熵损失的表达式为:
其中ft表示目标域模型;xt表示来自目标域图像训练集中的样本;ft(xt)=ht(gt(xt))表示目标域样本的K维逻辑输出,gt(xt)表示xt经过特征提取器gt得到的输出;δk表示经过Softmax激活;
步骤3-1-2:标签多样化损失;
定义为:
步骤3-1-3:伪标签交叉熵损失;
表达式为:
步骤3-1-4:局部分布平滑损失;
表达式为:
其中rvadv表示在目标域样本xt加入的扰动,D[q,p]是一个非负函数,用于衡量p和q之间分布的差异,p(y∣xt,ft)表示不加扰动时的预测标签分布,p(y∣xt+rvadv,ft)表示加入扰动后的预测标签分布;
步骤3-1-5:将Tsallis熵损失、标签多样化损失、伪标签交叉熵损失和局部分布平滑损失结合,构建源域数据无关自适应损失函数:
其中λ和β为超参数,用于平衡各损失;
步骤3-2:使用目标域图像训练集训练目标域模型,在训练时保持分类器参数不变,首先提取目标域样本的特征,并根据K-means聚类获得每个类别特征的聚类中心;随后,根据样本特征点与类别特征聚类中心的远近,得到目标域样本的伪标签,根据更新的伪标签重新更新聚类中心;然后再开始更新分类器参数,同时不断更新目标域样本的伪标签和每个类别的特征聚类中心,直到源域数据无关自适应损失函数最小;在训练时通过反向传播使用随机梯度下降法更新网络参数;
步骤3-3:使用训练完成的目标域模型实现人脸表情分类。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210302610.1A CN114973350B (zh) | 2022-03-24 | 2022-03-24 | 一种源域数据无关的跨域人脸表情识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210302610.1A CN114973350B (zh) | 2022-03-24 | 2022-03-24 | 一种源域数据无关的跨域人脸表情识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114973350A true CN114973350A (zh) | 2022-08-30 |
CN114973350B CN114973350B (zh) | 2024-02-27 |
Family
ID=82976421
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210302610.1A Active CN114973350B (zh) | 2022-03-24 | 2022-03-24 | 一种源域数据无关的跨域人脸表情识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114973350B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116385808A (zh) * | 2023-06-02 | 2023-07-04 | 合肥城市云数据中心股份有限公司 | 大数据跨域图像分类模型训练方法、图像分类方法和系统 |
CN118364299A (zh) * | 2024-06-19 | 2024-07-19 | 苏州元脑智能科技有限公司 | 样本扩充方法、电子设备、计算机可读介质及产品 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180330205A1 (en) * | 2017-05-15 | 2018-11-15 | Siemens Aktiengesellschaft | Domain adaptation and fusion using weakly supervised target-irrelevant data |
CN111444859A (zh) * | 2020-03-30 | 2020-07-24 | 哈尔滨工程大学 | 一种无监督跨域人脸表情识别方法 |
CN112069940A (zh) * | 2020-08-24 | 2020-12-11 | 武汉大学 | 一种基于分阶段特征学习的跨域行人重识别方法 |
CN113128287A (zh) * | 2019-12-31 | 2021-07-16 | 暗物智能科技(广州)有限公司 | 训练跨域人脸表情识别模型、人脸表情识别的方法及系统 |
WO2022001489A1 (zh) * | 2020-06-28 | 2022-01-06 | 北京交通大学 | 一种无监督域适应的目标重识别方法 |
-
2022
- 2022-03-24 CN CN202210302610.1A patent/CN114973350B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180330205A1 (en) * | 2017-05-15 | 2018-11-15 | Siemens Aktiengesellschaft | Domain adaptation and fusion using weakly supervised target-irrelevant data |
CN113128287A (zh) * | 2019-12-31 | 2021-07-16 | 暗物智能科技(广州)有限公司 | 训练跨域人脸表情识别模型、人脸表情识别的方法及系统 |
CN111444859A (zh) * | 2020-03-30 | 2020-07-24 | 哈尔滨工程大学 | 一种无监督跨域人脸表情识别方法 |
WO2022001489A1 (zh) * | 2020-06-28 | 2022-01-06 | 北京交通大学 | 一种无监督域适应的目标重识别方法 |
CN112069940A (zh) * | 2020-08-24 | 2020-12-11 | 武汉大学 | 一种基于分阶段特征学习的跨域行人重识别方法 |
Non-Patent Citations (2)
Title |
---|
吴琳琳;彭国华;延伟东;: "基于判别性样本选择的无监督领域自适应方法", 西北工业大学学报, no. 04, 15 August 2020 (2020-08-15) * |
孙冬梅;张飞飞;毛启容;: "标签引导的生成对抗网络人脸表情识别域适应方法", 计算机工程, no. 05, 15 May 2020 (2020-05-15) * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116385808A (zh) * | 2023-06-02 | 2023-07-04 | 合肥城市云数据中心股份有限公司 | 大数据跨域图像分类模型训练方法、图像分类方法和系统 |
CN116385808B (zh) * | 2023-06-02 | 2023-08-01 | 合肥城市云数据中心股份有限公司 | 大数据跨域图像分类模型训练方法、图像分类方法和系统 |
CN118364299A (zh) * | 2024-06-19 | 2024-07-19 | 苏州元脑智能科技有限公司 | 样本扩充方法、电子设备、计算机可读介质及产品 |
CN118364299B (zh) * | 2024-06-19 | 2024-09-13 | 苏州元脑智能科技有限公司 | 样本扩充方法、电子设备、计算机可读介质及产品 |
Also Published As
Publication number | Publication date |
---|---|
CN114973350B (zh) | 2024-02-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111723674B (zh) | 基于马尔科夫链蒙特卡洛与变分推断的半贝叶斯深度学习的遥感图像场景分类方法 | |
CN109961034B (zh) | 基于卷积门控循环神经单元的视频目标检测方法 | |
CN109711254B (zh) | 基于对抗生成网络的图像处理方法和装置 | |
CN113378632A (zh) | 一种基于伪标签优化的无监督域适应行人重识别算法 | |
CN113096169B (zh) | 一种非刚性多模医学图像的配准模型建立方法及其应用 | |
CN114973350A (zh) | 一种源域数据无关的跨域人脸表情识别方法 | |
CN113326731A (zh) | 一种基于动量网络指导的跨域行人重识别算法 | |
CN112800876A (zh) | 一种用于重识别的超球面特征嵌入方法及系统 | |
CN112312541A (zh) | 一种无线定位方法及系统 | |
CN117237733A (zh) | 一种结合自监督和弱监督学习的乳腺癌全切片图像分类方法 | |
CN114139676A (zh) | 领域自适应神经网络的训练方法 | |
CN109598220A (zh) | 一种基于多元输入多尺度卷积的人数统计方法 | |
CN113111814A (zh) | 基于正则化约束的半监督行人重识别方法及装置 | |
CN117611932B (zh) | 基于双重伪标签细化和样本重加权的图像分类方法及系统 | |
CN113392967A (zh) | 领域对抗神经网络的训练方法 | |
CN114842343A (zh) | 一种基于ViT的航空图像识别方法 | |
CN112380374B (zh) | 一种基于语义扩充的零样本图像分类方法 | |
CN111144462B (zh) | 一种雷达信号的未知个体识别方法及装置 | |
CN116258938A (zh) | 基于自主进化损失的图像检索与识别方法 | |
CN117217282A (zh) | 一种面向深度行人搜索模型的结构化剪枝方法 | |
CN112232395A (zh) | 一种基于联合训练生成对抗网络的半监督图像分类方法 | |
CN115661539A (zh) | 一种嵌入不确定性信息的少样本图像识别方法 | |
CN114972904A (zh) | 一种基于对抗三元组损失的零样本知识蒸馏方法及系统 | |
CN114267060A (zh) | 基于不确定抑制网络模型的人脸年龄识别方法及系统 | |
CN117746084A (zh) | 一种基于注意力残差和对比学习的无监督域适应行人重识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |