CN114973350B - 一种源域数据无关的跨域人脸表情识别方法 - Google Patents

一种源域数据无关的跨域人脸表情识别方法 Download PDF

Info

Publication number
CN114973350B
CN114973350B CN202210302610.1A CN202210302610A CN114973350B CN 114973350 B CN114973350 B CN 114973350B CN 202210302610 A CN202210302610 A CN 202210302610A CN 114973350 B CN114973350 B CN 114973350B
Authority
CN
China
Prior art keywords
source domain
domain
loss
model
target domain
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210302610.1A
Other languages
English (en)
Other versions
CN114973350A (zh
Inventor
郭哲
刘雪文
郭号洁
周炜杰
王毅
齐敏
樊养余
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN202210302610.1A priority Critical patent/CN114973350B/zh
Publication of CN114973350A publication Critical patent/CN114973350A/zh
Application granted granted Critical
Publication of CN114973350B publication Critical patent/CN114973350B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种源域数据无关的跨域人脸表情识别方法,首先对数据集中的数据进行人脸检测及裁剪等预处理;然后,针对在跨域人脸表情识别模型训练时源域数据访问受限的问题,构建了源域数据无关的跨域人脸表情识别模型;在计算模型损失时,本发明构建了源域数据无关的自适应损失函数,通过最小化Tsallis熵增加预测标签的确信度,同时最大化预测标签种类,据此联合计算信息最大化损失,随后计算交叉熵损失,还使用虚拟对抗训练的方法最小化模型的局部分布平滑损失。本发明直接从训练好的源域模型出发,解决了源域数据访问受限时较难进行跨域人脸表情识别的问题;进一步提高了人脸表情识别的准确率,实现了对人脸表情的高效识别。

Description

一种源域数据无关的跨域人脸表情识别方法
技术领域
本发明属于模式识别技术领域,具体涉及一种跨域人脸表情识别方法。
背景技术
基于深度学习方法进行人脸表情识别,只有在训练集和测试集数据独立同分布时, 才能在测试集上取得良好的识别结果。然而在实际应用中,经常会遇到训练时所用的人脸表情数据(源域)和测试时的人脸表情数据(目标域)来自于不同分布的领域, 即跨域人脸表情识别问题。由于不同域之间的数据分布存在差异,这会导致直接使用 源域数据训练得到的人脸表情识别模型在目标域数据上的识别准确率表现不佳。同时 现在人们对隐私的关注和担忧越来越多,很多学者在公开自己算法的同时,选择不公 开数据集,这就使得其他人较难直接获取大量的人脸表情数据,从而进一步增大了跨 域人脸表情识别的难度。
文献“Chen T,Pu T,Wu H,et al.Cross-domain facial expressionrecognition:A unified evaluation benchmark and adversarial graph learning[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2021,doi:10.1109/TPAMI.2021.3131222.”公开了一种 跨域人脸表情识别方法,该方法首先对输入图像提取整体特征和局部特征,并构建两 个图网络分别关联同一领域内和不同领域之间的整体特征和局部特征。然后,使用不 同种类人脸表情的特征统计分布来初始化相应的图节点。最后,采用两个堆叠的图卷 积网络,一个在域内传播整体和局部特征,以此探索整体区域与局部区域的相互关系, 另一个在不同域间传播整体和局部特征,从而进行整体和局部特征的协同适应。但是, 该方法存在以下问题:该方法进行跨域人脸表情识别任务时,需要直接访问源域人脸 表情数据集,并基于源域数据进行无监督领域的自适应训练,而当源域数据访问受限 时该跨域人脸表情识别方法则无法使用。
发明内容
为了克服现有技术的不足,本发明提供了一种源域数据无关的跨域人脸表情识别方法,首先对数据集中的数据进行人脸检测及裁剪等预处理;然后,针对在跨域人脸 表情识别模型训练时源域数据访问受限的问题,构建了源域数据无关的跨域人脸表情 识别模型;在计算模型损失时,本发明构建了源域数据无关的自适应损失函数,通过 最小化Tsallis熵增加预测标签的确信度,同时最大化预测标签种类,据此联合计算信 息最大化损失,随后计算交叉熵损失,还使用虚拟对抗训练的方法最小化模型的局部 分布平滑损失。本发明直接从训练好的源域模型出发,解决了源域数据访问受限时较 难进行跨域人脸表情识别的问题;进一步提高了人脸表情识别的准确率,实现了对人 脸表情的高效识别。
本发明解决其技术问题所采用的技术方案包括如下步骤:
步骤1:数据预处理及扩充;
对源域图像集和目标域图像集中的图像进行人脸检测后,再进行人脸裁剪,得到人脸图像;
再对人脸图像进行镜面翻转变换、旋转变换、引入高斯噪声的数据增强方式,并将处理后的人脸图像作为源域样本和目标域样本分别放到源域图像训练集和目标域图 像训练集中,起到扩充数据的目的;
步骤2:构建源域数据无关的跨域人脸表情识别模型;
构建源域模型:所述源域模型的骨干网络采用卷积神经网络IR-50;源域模型的特征提取器骨干部分由4个残差层组成,每个残差层由多个残差单元组成;将分类器中 的单层全连接层替换为一个瓶颈层和一个任务相关的全连接层,所述瓶颈层包括一个 单层全连接层、一个批量归一化层;所述任务相关的全连接层包括一个单层全连接层、 一个权重归一化层;
构建目标域模型:采用源域图像训练集训练源域模型,将训练完成的源域模型作为目标域模型;
步骤3:基于源域数据无关自适应损失的表情类别判定;
步骤3-1:构建源域数据无关自适应损失函数,包括如下4部分;
步骤3-1-1:Tsallis熵损失;
定义Tsallis熵如式(1):
其中α>0,为熵指数;y[i]表示预测标签,i为预测标签数量;根据Tsallis熵最小化的 要求,Tsallis熵损失的表达式为:
其中ft表示目标域模型;xt表示来自目标域图像训练集中的样本;ft(xt)=ht(gt(xt)) 表示目标域样本的K维逻辑输出,gt(xt)表示xt经过特征提取器gt得到的输出;δk表示经过Softmax激活;
步骤3-1-2:标签多样化损失;
定义为:
其中为目标域样本预测标签的平均期望,δ(.)表示激活函数;
步骤3-1-3:伪标签交叉熵损失;
表达式为:
其中表示目标域模型ft由特征提取器gt和分类器ht组成,/>表示指示 函数,/>表示目标域样本xt的伪标签;
步骤3-1-4:局部分布平滑损失;
表达式为:
其中rvadv表示在目标域样本xt加入的扰动,D[q,p]是一个非负函数,用于衡量p和q之 间分布的差异,p(y|xt,ft)表示不加扰动时的预测标签分布,p(y|xt+rvadv,ft)表示 加入扰动后的预测标签分布;
步骤3-1-5:将Tsallis熵损失、标签多样化损失、伪标签交叉熵损失和局部分布平滑损失结合,构建源域数据无关自适应损失函数:
其中λ和β为超参数,用于平衡各损失;
步骤3-2:使用目标域图像训练集训练目标域模型,在训练时保持分类器参数不变,首先提取目标域样本的特征,并根据K-means聚类获得每个类别特征的聚类中心; 随后,根据样本特征点与类别特征聚类中心的远近,得到目标域样本的伪标签,根据 更新的伪标签重新更新聚类中心;然后再开始更新分类器参数,同时不断更新目标域 样本的伪标签和每个类别的特征聚类中心,直到源域数据无关自适应损失函数最小; 在训练时通过反向传播使用随机梯度下降法更新网络参数;
步骤3-3:使用训练完成的目标域模型实现人脸表情分类。
本发明的有益效果如下:
本发明通过计算交叉熵损失,可以提高识别模型的识别精度,而通过使用虚拟对抗训练的方法则可以进一步提高模型的鲁棒性。本发明将公共人脸表情数据集RAF- DB作为源域,EXPW作为目标域时的识别率为70.84%,相比于文献方法的识别率 68.50%具有显著的优越性。此外,本发明无需直接访问源域数据,只需访问源域模型, 适合在源域数据访问受限的场景使用,能有效扩展跨域人脸表情识别算法的应用场景。
具体实施方式
现有的基于深度学习的跨域人脸表情识别方法都需要直接访问源域数据,而在源域数据访问受限时现有的跨域人脸表情识别方法失效,影响实际应用。针对以上问题, 本发明提出了一种源域数据无关的跨域人脸表情识别方法。
一种源域数据无关的跨域人脸表情识别方法,包括如下步骤:
步骤1:数据预处理及扩充;
对源域图像集和目标域图像集中的图像进行人脸检测后,再进行人脸裁剪,得到人脸图像;
再对人脸图像进行镜面翻转变换、旋转变换、引入高斯噪声的数据增强方式,并将处理后的人脸图像作为源域样本和目标域样本分别放到源域图像训练集和目标域图 像训练集中,起到扩充数据的目的;
步骤2:构建源域数据无关的跨域人脸表情识别模型;
构建源域模型:所述源域模型的骨干网络采用卷积神经网络IR-50;源域模型的特征提取器骨干部分由4个残差层组成,每个残差层由多个残差单元组成;将分类器中 的单层全连接层替换为一个瓶颈层和一个任务相关的全连接层,所述瓶颈层包括一个 单层全连接层、一个批量归一化层;所述任务相关的全连接层包括一个单层全连接层、 一个权重归一化层;
构建目标域模型:采用源域图像训练集训练源域模型,将训练完成的源域模型作为目标域模型;
步骤3:基于源域数据无关自适应损失的表情类别判定;
步骤3-1:构建源域数据无关自适应损失函数,包括如下4部分;
步骤3-1-1:Tsallis熵损失;
定义Tsallis熵如式(1):
其中α>0,为熵指数;y[i]表示预测标签,i为预测标签数量;根据Tsallis熵最小化的 要求,Tsallis熵损失的表达式为:
其中ft表示目标域模型;xt表示来自目标域图像训练集中的样本;ft(xt)=ht(gt(x)) 表示目标域样本的K维逻辑输出,δk表示经过Softmax激活;
步骤3-1-2:标签多样化损失;
定义为:
其中为目标域样本预测标签的平均期望;
步骤3-1-3:伪标签交叉熵损失;
表达式为:
其中表示目标域模型,/>为目标域模型的特征提取器,ht为分类器,表示指示函数,/>表示目标域样本xt的伪标签;
步骤3-1-4:局部分布平滑损失;
表达式为:
其中rvadv表示在目标域样本xt加入的扰动,D[q,p]是一个非负函数,用于衡量p和q之间分布的差异,p(y|xt,ft)表示不加扰动时的预测标签分布,p(y|xt+rvadv,ft)表 示加入扰动后的预测标签分布;
步骤3-1-5:将Tsallis熵损失、标签多样化损失、伪标签交叉熵损失和局部分布平滑损失结合,构建源域数据无关自适应损失函数:
其中λ和β为超参数,用于平衡各损失;
步骤3-2:使用目标域图像训练集训练目标域模型,在训练时保持分类器参数不变,首先提取目标域样本的特征,并根据K-means聚类获得每个类别特征的聚类中心; 随后,根据样本特征点与类别特征聚类中心的远近,得到目标域样本的伪标签,根据 更新的伪标签重新更新聚类中心;然后再开始更新分类器参数,同时不断更新目标域 样本的伪标签和每个类别的特征聚类中心,直到源域数据无关自适应损失函数最小; 在训练时通过反向传播使用随机梯度下降法更新网络参数;
步骤3-3:使用训练完成的目标域模型实现人脸表情分类。
具体实施例:
(a)将数据集中的数据进行预处理和扩充。首先对数据集中的数据进行人脸检测及 人脸裁剪等预处理操作。为了进一步扩充训练数据,采取镜面翻转变换、旋转变换、 引入高斯噪声等数据增强方式,对数据集中数据进行处理,并将处理后的数据放回到 训练集中,起到扩充数据的目的。
(b)构建源域数据无关的跨域人脸表情识别模型。针对在跨域人脸表情识别模型训 练时源域数据访问受限的问题,为了充分利用网络模型的先验知识,对源域和目标域训练模型的骨干网络都使用经典卷积神经网络IR-50,两个模型的特征提取器参数不 同,分类器参数相同。为了模拟源域数据访问受限的情况,采用带标签的源域样本训 练一个源域模型;训练结束后,将源域数据丢弃,只将源域模型保存,后续过程不再 访问源域数据,此后使用源域模型参数完成对目标域模型参数的初始化。
(c)基于源域数据无关自适应损失对表情类别进行判定。通过最小化Tsallis熵增加 预测标签的确信度,同时最大化预测标签种类,用于防止模型发生坍塌,据此联合计 算信息最大化损失。随后,为了提高预测标签的准确度并充分挖掘伪标签中的信息, 使用深度聚类方法获得伪标签,进而根据该伪标签计算交叉熵损失。为了进一步提升 模型的鲁棒性,使用虚拟对抗训练的方法最小化模型的局部分布平滑损失。最后联合 信息最大化损失、交叉熵损失和局部分布平滑损失构建源域数据无关自适应损失,作 为网络训练的损失函数,优化网络性能,完成表情类别的判定。
具体如下:
1、数据预处理及扩充
基于人脸68个基准点,对输入的人脸图片进行人脸检测和人脸裁剪等预处理操作。
为了进一步扩充训练数据,本实施例采取镜面翻转变换、旋转变换、引入高斯噪声等数据增强方式,对数据集中数据进行处理,并将处理后的数据放回到训练集中, 起到扩充数据的目的。
2、源域数据无关的跨域人脸表情识别模型构建
本实施例对源域和目标域训练模型的骨干网络都使用经典卷积神经网络IR-50,两个模型的特征提取器参数不同,分类器参数相同。特征提取器骨干部分是由4个大 的残差层组成,每个大的残差层由一系列改进的残差单元组成。为了更好适配跨域人 脸表情识别任务,将IR-50分类器模块中的单层全连接层替换为一个瓶颈层和一个任 务相关的全连接层,瓶颈层包含一个单层全连接层,一个批量归一化层;而任务相关 的全连接层包含一个单层全连接层,一个权重归一化层。
为了模拟真实源域数据访问受限的情况,本实施例首先用带标签的源域样本训练一个源域模型;训练结束后,将源域数据丢弃,只将源域模型保存,后续过程不再访 问源域数据;然后,将训练好的源域模型参数拷贝到目标域模型中,并将目标域模型 的中分类器参数进行冻结,完成对目标域模型参数的初始化。
3、基于源域数据无关自适应损失的表情类别判定
与普通跨域人脸表情识别不同,在源域数据访问受限的情况下,训练目标域模型时无法直接访问源域数据,亦无法获得源域数据的特征分布,因此无法直接将源域和 目标域样本进行特征空间对齐。通过构建基于源域数据无关的自适应损失函数,将源 域和目标域样本的特征空间对齐问题转化为源域模型的输出与目标域模型的预测输出 格式需要尽可能保持一致的问题,并通过最小化目标域样本预测标签的Tsallis熵增加 预测标签的预测确信度。对于使用Softmax激活的模型输出预测值为本实施 例所使用的α-Tsallis熵可以表示为:
其中α>0,为熵指数,y[i]表示预测标签,根据Tsallis熵最小化的要求,Tsallis熵损 失的表达式为:
其中ft表示目标域模型,xt表示来自目标域中的样本,ft(xt)=ht(gt(xt))表示目标 域样本的K维逻辑输出,δk表示经过Softmax激活。
为了防止模型退化,本实施例使用了标签多样化损失,使得模型给出的预测类别尽可能多样。损失函数定义为:
其中其中/>为整个目标域样本预测标签的平均期望。标签 多样化损失和Tsallis熵损失共同组成信息化最大损失,其表达式为:
为了消除只使用信息最大化损失约束模型训练时,部分目标域样本被聚集到错误的类别,从而出现确信偏差的问题,本实施例使用了伪标签交叉熵损失进一步约束模 型的优化。在计算伪标签交叉熵损失时,首先提取目标域样本的特征,并根据K-means 聚类获得每个类别特征的聚类中心;随后,根据样本特征点与类别特征聚类中心的远 近,得到目标域样本的伪标签,根据更新的伪标签重新更新聚类中心。在训练时,不 断更新目标域样本的伪标签和每个类别的特征聚类中心。最后使用目标域的样本和伪 标签计算分类交叉熵损失,其表达式为:
其中表示目标域模型,/>为目标域模型的特征提取器,ht为分类器,表示指示函数,/>表示目标域中样本xt的伪标签。
为了减弱噪声标签对模型训练的影响,本发明同时引入了虚拟对抗训练方式作为正则项进行模型训练,通过最小化局部分布平滑损失,可以使得整个模型在每个样本 处的预测更加平滑。本发明中所使用的局部分布平滑损失函数为:
其中rvadv表示在目标域样本xt加入的扰动,D[q,p]是一个非负函数,用于衡量p和q之 间分布的差异,p(y|xt,ft)表示不加扰动时的预测标签分布,p(y|xt,ft)表示加入扰动后的预测标签分布。
本实施例将信息最大化损失、局部分布平滑损失和伪标签交叉熵损失相结合,构建了源域数据无关的自适应损失,完成最终的表情类别判定。本发明所构建的源域数 据无关自适应损失函数的表达式为:
其中λ和β为超参数,用于平衡信息最大化损失、局部分布平滑损失和伪标签交叉熵损失。本实施例的网络参数都通过反向传播使用随机梯度下降法进行更新。

Claims (1)

1.一种源域数据无关的跨域人脸表情识别方法,其特征在于,包括如下步骤:
步骤1:数据预处理及扩充;
对源域图像集和目标域图像集中的图像进行人脸检测后,再进行人脸裁剪,得到人脸图像;
再对人脸图像进行镜面翻转变换、旋转变换、引入高斯噪声的数据增强方式,并将处理后的人脸图像作为源域样本和目标域样本分别放到源域图像训练集和目标域图像训练集中,起到扩充数据的目的;
步骤2:构建源域数据无关的跨域人脸表情识别模型;
构建源域模型:所述源域模型的骨干网络采用卷积神经网络IR-50;源域模型的特征提取器骨干部分由4个残差层组成,每个残差层由多个残差单元组成;将分类器中的单层全连接层替换为一个瓶颈层和一个任务相关的全连接层,所述瓶颈层包括一个单层全连接层、一个批量归一化层;所述任务相关的全连接层包括一个单层全连接层、一个权重归一化层;
构建目标域模型:采用源域图像训练集训练源域模型,将训练完成的源域模型作为目标域模型;
步骤3:基于源域数据无关自适应损失的表情类别判定;
步骤3-1:构建源域数据无关自适应损失函数,包括如下4部分;
步骤3-1-1:Tsallis熵损失;
定义Tsallis熵如式(1):
其中α>0,为熵指数;y[i]表示预测标签,i为预测标签数量;根据Tsallis熵最小化的要求,Tsallis熵损失的表达式为:
其中ft表示目标域模型;xt表示来自目标域图像训练集中的样本;ft(xt)=ht(gt(xt))表示目标域样本的K维逻辑输出,gt(xt)表示xt经过特征提取器gt得到的输出;δk表示经过Softmax激活;
步骤3-1-2:标签多样化损失;
定义为:
其中为目标域样本预测标签的平均期望,δ(.)表示激活函数;
步骤3-1-3:伪标签交叉熵损失;
表达式为:
其中 表示目标域模型ft由特征提取器gt和分类器ht组成,/>表示指示函数,/>表示目标域样本xt的伪标签;
步骤3-1-4:局部分布平滑损失;
表达式为:
其中rvadv表示在目标域样本xt加入的扰动,D[q,p]是一个非负函数,用于衡量p和q之间分布的差异,p(y∣xt,ft)表示不加扰动时的预测标签分布,p(y∣xt+rvadv,ft)表示加入扰动后的预测标签分布;
步骤3-1-5:将Tsallis熵损失、标签多样化损失、伪标签交叉熵损失和局部分布平滑损失结合,构建源域数据无关自适应损失函数:
其中λ和β为超参数,用于平衡各损失;
步骤3-2:使用目标域图像训练集训练目标域模型,在训练时保持分类器参数不变,首先提取目标域样本的特征,并根据K-means聚类获得每个类别特征的聚类中心;随后,根据样本特征点与类别特征聚类中心的远近,得到目标域样本的伪标签,根据更新的伪标签重新更新聚类中心;然后再开始更新分类器参数,同时不断更新目标域样本的伪标签和每个类别的特征聚类中心,直到源域数据无关自适应损失函数最小;在训练时通过反向传播使用随机梯度下降法更新网络参数;
步骤3-3:使用训练完成的目标域模型实现人脸表情分类。
CN202210302610.1A 2022-03-24 2022-03-24 一种源域数据无关的跨域人脸表情识别方法 Active CN114973350B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210302610.1A CN114973350B (zh) 2022-03-24 2022-03-24 一种源域数据无关的跨域人脸表情识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210302610.1A CN114973350B (zh) 2022-03-24 2022-03-24 一种源域数据无关的跨域人脸表情识别方法

Publications (2)

Publication Number Publication Date
CN114973350A CN114973350A (zh) 2022-08-30
CN114973350B true CN114973350B (zh) 2024-02-27

Family

ID=82976421

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210302610.1A Active CN114973350B (zh) 2022-03-24 2022-03-24 一种源域数据无关的跨域人脸表情识别方法

Country Status (1)

Country Link
CN (1) CN114973350B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116385808B (zh) * 2023-06-02 2023-08-01 合肥城市云数据中心股份有限公司 大数据跨域图像分类模型训练方法、图像分类方法和系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111444859A (zh) * 2020-03-30 2020-07-24 哈尔滨工程大学 一种无监督跨域人脸表情识别方法
CN112069940A (zh) * 2020-08-24 2020-12-11 武汉大学 一种基于分阶段特征学习的跨域行人重识别方法
CN113128287A (zh) * 2019-12-31 2021-07-16 暗物智能科技(广州)有限公司 训练跨域人脸表情识别模型、人脸表情识别的方法及系统
WO2022001489A1 (zh) * 2020-06-28 2022-01-06 北京交通大学 一种无监督域适应的目标重识别方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180330205A1 (en) * 2017-05-15 2018-11-15 Siemens Aktiengesellschaft Domain adaptation and fusion using weakly supervised target-irrelevant data

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113128287A (zh) * 2019-12-31 2021-07-16 暗物智能科技(广州)有限公司 训练跨域人脸表情识别模型、人脸表情识别的方法及系统
CN111444859A (zh) * 2020-03-30 2020-07-24 哈尔滨工程大学 一种无监督跨域人脸表情识别方法
WO2022001489A1 (zh) * 2020-06-28 2022-01-06 北京交通大学 一种无监督域适应的目标重识别方法
CN112069940A (zh) * 2020-08-24 2020-12-11 武汉大学 一种基于分阶段特征学习的跨域行人重识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于判别性样本选择的无监督领域自适应方法;吴琳琳;彭国华;延伟东;;西北工业大学学报;20200815(04);全文 *
标签引导的生成对抗网络人脸表情识别域适应方法;孙冬梅;张飞飞;毛启容;;计算机工程;20200515(05);全文 *

Also Published As

Publication number Publication date
CN114973350A (zh) 2022-08-30

Similar Documents

Publication Publication Date Title
CN109961034B (zh) 基于卷积门控循环神经单元的视频目标检测方法
CN111723674B (zh) 基于马尔科夫链蒙特卡洛与变分推断的半贝叶斯深度学习的遥感图像场景分类方法
CN111126488A (zh) 一种基于双重注意力的图像识别方法
CN111222457B (zh) 一种基于深度可分离卷积的鉴别视频真伪性的检测方法
CN112784929B (zh) 一种基于双元组扩充的小样本图像分类方法及装置
WO2022262757A1 (zh) 模型训练方法、图像检测方法及检测装置
CN110941734A (zh) 基于稀疏图结构的深度无监督图像检索方法
CN114139676A (zh) 领域自适应神经网络的训练方法
CN111597760A (zh) 一种实现小样本条件下获取气路参数偏差值的方法
Dai et al. Hybrid deep model for human behavior understanding on industrial internet of video things
CN114973350B (zh) 一种源域数据无关的跨域人脸表情识别方法
CN114299362A (zh) 一种基于k-means聚类的小样本图像分类方法
CN116089883B (zh) 用于提高已有类别增量学习新旧类别区分度的训练方法
CN117237733A (zh) 一种结合自监督和弱监督学习的乳腺癌全切片图像分类方法
CN112232395A (zh) 一种基于联合训练生成对抗网络的半监督图像分类方法
CN114548591A (zh) 一种基于混合深度学习模型和Stacking的时序数据预测方法及系统
CN115358305A (zh) 一种基于边界样本迭代生成的增量学习鲁棒性提升方法
CN111178897B (zh) 在不平衡数据上快速特征学习的代价敏感的动态聚类方法
CN117152459A (zh) 图像检测方法、装置、计算机可读介质及电子设备
CN112559877A (zh) 基于跨平台异构数据及行为上下文的ctr预估方法及系统
CN116958548A (zh) 基于类别统计驱动的伪标签自蒸馏语义分割方法
CN111753995A (zh) 一种基于梯度提升树的局部可解释方法
CN115578568A (zh) 一种小规模可靠数据集驱动的噪声修正算法
CN116258938A (zh) 基于自主进化损失的图像检索与识别方法
CN115731576A (zh) 基于遮挡关键区域的无监督行人重识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant