CN113688799A - 一种基于改进深度卷积生成对抗网络的人脸表情识别方法 - Google Patents
一种基于改进深度卷积生成对抗网络的人脸表情识别方法 Download PDFInfo
- Publication number
- CN113688799A CN113688799A CN202111158933.XA CN202111158933A CN113688799A CN 113688799 A CN113688799 A CN 113688799A CN 202111158933 A CN202111158933 A CN 202111158933A CN 113688799 A CN113688799 A CN 113688799A
- Authority
- CN
- China
- Prior art keywords
- network
- data set
- expression
- layer
- face image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于改进深度卷积生成对抗网络的人脸表情识别方法,该方法包括:1获取人脸图像数据集并进行预处理;2构建生成对抗网络,用预处理后的人脸数据集训练网络获取合成图像;3构建人脸表情分类网络,使用带表情标签的人脸图像数据集进行训练;4由生成对抗网络和表情分类模块连接构成整个表情识别网络模型,并将待识别的人脸图像裁剪成设定尺寸,输入人脸表情识别网络模型,获取输出结果确定人脸图像中的人脸表情。本发明用改进的生成对抗网络处理原始人脸图像,能够提取更细微的有效信息,从而提升了人脸表情识别准确率。
Description
技术领域
本发明涉及深度学习和图像处理相关领域,具体为一种基于改进深度卷积生成对抗网络的人脸表情识别方法。
背景技术
根据研究表明,人类的情感表达多数通过面部表情传递,人类表情识别技术在人机交互、情感分析、公共安全监控等领域有着重要等意义。目前一般把人脸表情分为七类,即“生气、厌恶、害怕、高兴、伤心、惊讶、中性”。传统人脸表情识别方法通过手工提取特征并分类,同时,传统技术存在鲁棒性差等不足。随着计算机技术的发展,深度学习成为近年来的研究热点之一,深度学习的应用使人脸表情识别技术也有较大突破。
然而现有技术中基于深度学习面部表情识别方法也存在一定的问题,现有的表情识别方法通常需要从人脸图像中直接提取特征,但在实际生活中采集但图像可能存在光线不均、图像模糊、面部有遮挡物等问题而不能很好等提取特征信息。同时,识别算法中的训练策略可能会导致过拟合问题,降低目标数据库的性能,降低面部识别准确率。
发明内容
本发明是为了解决上述现有技术存在的不足之处,提出一种基于改进深度卷积生成对抗网络的人脸表情识别方法,以期能提取更细微的有效信息,从而能提升人脸表情识别准确率。
为实现上述目的,本发明提供如下技术方案:
本发明一种基于改进深度卷积生成对抗网络的人脸表情识别方法的特点在于,包括以下步骤:
步骤1、获取人脸图像数据集并进行预处理:
获取真实人脸图像数据集并分别裁剪成尺寸为M×M的人脸图像,再对裁剪后的人脸图像随机添加的掩码,得到预处理后的人脸图像数据集记为X={x1,x2,...,xi,...,xN},其中,xi表示第i张人脸图像,i=1,2,...,N,N为人脸图像数据集中人脸图像的总数;
步骤2、构建生成网络G和双判别网络组成的改进深度卷积生成对抗网络:
步骤2.1、构建包括编码器和解码器组成的生成网络G;
所述编码器包括m层卷积层,所述解码器包括m层反卷积层;
设置所有卷积层的步长为2c、反卷积层的步长设为c;
设置卷积层的激活函数采用LeakyRelu函数,反卷积层的激活函数采用Relu函数;
在所述编码器的第1层卷积层与所述解码器的第m层反卷积层之间加入跳跃连接;在所述编码器的第2层卷积层与所述解码器的第m-1层反卷积层之间加入跳跃连接;依次类推,在所述编码器的第m层卷积层与所述解码器的第1层反卷积层之间加入跳跃连接;且每层卷积层和每层反卷积层后均设置有Padding操作;
所述第i张人脸图像xi经过所述生成网络G的编码和解码处理后得到维度为M×M的合成图像si;
步骤2.2、建立如式(1)所示的重构损失Lrec:
Lrec=||si-xi|| (1)
步骤2.3、采用如式(2)所示的最小二乘损失函数来建立生成网络G的损失函数L(G):
式(2)中,E表示数学期望,xi~pxi表示第i张人脸图像xi服从数据集中的人脸图像分布;D(si)表示双判别网络对合成图像si的预测值;
步骤2.4、利用式(3)构建生成网络G的总损失Ls(G):
Ls(G)=Lrec+L(G) (3)
步骤2.5、构建包括局部判别网络D_loc和全局判别网络D_glo的双判别网络:
所述局部判别网络D_loc是由w层卷积神经网络构成,且每个卷积层后采用LeakyRelu函数作为激活函数;
所述全局判别网络D_glo是由w+1层卷积神经网络构成,且每个卷积层后采用Leaky Relu函数作为激活函数;
将所述维度为M×M的合成图像si输入所述全局判别网络D_glo中,并经过卷积操作后得到维度为1×1×h的特征向量;
调用Concat函数和Reshape函数将所述局部判别网络D_loc输出的特征向量和所述全局判别网络D_glo输出的特征向量进行连接并调整成维度为1×2h的特征向量,再经过一个全连接层处理后得到一个输出值,然后使用sigmod函数将所述输出值映射到[0,1]范围内,从而得到映射后的值,用于判断所述合成图像si的真假;
步骤2.6、采用如式(4)所示的最小二乘损失函数来建立双判别网络的损失函数L(D):
步骤2.7、利用式(5)构建双判别网络的总损失Ls(D):
Ls(D)=L(D_loc)+L(D_glo) (5)
式(5)中,L(D_loc)表示局部判别网络D_loc的损失函数,L(D_glo)表示全局判别网络D_glo的损失函数;
步骤2.8、利用式(6)构建全局目标函数Lall:
Lall=Ls(G)+Ls(D) (6)
步骤2.9、基于所述全局目标函数Lall,采用预处理后的人脸图像数据集X对所述改进深度卷积生成对抗网络进行训练,直到双判别网络无法判断输入图像的真假时,得到最优网络模型,并输出合成人脸图像S={s′1,s′2,...,s′i,...,s′N};其中,s′i表示第i张人脸图像xi输出的最优合成图像;
步骤3、构建表情分类网络,并使用带表情标签的人脸表情数据集进行训练:
步骤3.1、获取带表情标签的人脸表情图像数据集并分别裁剪成尺寸M×M的表情图像,得到裁剪后的表情数据集记为Y={y1,y2,...,yj,...,yT},其中,yj表示第j张裁剪后的表情图像,j=1,2,...,T,T为裁剪后的数据集中图像的总数;
步骤3.2、构建由K个卷积层和v个全连接层构成的表情分类网络;
其中,K个卷积层中的前k个卷积层后设置有平均池化层,后K-k个卷积层后设置最大池化层;各个全连接层之间设置有dropout层;
将维度为M×M的第j张裁剪后的表情图像yj输入所述表情分类网络中并输出F个预测值{Rj,1,Rj,2,...,Rj,t,...,Rj,F};其中,Rj,t表示第j张裁剪后的表情图像yj输出的第t个预测值;
将F个预测值{Rj,1,Rj,2,...,Rj,t,...,Rj,F}输入Softmax分类器中转换为对应的概率分布{Qj,1,Qj,2,...,Qj,t,...,Qj,F};其中,Qj,t表示第t个预测值Rj,t的概率分布;
选取概率分布{Qj,1,Qj,2,...,Qj,t,...,Qj,F}中最大值所对应的表情标签作为第j张裁剪后的表情图像yj的人脸表情识别结果;
步骤4、将改进深度卷积生成对抗网络输出的合成人脸图像S={s′1,s′2,...,s′i,...,s′N}与预处理后的人脸图像数据集X={x1,x2,...,xi,...,xN}进行融合后作为训练后的表情分类网络的输入,并由所述训练后的表情分类网络输出分类结果,并将分类结果作为预处理后的人脸图像数据集X={x1,x2,...,xi,...,xN}的人脸表情识别结果。
与现有技术相比,本发明的有益效果在于:
1.本发明方法是先用生成对抗网络模型对人脸图像进行处理,生成更高质量的人脸面部图像,从而克服了实际生活采集人脸图像的光线不均、图像模糊、面部有遮挡物等问题,提高了表情识别准确率。
2.本发明在对人脸图像数据集进行训练优化生成对抗网络时,损失函数选择的是最小二乘损失函数,解决了网络训练中存在的不稳定、网络崩溃问题。同时,生成对抗网络模型采用双层判别网络,在有效提取图像整体有效信息的同时能够提取更细微的局部特征信息,提升了网络的学习性能,从而更有助于人脸表情的识别和捕捉。
附图说明
图1为本发明的流程示意图;
图2为本发明的改进深度卷积生成对抗网络模型中的生成网络结构图;
图3为本发明的改进深度卷积生成对抗网络模型中的双判别网络结构图。
具体实施方式
本实施例中,一种基于改进深度卷积生成对抗网络的人脸表情识别方法,如图1所示,是按如下步骤进行:
步骤1、获取人脸图像数据集并进行预处理:
获取真实人脸图像数据集并分别裁剪成尺寸为M×M的人脸图像,再对裁剪后的人脸图像随机添加的掩码来模拟现实中人脸图像的光线不均、图像破损、面部遮挡等情况,得到预处理后的人脸图像数据集记为X={x1,x2,...,xi,...,xN},其中,xi表示第i张人脸图像,i=1,2,...,N,N为人脸图像数据集中人脸图像的总数,本实施例中在VGGFace数据集中选取人脸正面图片作为训练数据集,将收集的图像统一裁剪成128×128的图像。
步骤2、构建生成网络G和双判别网络组成的改进深度卷积生成对抗网络:
步骤2.1、构建包括编码器和解码器组成的生成网络G;
生成网络结构如图2所示,编码器包括m层卷积层,解码器包括m层反卷积层,具体实施中m取6;
设置所有卷积层的步长为2c、反卷积层的步长设为c,具体实施中c取1;
设置卷积层的激活函数采用LeakyRelu函数,反卷积层的激活函数采用Relu函数;
在编码器的第1层卷积层与解码器的第m层反卷积层之间加入跳跃连接;在编码器的第2层卷积层与解码器的第m-1层反卷积层之间加入跳跃连接;依次类推,在编码器的第m层卷积层与解码器的第1层反卷积层之间加入跳跃连接;跳跃连接把经过卷积层后的特征映射与经过反卷积层对应的大小相同的特征映射连接起来,能提升生成图像的质量,且每层卷积层和每层反卷积层后均设置有Padding操作以保持输出图片和输入图片大小一致;
第i张人脸图像xi经过生成网络G的编码和解码处理后得到维度为128×128的合成图像si;
步骤2.2、建立如式(1)所示的重构损失Lrec,重构损失表示生成图像和输入图像的差异,在生成网络中引入重构损失可以使生成器的生成图像尽可能接近目标图像:
Lrec=||si-xi|| (1)
步骤2.3、采用如式(2)所示的最小二乘损失函数来建立生成网络G的损失函数L(G),最小二乘函数在混淆判别器的同时还能使生成器把距离决策边界较远的生成图像拉向边界,使生成网络不断优化,提高生成图片的质量:
式(2)中,E表示数学期望,xi~pxi表示第i张人脸图像xi服从数据集中的人脸图像分布;D(si)表示双判别网络对合成图像si的预测值;
步骤2.4、利用式(3)构建生成网络G的总损失Ls(G):
Ls(G)=Lrec+L(G) (3)
步骤2.5、构建包括局部判别网络D_loc和全局判别网络D_glo的双判别网络,:
双判别网络结构如图3所示,局部判别网络D_loc是由w层卷积神经网络构成,且每个卷积层后采用LeakyRelu函数作为激活函数,具体实施中w取5;
将维度为128×128的合成图像si中维度为64×64的局部人脸图像输入局部判别网络D_loc中,并经过卷积操作后得到维度为1×1×1024的特征向量;
全局判别网络D_glo是由w+1层卷积神经网络构成,且每个卷积层后采用LeakyRelu函数作为激活函数;
将维度为128×128的合成图像si输入全局判别网络D_glo中,并经过卷积操作后得到维度为1×1×1024的特征向量;
调用Concat函数和Reshape函数将局部判别网络D_loc输出的特征向量和全局判别网络D_glo输出的特征向量进行连接并调整成维度为1×2048的特征向量,再经过一个全连接层处理后得到一个输出值,然后使用sigmod函数将输出值映射到[0,1]范围内,从而得到映射后的值,用于判断合成图像si的真假;
步骤2.6、采用如式(4)所示的最小二乘损失函数来建立双判别网络的损失函数L(D):
步骤2.7、利用式(5)构建双判别网络的总损失Ls(D):
Ls(D)=L(D_loc)+L(D_glo) (5)
式(5)中,L(D_loc)表示局部判别网络D_loc的损失函数,L(D_glo)表示全局判别网络D_glo的损失函数;
步骤2.8、利用式(6)构建全局目标函数Lall:
Lall=Ls(G)+Ls(D) (6)
步骤2.9、基于全局目标函数Lall,采用预处理后的人脸图像数据集X对改进深度卷积生成对抗网络进行训练,直到双判别网络无法判断输入图像的真假时,得到最优网络模型,并输出合成人脸图像S={s′1,s′2,...,s′i,...,s′N};其中,s′i表示第i张人脸图像xi输出的最优合成图像;
步骤3、构建表情分类网络,并使用带表情标签的人脸表情数据集进行训练:
步骤3.1、获取带表情标签的人脸表情图像数据集并分别裁剪成尺寸M×M的表情图像,具体实施中使用CK+表情数据集来训练分类网络,将收集的图像统一裁剪成128×128的图像,得到裁剪后的表情数据集记为Y={y1,y2,...,yj,...,yT},其中,yj表示第j张裁剪后的表情图像,j=1,2,...,T,T为裁剪后的数据集中图像的总数;
步骤3.2、构建由K个卷积层和v个全连接层构成的表情分类网络,具体实施中K取3;
其中,3个卷积层中的前2个卷积层后设置有平均池化层,最后1个卷积层后设置最大池化层,平均池化层可以提供更多细节变化,最大池化层可以加快神经网络收敛速度;各个全连接层之间设置有dropout ratio为40%的dropout层以加快收敛速度;
将维度为M×M的第j张裁剪后的表情图像yj输入表情分类网络中并输出F个预测值{Rj,1,Rj,2,...,Rj,t,...,Rj,F},具体实施中F取7;其中,Rj,t表示第j张裁剪后的表情图像yj输出的第t个预测值;
将7个预测值{Rj,1,Rj,2,...,Rj,t,...,Rj,7}输入Softmax分类器中转换为对应的概率分布{Qj,1,Qj,2,...,Qj,t,...,Qj,7};其中,Qj,t表示第t个预测值Rj,t的概率分布;
选取概率分布{Qj,1,Qj,2,...,Qj,t,...,Qj,7}中最大值所对应的表情标签作为第j张裁剪后的表情图像yj的人脸表情识别结果;
步骤4、为减少合成人脸图像表情信息的丢失,将改进深度卷积生成对抗网络输出的合成人脸图像S={s′1,s′2,...,s′i,...,s′N}与预处理后的人脸图像数据集X={x1,x2,...,xi,...,xN}进行融合后作为训练后的表情分类网络的输入,并由训练后的表情分类网络输出分类结果,并将分类结果作为预处理后的人脸图像数据集X={x1,x2,...,xi,...,xN}的人脸表情识别结果。
为了验证本发明方法的有效性,在python中基于pytorch框架构建网络模型并使用扩充的CK+数据集进行表情识别验证。表1为几种表情识别方法的识别率对比。
表1与其他算法的对比
本发明在进行人脸表情识别时,先用改进的生成对抗网络模型对人脸图像进行处理,生成更高质量的人脸面部图像。克服了实际生活采集人脸图像的光线不均、图像模糊、有遮挡物等问题,能更好的提取面部特征,提高了表情识别准确率。在对人脸图像数据集进行训练优化生成对抗网络时,损失函数选择的是最小二乘损失函数,解决了网络训练中存在的不稳定、网络崩溃问题。同时,生成对抗网络模型采用双层判别网络,在有效提取图像整体有效信息的同时能够提取更细微的局部特征信息,提升网络的学习性能。
Claims (1)
1.一种基于改进深度卷积生成对抗网络的人脸表情识别方法,其特征在于,包括以下步骤:
步骤1、获取人脸图像数据集并进行预处理:
获取真实人脸图像数据集并分别裁剪成尺寸为M×M的人脸图像,再对裁剪后的人脸图像随机添加的掩码,得到预处理后的人脸图像数据集记为X={x1,x2,...,xi,...,xN},其中,xi表示第i张人脸图像,i=1,2,...,N,N为人脸图像数据集中人脸图像的总数;
步骤2、构建生成网络G和双判别网络组成的改进深度卷积生成对抗网络:
步骤2.1、构建包括编码器和解码器组成的生成网络G;
所述编码器包括m层卷积层,所述解码器包括m层反卷积层;
设置所有卷积层的步长为2c、反卷积层的步长设为c;
设置卷积层的激活函数采用LeakyRelu函数,反卷积层的激活函数采用Relu函数;
在所述编码器的第1层卷积层与所述解码器的第m层反卷积层之间加入跳跃连接;在所述编码器的第2层卷积层与所述解码器的第m-1层反卷积层之间加入跳跃连接;依次类推,在所述编码器的第m层卷积层与所述解码器的第1层反卷积层之间加入跳跃连接;且每层卷积层和每层反卷积层后均设置有Padding操作;
所述第i张人脸图像xi经过所述生成网络G的编码和解码处理后得到维度为M×M的合成图像si;
步骤2.2、建立如式(1)所示的重构损失Lrec:
Lrec=||si-xi|| (1)
步骤2.3、采用如式(2)所示的最小二乘损失函数来建立生成网络G的损失函数L(G):
式(2)中,E表示数学期望,xi~pxi表示第i张人脸图像xi服从数据集中的人脸图像分布;D(si)表示双判别网络对合成图像si的预测值;
步骤2.4、利用式(3)构建生成网络G的总损失Ls(G):
Ls(G)=Lrec+L(G) (3)
步骤2.5、构建包括局部判别网络D_loc和全局判别网络D_glo的双判别网络:
所述局部判别网络D_loc是由w层卷积神经网络构成,且每个卷积层后采用Leaky Relu函数作为激活函数;
所述全局判别网络D_glo是由w+1层卷积神经网络构成,且每个卷积层后采用LeakyRelu函数作为激活函数;
将所述维度为M×M的合成图像si输入所述全局判别网络D_glo中,并经过卷积操作后得到维度为1×1×h的特征向量;
调用Concat函数和Reshape函数将所述局部判别网络D_loc输出的特征向量和所述全局判别网络D_glo输出的特征向量进行连接并调整成维度为1×2h的特征向量,再经过一个全连接层处理后得到一个输出值,然后使用sigmod函数将所述输出值映射到[0,1]范围内,从而得到映射后的值,用于判断所述合成图像si的真假;
步骤2.6、采用如式(4)所示的最小二乘损失函数来建立双判别网络的损失函数L(D):
步骤2.7、利用式(5)构建双判别网络的总损失Ls(D):
Ls(D)=L(D_loc)+L(D_glo) (5)
式(5)中,L(D_loc)表示局部判别网络D_loc的损失函数,L(D_glo)表示全局判别网络D_glo的损失函数;
步骤2.8、利用式(6)构建全局目标函数Lall:
Lall=Ls(G)+Ls(D) (6)
步骤2.9、基于所述全局目标函数Lall,采用预处理后的人脸图像数据集X对所述改进深度卷积生成对抗网络进行训练,直到双判别网络无法判断输入图像的真假时,得到最优网络模型,并输出合成人脸图像S={s′1,s′2,...,s′i,...,s′N};其中,s′i表示第i张人脸图像xi输出的最优合成图像;
步骤3、构建表情分类网络,并使用带表情标签的人脸表情数据集进行训练:
步骤3.1、获取带表情标签的人脸表情图像数据集并分别裁剪成尺寸M×M的表情图像,得到裁剪后的表情数据集记为Y={y1,y2,...,yj,...,yT},其中,yj表示第j张裁剪后的表情图像,j=1,2,...,T,T为裁剪后的数据集中图像的总数;
步骤3.2、构建由K个卷积层和v个全连接层构成的表情分类网络;
其中,K个卷积层中的前k个卷积层后设置有平均池化层,后K-k个卷积层后设置最大池化层;各个全连接层之间设置有dropout层;
将维度为M×M的第j张裁剪后的表情图像yj输入所述表情分类网络中并输出F个预测值{Rj,1,Rj,2,...,Rj,t,...,Rj,F};其中,Rj,t表示第j张裁剪后的表情图像yj输出的第t个预测值;
将F个预测值{Rj,1,Rj,2,...,Rj,t,...,Rj,F}输入Softmax分类器中转换为对应的概率分布{Qj,1,Qj,2,...,Qj,t,...,Qj,F};其中,Qj,t表示第t个预测值Rj,t的概率分布;
选取概率分布{Qj,1,Qj,2,...,Qj,t,...,Qj,F}中最大值所对应的表情标签作为第j张裁剪后的表情图像yj的人脸表情识别结果;
步骤4、将改进深度卷积生成对抗网络输出的合成人脸图像S={s′1,s′2,...,s′i,...,s′N}与预处理后的人脸图像数据集X={x1,x2,...,xi,...,xN}进行融合后作为训练后的表情分类网络的输入,并由所述训练后的表情分类网络输出分类结果,并将分类结果作为预处理后的人脸图像数据集X={x1,x2,...,xi,...,xN}的人脸表情识别结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111158933.XA CN113688799B (zh) | 2021-09-30 | 2021-09-30 | 一种基于改进深度卷积生成对抗网络的人脸表情识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111158933.XA CN113688799B (zh) | 2021-09-30 | 2021-09-30 | 一种基于改进深度卷积生成对抗网络的人脸表情识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113688799A true CN113688799A (zh) | 2021-11-23 |
CN113688799B CN113688799B (zh) | 2022-10-04 |
Family
ID=78587580
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111158933.XA Active CN113688799B (zh) | 2021-09-30 | 2021-09-30 | 一种基于改进深度卷积生成对抗网络的人脸表情识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113688799B (zh) |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108334847A (zh) * | 2018-02-06 | 2018-07-27 | 哈尔滨工业大学 | 一种真实场景下的基于深度学习的人脸识别方法 |
CN109377448A (zh) * | 2018-05-20 | 2019-02-22 | 北京工业大学 | 一种基于生成对抗网络的人脸图像修复方法 |
CN109886216A (zh) * | 2019-02-26 | 2019-06-14 | 华南理工大学 | 基于vr情景人脸图像复原的表情识别方法、设备及介质 |
CN110222628A (zh) * | 2019-06-03 | 2019-09-10 | 电子科技大学 | 一种基于生成式对抗网络的人脸修复方法 |
CN110443293A (zh) * | 2019-07-25 | 2019-11-12 | 天津大学 | 基于双判别生成对抗网络文本重构的零样本图像分类方法 |
WO2019237846A1 (zh) * | 2018-06-11 | 2019-12-19 | 腾讯科技(深圳)有限公司 | 图像处理方法、人脸识别方法、装置和计算机设备 |
CN110751098A (zh) * | 2019-10-22 | 2020-02-04 | 中山大学 | 一种基于光照、姿态生成对抗网络的人脸识别方法 |
CN111860380A (zh) * | 2020-07-27 | 2020-10-30 | 平安科技(深圳)有限公司 | 人脸图像生成方法、装置、服务器及存储介质 |
CN112183213A (zh) * | 2019-09-02 | 2021-01-05 | 沈阳理工大学 | 一种基于Intral-Class Gap GAN的面部表情识别方法 |
CN112651917A (zh) * | 2020-12-28 | 2021-04-13 | 北京信息科技大学 | 一种基于生成对抗网络的空间卫星低照度图像增强方法 |
WO2021068182A1 (en) * | 2019-10-11 | 2021-04-15 | Beijing Didi Infinity Technology And Development Co., Ltd. | Systems and methods for instance segmentation based on semantic segmentation |
CN112800937A (zh) * | 2021-01-26 | 2021-05-14 | 华南理工大学 | 一种智能人脸识别方法 |
CN112906629A (zh) * | 2021-03-17 | 2021-06-04 | 西安电子科技大学广州研究院 | 人脸表情分类器的训练、人脸表情的识别方法和装置 |
CN113112411A (zh) * | 2020-01-13 | 2021-07-13 | 南京信息工程大学 | 基于多尺度特征融合的人脸图像语义修复方法 |
-
2021
- 2021-09-30 CN CN202111158933.XA patent/CN113688799B/zh active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108334847A (zh) * | 2018-02-06 | 2018-07-27 | 哈尔滨工业大学 | 一种真实场景下的基于深度学习的人脸识别方法 |
CN109377448A (zh) * | 2018-05-20 | 2019-02-22 | 北京工业大学 | 一种基于生成对抗网络的人脸图像修复方法 |
WO2019237846A1 (zh) * | 2018-06-11 | 2019-12-19 | 腾讯科技(深圳)有限公司 | 图像处理方法、人脸识别方法、装置和计算机设备 |
CN109886216A (zh) * | 2019-02-26 | 2019-06-14 | 华南理工大学 | 基于vr情景人脸图像复原的表情识别方法、设备及介质 |
CN110222628A (zh) * | 2019-06-03 | 2019-09-10 | 电子科技大学 | 一种基于生成式对抗网络的人脸修复方法 |
CN110443293A (zh) * | 2019-07-25 | 2019-11-12 | 天津大学 | 基于双判别生成对抗网络文本重构的零样本图像分类方法 |
CN112183213A (zh) * | 2019-09-02 | 2021-01-05 | 沈阳理工大学 | 一种基于Intral-Class Gap GAN的面部表情识别方法 |
WO2021068182A1 (en) * | 2019-10-11 | 2021-04-15 | Beijing Didi Infinity Technology And Development Co., Ltd. | Systems and methods for instance segmentation based on semantic segmentation |
CN110751098A (zh) * | 2019-10-22 | 2020-02-04 | 中山大学 | 一种基于光照、姿态生成对抗网络的人脸识别方法 |
CN113112411A (zh) * | 2020-01-13 | 2021-07-13 | 南京信息工程大学 | 基于多尺度特征融合的人脸图像语义修复方法 |
CN111860380A (zh) * | 2020-07-27 | 2020-10-30 | 平安科技(深圳)有限公司 | 人脸图像生成方法、装置、服务器及存储介质 |
CN112651917A (zh) * | 2020-12-28 | 2021-04-13 | 北京信息科技大学 | 一种基于生成对抗网络的空间卫星低照度图像增强方法 |
CN112800937A (zh) * | 2021-01-26 | 2021-05-14 | 华南理工大学 | 一种智能人脸识别方法 |
CN112906629A (zh) * | 2021-03-17 | 2021-06-04 | 西安电子科技大学广州研究院 | 人脸表情分类器的训练、人脸表情的识别方法和装置 |
Non-Patent Citations (3)
Title |
---|
SATOSHI IIZUKA ET AL: "Globally and Locally Consistent Image Completion", 《ACM TRANSACTIONS ON GRAPHICS》 * |
姜慧明: "基于生成对抗网络与知识蒸馏的人脸修复与表情识别", 《中国优秀硕士学位论文全文数据库》 * |
王素琴等: "基于生成对抗网络的遮挡表情识别", 《计算机应用研究》 * |
Also Published As
Publication number | Publication date |
---|---|
CN113688799B (zh) | 2022-10-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111444881A (zh) | 伪造人脸视频检测方法和装置 | |
CN111898736B (zh) | 基于属性感知的高效行人重识别方法 | |
CN112101241A (zh) | 一种基于深度学习的轻量级表情识别方法 | |
Kadam et al. | Detection and localization of multiple image splicing using MobileNet V1 | |
CN112800903B (zh) | 一种基于时空图卷积神经网络的动态表情识别方法及系统 | |
CN112183468A (zh) | 一种基于多注意力联合多级特征的行人再识别方法 | |
CN111861945B (zh) | 一种文本引导的图像修复方法和系统 | |
CN110390308B (zh) | 一种基于时空对抗生成网络的视频行为识别方法 | |
CN113011357A (zh) | 基于时空融合的深度伪造人脸视频定位方法 | |
CN116311483B (zh) | 基于局部面部区域重构和记忆对比学习的微表情识别方法 | |
CN113112416B (zh) | 一种语义引导的人脸图像修复方法 | |
CN115131880A (zh) | 一种多尺度注意力融合的双重监督人脸活体检测方法 | |
CN111931908A (zh) | 一种基于人脸轮廓的人脸图像自动生成方法 | |
Bhunia et al. | Word level font-to-font image translation using convolutional recurrent generative adversarial networks | |
CN113378949A (zh) | 一种基于胶囊网络和混合注意力的双重生成对抗学习方法 | |
Diyasa et al. | Multi-face Recognition for the Detection of Prisoners in Jail using a Modified Cascade Classifier and CNN | |
Yu et al. | Pedestrian detection based on improved Faster RCNN algorithm | |
CN116258989A (zh) | 基于文本与视觉的时空关联型多模态情感识别方法、系统 | |
CN114780775A (zh) | 一种基于内容选择和引导机制的图像描述文本生成方法 | |
Sharma et al. | Deepfakes Classification of Faces Using Convolutional Neural Networks. | |
Xu et al. | Visual-semantic transformer for face forgery detection | |
CN113851112A (zh) | 一种基于多监督多特征融合的语音测谎方法 | |
CN113221683A (zh) | 教学场景下基于cnn模型的表情识别方法 | |
CN113688799B (zh) | 一种基于改进深度卷积生成对抗网络的人脸表情识别方法 | |
CN110580457A (zh) | 一种基于面部显著特征的情感分析方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |