CN113705358B - 一种基于特征映射的多角度侧脸正面化方法 - Google Patents

一种基于特征映射的多角度侧脸正面化方法 Download PDF

Info

Publication number
CN113705358B
CN113705358B CN202110881054.3A CN202110881054A CN113705358B CN 113705358 B CN113705358 B CN 113705358B CN 202110881054 A CN202110881054 A CN 202110881054A CN 113705358 B CN113705358 B CN 113705358B
Authority
CN
China
Prior art keywords
image
side face
face
features
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110881054.3A
Other languages
English (en)
Other versions
CN113705358A (zh
Inventor
闫寒梅
李虹霞
韩志毅
秦品乐
郭垚辰
沈鉴
郎玉珍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanxi Police College
North University of China
Original Assignee
Shanxi Police College
North University of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanxi Police College, North University of China filed Critical Shanxi Police College
Priority to CN202110881054.3A priority Critical patent/CN113705358B/zh
Publication of CN113705358A publication Critical patent/CN113705358A/zh
Application granted granted Critical
Publication of CN113705358B publication Critical patent/CN113705358B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于特征映射的多角度侧脸正面化方法。该方法首先利用人脸识别模型Light CNN作为特征提取器,提取侧脸输入图像和真实正脸图像的深层特征,学习侧脸特征到正脸特征之间的映射关系,得到模型M;其次以生成对抗网络GAN(Generative Adversarial Network)为主干网络,侧脸图像作为输入图像,利用模型M将侧脸特征映射为正脸特征,同时GAN网络中的编码器提取侧脸图像特征,将两部分特征在通道维度上进行拼接,作为解码器的输入特征,最终输出逼真的虚拟正面人脸图像。本发明在面部全局特征和眼周局部特征上提高了生成图像身份信息保留,可作为一种预处理过程,帮助改善人脸识别模型的性能,特别是在监控视角下的多角度侧脸上,识别率得到提升。

Description

一种基于特征映射的多角度侧脸正面化方法
技术领域
本发明涉及一种基于特征映射的多角度侧脸正面化方法,属于侧脸正面化方法领域。
背景技术
随着人工智能的不断发展,人脸识别已经广泛应用于安防系统、视频监控等领域。监控场景下的人脸会存在多种姿态变化,如正脸、偏转角度侧脸和同时包含偏转和俯角变化的侧脸。由于侧脸存在自遮挡问题使得面部中部分关键身份特征缺失,直接使用侧脸与正脸进行识别难度较大。为了缓解这一问题,一般会采用正面化方法,即利用单张或多张侧脸图像恢复出虚拟正脸,再进行识别。这种方法可以作为一种预处理过程,嵌套到现有人脸识别模型中,从而不需要重新训练识别模型,并且在某些场景中,正面化的结果可以作为关键的参考材料,例如在刑侦领域,可以为办案人员提供参考。
现有主要方法有基于三维模型的方法和基于二维图像的方法。基于三维模型的方法主要根据人脸的三维模型进行建模,计算出不同姿态下图像之间像素点的位移关系(形变场),再作用于二维图像得到正面化图像。比如中国专利201710120029.7提出一种可学习形变场的人脸正面化方法,实现了偏转方向上的人脸正面化,但在多角度侧脸图像上效果较差,容易出现人工伪影。基于二维图像的方法是直接利用正面图像作为训练目标,得到生成的正面化图像。
基于三维模型的方法需要二维图像和三维模型之间的相互映射,这一过程会引入一些误差,且正面化结果通常不够真实,会出现人工伪影和严重的面部纹理信息丢失情况。基于二维的方法恢复出的结果虽然较为平滑,但得到的正面图像身份信息保留较低。此外,现有方法主要针对偏转方向上的侧脸进行正面化,对监控视角下同时包含偏转和俯角变化的侧脸关注较少。
发明内容
为了解决上述问题中的不足之处,提高现有人脸识别模型在多角度侧脸图像上的识别能力,,本发明提出了一种基于特征映射的多角度侧脸正面化方法,可以实现包括偏转方向及偏转-俯角方向的22个角度变化的侧脸正面化,其中偏转方向从-90度到90度以15度为间隔共13个角度,在偏转角为0度、±30度和±60度处加入30度和45度俯角的10个偏转-俯角。该方法加入了特征映射模块和眼周像素级保留损失,可以生成视觉效果更好,身份信息保留更多的正面人脸图像。
本发明中,采用人脸正面化方法(将侧脸图像矫正为正脸图像,利用矫正后的正脸进行识别)以提高现有人脸识别模型在多姿态人脸图像上的识别能力。
生成对抗网络的生成器由编码器和解码器组成,其中编码器包括两部分:一部分利用Light CNN提取输入侧脸图像特征,通过模型M将侧脸特征转换为正脸特征;另一部分利用原始生成对抗网络GAN的编码器提取输入侧脸图像特征,将两部分得到的特征在通道维度上拼接,输入到生成对抗网络的解码器,输出虚拟正脸图像。
为了使虚拟正脸图像保留较多输入侧脸图像的身份信息,在现有全局身份保留损失基础上,本发明加入眼周区域像素级保留损失,以提高虚拟正脸眼周区域的身份保留。
生成对抗网络的判别器输入真实正脸图像和虚拟正脸图像,判别生成图像和真实图像为真的概率值,从而对生成器造成一定的惩罚,使得生成器生成的结果更接近真实图像。
本发明所使用的服务器硬件配置,为NVIDIA Tesla P-100高性能GPU服务器,显存为16G,所采用的操作系统为Ubuntu18.0.4,代码采用python编程语言实现。
本发明提供了一种基于特征映射的多角度侧脸正面化方法,包括以下步骤:
(1)构建训练样本:获取一批有姿态标注的人脸图像数据集作为训练集/测试集,每个人包含多种偏转角度和偏转-俯仰角度下的姿态;
所述姿态包括偏转方向从-90度到90度以15度为间隔共13个角度,在偏转角为0度、±30度和±60度处加入30度和45度(因为监控视角下的人脸受到的俯角大致位于这两个角度范围内,这两个俯角更符合现实监控场景中人脸受到的俯角)俯角的10个偏转-俯角。
(2)将侧脸图像作为输入图像,基准正脸图像作为目标图像,开源的人脸识别模型Light CNN作为特征提取器,学习侧脸特征到正脸特征之间的映射关系,得到模型M;
(3)利用生成对抗网络(Generative Adversarial Network,GAN)作为侧脸正面化模型主干网络,以侧脸图像作为输入图像,利用步骤(2)中的模型M将侧脸特征映射为正脸特征,同时GAN网络中的编码器提取侧脸图像特征,将两部分特征在通道维度上进行拼接,作为解码器的输入特征,该网络最终输出逼真的虚拟正面人脸图像;
(4)利用处理好的训练样本训练侧脸正面化模型;
(5)将新获取的侧面人脸图像输入训练好的侧脸正面化模型中,输出和目标图像接近的虚拟正面人脸图像。
具体地,训练好的模型包括用于将侧脸特征映射为正脸特征的特征映射分支网络,用于特征提取、正脸生成和判别真假的GAN网络,最终生成和目标图像接近的虚拟正脸图像。
本发明的特征提取模块包括两路,以预处理的侧脸图像作为输入,一路将侧脸特征经过特征映射分支网络M获得映射后的正脸特征;另一路通过GAN中的编码器网络,获得相应的侧脸特征,再将两路得到的特征在通道维度上进行拼接,作为GAN网络中解码器的输入,经过解码器的多次反卷积上采样最终生成和目标图像接近的虚拟正脸图像。
人脸正面化模型可以作为一种预处理方法,嵌套到现有人脸识别模型中,因此,为了提高生成图像身份信息保留能力,本发明在全局身份保留损失的基础上,加入了眼周区域像素级保留损失来训练网络,通过同时关注面部全局深层特征和眼周局部像素级特征,使得生成正脸图像保留更多关键身份信息。
具体的,所述的全局身份保留损失和局部眼周像素级保留损失的表达式为:
其中表示利用预训练的人脸识别网络Light CNN提取的最后一层全连接层的特征,由于Light CNN是在大规模数据集上训练,因此它可以捕捉到更显著的人脸特征。该损失函数Lip用于在深层特征空间降低生成图和基准图的距离,从而使得生成图像保留身份信息。其中Igen表示生成图像,Igt表示基准正脸图像,/>表示向量2范数。
其中i表示第i个图像尺寸(分辨率分别为128×128和64×64),Igen表示生成图像,Igt表示基准正脸图像,Wi和Hi分别表示每个眼周图像的宽和高,C表示图像的通道数,Le表示眼周区域像素级保留损失,w、h、c分别表示对应像素的宽、高和通道。上述公式用于最小化分辨率为128和64的生成图像Igen和目标图像Igt对在眼周区域(包括眉毛和眼睛)上的像素值距离。
Lip表示身份保持损失,确定是否为同一个人,关注人脸全局。Le表示眼周损失,计算两张图片眼周区域差距,关注局部损失。
本发明的有益效果:
本发明不仅能对监控视角下的多角度侧脸图像恢复出视觉效果逼真的正面人脸图像,且训练过程比基于三维的方法简单,人工伪影少,同时相比基于二维的方法,可以从全局和局部两个角度上保留更多的身份特征信息,对于识别更有帮助,特别是在多角度变化的人脸上,识别率得到提升。此外,生成结果也可作为参考材料用于特定场景。
附图说明
图1所示为本发明构建的侧脸正面化模型图;
图2所示为本发明的逻辑图;
图3为训练好的侧脸正面化模型在不同角度下输入图像、生成图像和目标图像的对比图。
具体实施方式
下面通过实施例来进一步说明本发明,但不局限于以下实施例。
实施例1:
本发明提出一种基于特征映射的多角度侧脸正面化方法,包括以下步骤:
(1)构建训练样本:获取一批有姿态标注的人脸图像数据集作为训练集/测试集,每个人包含多种偏转角度和偏转-俯仰角度下的姿态;
(2)将侧脸图像作为输入图像,正脸图像作为目标图像,开源的人脸识别模型Light CNN作为特征提取器,学习侧脸特征到正脸特征之间的映射关系,得到模型M;
(3)利用GAN网络作为侧脸正面化模型主干网络,以侧脸图像作为输入图像,利用步骤(2)中的模型M将侧脸特征映射为正脸特征,同时GAN网络中的编码器提取侧脸图像特征,将两部分特征在通道维度上进行拼接,作为解码器的输入特征,该网络最终输出逼真的虚拟正面人脸图像;
(4)利用处理好的训练样本训练侧脸正面化模型;
(5)将新获取的侧面人脸图像输入训练好的侧脸正面化模型中,输出和目标图像尽量接近的正面人脸图像。
如图1所示,根据本发明的基于特征映射的多角度侧脸正面化方法示意框图。
主要包括两个网络:用于将侧脸特征映射为正脸特征的特征映射分支网络和用于特征提取、正脸生成和判别真假的GAN网络。
特征映射分支网络以侧脸图像和基准正脸图像作为输入图像,利用开源的性能较强的人脸识别网络Light CNN作为特征提取器分别得到256维度的特征向量,以正脸特征作为目标,训练分支网络学习侧脸特征和正脸特征之间存在的一种内在映射关系,将侧脸特征映射为正脸特征,以过滤角度干扰和图像噪声。
GAN网络包括生成器和判别器两部分,生成器由编码器-解码器组成,编码器以侧脸图像作为输入,由5个卷积层+RELU激活层+卷积层+RELU激活层块组成,接着通过一个全连接层得到256维度的侧脸图像的深层特征向量,之后将该侧脸特征和特征映射分支网络得到的正脸特征在通道维度上进行拼接,使得进入解码器的深层人脸特征向量在一定程度上进行补全,以缓解自遮挡问题。然后将拼接的特征作为解码器的输入,经过5次反卷积层+RELU激活层+反卷积层+RELU激活层块的上采样后,输出虚拟正脸图像。其中在上采样过程中利用了跳层拼接,将编码器下采样过程中对应尺度的特征图和解码器上采样过程中相同尺度的特征图在通道上进行拼接,共同作为下次上采样的输入特征图,跳层拼接可以提供上下文信息,从而提高生成图像的细节效果。
判别器用于学习区分生成图像和真实图像的真假性,使得生成器生成的结果更接近真实图像。判别器由5层级联的卷积层+RELU激活层组成,用1×1卷积核代替全连接层降低特征通道,最后输出4×4概率图。采用1×1卷积核可以保证在降低特征图维度的同时不改变图像的空间结构。输出4×4概率图,其中每一个概率值对应图像中一个局部感受野,可以将人脸五官位置进行分离判别,采用这种方法可以提高判别器对局部细节的判别能力,从而促使生成器生成高细节保留、高分辨率的正面人脸图像。
该模型的训练由生成器和判别器交替循环训练,即先训练一次生成器,再训练一次判别器,然后依次循环,直到两者达到动态平衡。其中损失函数公式如下:
Lsyn=λ1Lpixel2Labv3Lip4Le5Lsym+λ6Ltv
其中,Lpixel表示多尺度像素级损失,Ladv表示对抗损失,Lip表示身份保留损失,Le表示眼周区域像素级保留损失,Lsym表示对称损失,Ltv表示总差分正则化,是权重参数。
其中i表示第i个图像尺寸,即分别在分辨率为128,64,32大小的生成图和目标图上计算像素值的L1距离。C表示图像的通道数,和分别表示为每个图像尺寸的宽和高。
其中G表示生成器,D表示判别器,E表示期望,表示生成图,表示目标图,θG表示生成器的参数,θD表示判别器的参数。
其中定义为预训练的人脸识别网络Light CNN提取的最后一层全连接层的特征,由于Light CNN是在大规模数据集上训练,因此,它可以捕捉到更显著的人脸特征。该损失可以在深层特征空间降低生成图和基准图的距离,使得生成图保留身份信息。Igen表示生成图,Igt表示目标图像,/>表示向量2范数。
其中i表示第i个图像尺寸(分辨率分别为128×128和64×64),Igen表示生成图像,Igt表示基准正脸图像,Wi和Hi分别表示每个眼周图像的宽和高,C表示图像的通道数,上述公式用于最小化分辨率为128和64的生成图像Igen和目标图像Igt对在眼周区域(包括眉毛和眼睛)上的像素值距离,眼周区域大小选取数据集中眼周矩形框的平均尺寸。
其中W-(w-1)表示生成图Igen中w位置的对称横坐标。
其中W和H表示生成图像的宽和高,Igen表示生成图像,C表示图像的通道数。
经过实验,权重参数分别设置为100,0.1,0.01,1,0.01,0.05。

Claims (4)

1.一种基于特征映射的多角度侧脸正面化方法,其特征在于包括以下步骤:
(1)构建训练样本:获取一批有姿态标注的人脸图像数据集作为训练集/测试集,每个人包含多种偏转角度和偏转-俯仰角度下的姿态;
将MASFD数据集作为训练集/测试集;
(2)将侧脸图像作为输入图像,基准正脸图像作为目标图像,开源的人脸识别模型Light CNN作为特征提取器,学习侧脸特征到正脸特征之间的映射关系,得到模型M;
建立的模型M为:
M(φ(,I-p.))=φ(,I-p.)+yaw×R(φ(,I-p.))+pitch×R(φ(,I-p.))
其中M为特征映射函数,I-p表示输入侧脸图像,R为残差转换函数,φ(I-p)为LightCNN提取的输入图像的特征向量,yaw和pitch是经过归一化处理的偏转角度和俯仰角度的权重参数;
(3)利用生成对抗网络GAN作为侧脸正面化模型主干网络,以侧脸图像作为输入图像,利用步骤(2)中的模型M将侧脸特征映射为正脸特征,同时GAN网络中的编码器提取侧脸图像特征,将两部分特征在通道维度上进行拼接,作为解码器的输入特征,该网络最终输出逼真的虚拟正面人脸图像;
(4)利用处理好的训练样本训练侧脸正面化模型;
(5)将新获取的侧面人脸图像输入训练好的侧脸正面化模型中,输出和目标图像接近的虚拟正面人脸图像;
为了提高生成图像身份信息保留能力,在全局身份保留损失的基础上,加入了眼周区域像素级保留损失来训练网络,通过同时关注面部全局深层特征和眼周局部像素级特征,使得生成正脸图像保留更多关键身份信息;
全局身份保留损失和局部眼周像素级保留损失的表达式为:
其中表示利用预训练的人脸识别网络Light CNN提取的最后一层全连接层的特征,由于Light CNN是在大规模数据集上训练,因此它可以捕捉到更显著的人脸特征;该损失函数Lip用于在深层特征空间降低生成图和基准图的距离,从而使得生成图像保留身份信息;其中Igen表示生成图像,Igt表示基准正脸图像,/>表示向量2范数;
其中i表示第i个图像尺寸,分辨率分别为128×128和64×64,Igen表示生成图像,Igt表示基准正脸图像,Wi和Hi分别表示每个眼周图像的宽和高,C表示图像的通道数,Le表示眼周区域像素级保留损失;w、h、c分别表示对应像素的宽、高和通道;上述公式用于最小化分辨率为128和64的生成图像Igen和目标图像Igt对在眼周区域:眉毛和眼睛上的像素值距离。
2.根据权利要求1所述的基于特征映射的多角度侧脸正面化方法,其特征在于:步骤(1)中,所述姿态包括偏转方向从-90度到90度以15度为间隔共13个角度,在偏转角为0度、±30度和±60度处加入30度和45度俯角的10个偏转-俯角。
3.根据权利要求1所述的基于特征映射的多角度侧脸正面化方法,其特征在于:训练好的侧脸正面化模型包括用于将侧脸特征映射为正脸特征的特征映射分支网络,用于特征提取、正脸生成和判别真假的GAN网络,最终生成和目标图像接近的虚拟正脸图像。
4.根据权利要求3所述的基于特征映射的多角度侧脸正面化方法,其特征在于:特征提取模块包括两路,以预处理的侧脸图像作为输入,一路将侧脸特征经过特征映射分支网络M获得映射后的正脸特征;另一路通过GAN中的编码器网络,获得相应的侧脸特征,再将两路得到的特征在通道维度上进行拼接,作为GAN网络中解码器的输入,经过解码器的多次反卷积上采样最终生成和目标图像接近的虚拟正脸图像。
CN202110881054.3A 2021-08-02 2021-08-02 一种基于特征映射的多角度侧脸正面化方法 Active CN113705358B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110881054.3A CN113705358B (zh) 2021-08-02 2021-08-02 一种基于特征映射的多角度侧脸正面化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110881054.3A CN113705358B (zh) 2021-08-02 2021-08-02 一种基于特征映射的多角度侧脸正面化方法

Publications (2)

Publication Number Publication Date
CN113705358A CN113705358A (zh) 2021-11-26
CN113705358B true CN113705358B (zh) 2023-07-18

Family

ID=78651254

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110881054.3A Active CN113705358B (zh) 2021-08-02 2021-08-02 一种基于特征映射的多角度侧脸正面化方法

Country Status (1)

Country Link
CN (1) CN113705358B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115861409B (zh) * 2023-02-28 2023-06-27 华南农业大学 大豆叶面积测算方法、系统、计算机设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110288537A (zh) * 2019-05-20 2019-09-27 湖南大学 基于自注意力的深度生成式对抗网络的人脸图像补全方法
CN110738161A (zh) * 2019-10-12 2020-01-31 电子科技大学 一种基于改进生成式对抗网络的人脸图像矫正方法
CN111428667A (zh) * 2020-03-31 2020-07-17 天津中科智能识别产业技术研究院有限公司 一种基于解耦表达学习生成对抗网络的人脸图像转正方法
CN111428761A (zh) * 2020-03-11 2020-07-17 深圳先进技术研究院 图像特征可视化方法、图像特征可视化装置及电子设备
CN112418074A (zh) * 2020-11-20 2021-02-26 重庆邮电大学 一种基于自注意力的耦合姿态人脸识别方法
CN112699899A (zh) * 2020-12-31 2021-04-23 杭州电子科技大学 一种基于生成对抗网络的高光谱图像特征提取方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110288537A (zh) * 2019-05-20 2019-09-27 湖南大学 基于自注意力的深度生成式对抗网络的人脸图像补全方法
CN110738161A (zh) * 2019-10-12 2020-01-31 电子科技大学 一种基于改进生成式对抗网络的人脸图像矫正方法
CN111428761A (zh) * 2020-03-11 2020-07-17 深圳先进技术研究院 图像特征可视化方法、图像特征可视化装置及电子设备
CN111428667A (zh) * 2020-03-31 2020-07-17 天津中科智能识别产业技术研究院有限公司 一种基于解耦表达学习生成对抗网络的人脸图像转正方法
CN112418074A (zh) * 2020-11-20 2021-02-26 重庆邮电大学 一种基于自注意力的耦合姿态人脸识别方法
CN112699899A (zh) * 2020-12-31 2021-04-23 杭州电子科技大学 一种基于生成对抗网络的高光谱图像特征提取方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于编解码网络的多姿态人脸图像正面化方法;徐海月;姚乃明;彭晓兰;陈辉;王宏安;;中国科学:信息科学(第04期);全文 *
基于面部特征图对称的人脸正面化生成对抗网络算法;李虹霞等;计算机应用;第21卷(第3期);第714-720页 *

Also Published As

Publication number Publication date
CN113705358A (zh) 2021-11-26

Similar Documents

Publication Publication Date Title
CN110348330B (zh) 基于vae-acgan的人脸姿态虚拟视图生成方法
CN110136063B (zh) 一种基于条件生成对抗网络的单幅图像超分辨率重建方法
CN110570353B (zh) 密集连接生成对抗网络单幅图像超分辨率重建方法
CN109377530B (zh) 一种基于深度神经网络的双目深度估计方法
CN108537743B (zh) 一种基于生成对抗网络的面部图像增强方法
US11232286B2 (en) Method and apparatus for generating face rotation image
CN111105352B (zh) 超分辨率图像重构方法、系统、计算机设备及存储介质
CN110378838B (zh) 变视角图像生成方法,装置,存储介质及电子设备
CN111444881A (zh) 伪造人脸视频检测方法和装置
CN112733795B (zh) 人脸图像的视线矫正方法、装置、设备及存储介质
WO2022156626A1 (zh) 一种图像的视线矫正方法、装置、电子设备、计算机可读存储介质及计算机程序产品
CN112288627B (zh) 一种面向识别的低分辨率人脸图像超分辨率方法
CN110381268B (zh) 生成视频的方法,装置,存储介质及电子设备
CN110059728B (zh) 基于注意力模型的rgb-d图像视觉显著性检测方法
CN112418041B (zh) 一种基于人脸正面化的多姿态人脸识别方法
CN113283444B (zh) 一种基于生成对抗网络的异源图像迁移方法
CN111242238A (zh) 一种rgb-d图像显著性目标获取的方法
CN110532959B (zh) 基于双通道三维卷积神经网络的实时暴力行为检测系统
CN116168067B (zh) 基于深度学习的有监督多模态光场深度估计方法
CN115147271A (zh) 一种用于光场超分辨率的多视图信息注意力交互网络
CN110633640A (zh) 优化PointNet对于复杂场景的识别方法
CN113222819A (zh) 一种基于深度卷积神经网络的遥感图像超分辨重建方法
Krishnan et al. SwiftSRGAN-Rethinking super-resolution for efficient and real-time inference
CN113705358B (zh) 一种基于特征映射的多角度侧脸正面化方法
CN114882537A (zh) 一种基于神经辐射场的手指新视角图像生成方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant