CN108629291B - 一种抗网格效应的人脸深度预测方法 - Google Patents

一种抗网格效应的人脸深度预测方法 Download PDF

Info

Publication number
CN108629291B
CN108629291B CN201810333873.2A CN201810333873A CN108629291B CN 108629291 B CN108629291 B CN 108629291B CN 201810333873 A CN201810333873 A CN 201810333873A CN 108629291 B CN108629291 B CN 108629291B
Authority
CN
China
Prior art keywords
neural network
convolutional neural
face
depth prediction
prediction method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810333873.2A
Other languages
English (en)
Other versions
CN108629291A (zh
Inventor
王兴政
章书豪
王好谦
方璐
戴琼海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Weilai Media Technology Research Institute
Shenzhen Graduate School Tsinghua University
Original Assignee
Shenzhen Weilai Media Technology Research Institute
Shenzhen Graduate School Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Weilai Media Technology Research Institute, Shenzhen Graduate School Tsinghua University filed Critical Shenzhen Weilai Media Technology Research Institute
Priority to CN201810333873.2A priority Critical patent/CN108629291B/zh
Publication of CN108629291A publication Critical patent/CN108629291A/zh
Application granted granted Critical
Publication of CN108629291B publication Critical patent/CN108629291B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

提供一种抗网格效应的人脸深度预测方法,包括步骤:S1:搭建抗网格效应的卷积神经网络,包括多个空洞卷积,每个空洞卷积串联连接的规范化操作和激励操作,以及多个像素反卷积;S2:建立人脸数据集,其包括训练集和测试集,并设置卷积神经网络的训练参数;S3:对卷积神经网络进行权重初始化,将训练集输入卷积神经网络中,以最小化代价函数为目标来训练神经网络形成人脸图像深度预测神经网络模型;S4:将测试集输入人脸图像深度预测神经网络模型,输出能够反映人脸图像深度信息的图像。本发明的人脸深度预测方法,能够解决传统卷积神经网络的网格效应,拥有较大的感受域,能够极大地提升人脸深度预测的准确性,有利于进行人脸的三维重建研究。

Description

一种抗网格效应的人脸深度预测方法
技术领域
本发明涉及计算机视觉与数字图像处理领域,特别涉及一种抗网格效应的人脸深度预测方法
背景技术
人脸深度预测,是计算机视觉领域一个新颖且富有挑战性的问题。对人脸进行深度预测是理解整个人脸几何关系的重要组成部分。相应的,这样的关系能够很好地反映人脸上的器官以及整个人面部的环境,如果能得到较好的人脸面部深度信息,将会对人脸识别问题提供非常大的帮助,同样地,也有助于构建人脸的3D模型,有利于解决有关人脸的三维重建问题。但是从一张人脸的RGB图片中预测出整个人脸的深度信息本身是一个具有病态性质的问题,因为在将RGB图像的颜色信息映射成深度值的过程中面临诸多的不确定性。为了解决这一问题,一些方法是通过马尔科夫随场来获得深度信息,通过条件随机场来正则化深度图,但是这些方法依赖于图像的水平校准,因而对训练环境比较敏感。
近年来,随着卷积神经网络(Convolutional Neural Networks,CNN)的提出,许多计算机视觉与数字图像处理领域的问题通过使用CNN都取得了非常好的效果。目前,一些基于卷积神经网络进行深度预测的方法被提出,取得了一些较好的结果,但是也存在着一些问题。比如,随着卷积层的不断增加会面临梯度消失从而训练不下去的问题;深层网络的感受野比较小,训练出的深度图精度不是很高,图像较为粗糙。针对深层网络感受野比较小的问题,最近空洞卷积的提出证明了在卷积神经网络训练中加入空洞卷积可以扩大卷积神经网络的感受野从而提升精度。但是空洞卷积存在普遍的网格问题,因为空洞卷积虽然能够扩大感受域,但是其是在卷积核中填充0,形成网格效应,对于空洞率为2的空洞卷积而言,大约会损失75%的信息,随着空洞率的不断增大,局部信息会损失。同样的情况也存在于进行上采样操作的反卷积当中,在进行上采样的过程中由于临近像素之间没有直接联系,产生网格效应,从而影响生成的深度图精度。
发明内容
为解决上述技术问题,本发明提供一种抗网格效应的人脸深度预测方法。
本发明的技术问题通过以下的技术方案予以解决:
一种抗网格效应的人脸深度预测方法,包括如下步骤:
S1:搭建抗网格效应的卷积神经网络,所述卷积神经网络包括编码网络和解码网络,其中编码网络包括多个空洞卷积,以及每个空洞卷积串联连接的规范化操作和激励操作,所述解码网络包括多个像素反卷积;
S2:建立所需的人脸数据集,所述人脸数据集包括训练集和测试集,并且设置所述卷积神经网络的训练参数;
S3:对所述卷积神经网络进行权重初始化,将所述训练集输入初始化后的卷积神经网络中,根据所述卷积神经网络及其初始化的权重值,以最小化代价函数为目标来训练所述神经网络形成人脸图像深度预测神经网络模型;
S4:将所述测试集输入到所述人脸图像深度预测神经网络模型,输出能够反映人脸图像深度信息的图像。
优选地,所述编码网络中的数个空洞卷积依次串联连接,每个空洞卷积的输出端依次串联所述规范化操作和所述激励操作,在最后一个空洞卷积后依次串联多个像素反卷积;所述规范化操作采用Batch Normalization,所述激励操作采用Leaky Relu函数。
优选地,所述空洞卷积的数量至少为4个,空洞卷积的空洞率服从锯齿波分布,并逐渐增大。
优选地,所述空洞卷积为四个,其空洞率分别为1,2,5,9。
优选地,所述步骤S3中的代价函数由正则项和损失项组成,如下:
Figure GDA0002460405600000021
其中,
Figure GDA0002460405600000022
为正则项,
Figure GDA0002460405600000023
为损失项,yi,yi*分别表示所述训练集中的第i张人脸图像经过所述卷积神经网络训练后所得到的像素的深度值,像素的ground truth值,n表示所述训练集的图像中有深度信息的像素点的个数,λ表示损失项的正则系数。
优选地,所述步骤S2中还包括:对人脸数据集中的各RGB图像,生成其的深度信息ground truth图。
优选地,所述卷积神经网络的输入为RGBD四通道的数据;其中D通道的数据的获取方式为:对深度信息ground truth图进行关键点检测,将这些关键点处的深度保留,其余舍去,所述关键点为人脸的眼睛、嘴巴和鼻子。
优选地,所述正则系数λ在(0,1]范围内。
优选地,所述步骤S3中对卷积神经网络进行权重初始化采用一维高斯分布,并利用AdamOptimizer方法来最小化所述代价函数。
优选地,所述步骤S3中通过不断地最小化代价函数来更新卷积神经网络的权重值,直到代价函数的值不再减小,就停止更新,训练结束。
本发明与现有技术对比的有益效果包括:本发明的抗网格效应的人脸深度预测方法,能够解决卷积神经网络所产生的网格效应,拥有较大的感受域,能够极大地提升人脸深度预测的准确性,有利于进行人脸的三维重建研究。
附图说明
图1是本发明优选实施例的抗网格效应的人脸深度预测方法的流程图;
图2是本发明优选实施例的抗网格效应的卷积神经网络的内部构造示意图;
图3是本发明优选实施例的第四通道D数据的生成图;
图4是本发明优选实施例的像素反卷积的构造流程图;
图5是本发明优选实施例的实例图结果。
具体实施方式
下面对照附图并结合优选的实施方式对本发明作进一步说明。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
如图1所示,本发明的优选实施例的抗网格效应的人脸深度预测方法,包括以下步骤:
S1:搭建卷积神经网络,所述卷积神经网络包括编码网络和解码网络,其中编码网络包括多个空洞卷积,以及每个空洞卷积串联连接的规范化操作和激励操作,所述解码网络包括多个像素反卷积;
其中,较优的是编码网络中的数个空洞卷积依次串联,每个空洞卷积的输出端依次串联规范化操作和激励操作(规范化操作和激励操作未图示),在最后一个空洞卷积后依次串联多个像素反卷积;具体的,前一个空洞卷积的输出端串联连接规范化操作,规范化操作的输出端串联连接激励操作,激励操作的输出端连接后一个空洞卷积的输入端,如此连接,在最后一个空洞卷积的激励操作的输出端之后再依次串联连接多个像素反卷积。其中,规范化操作采用Batch Normalization,激励操作采用Leaky Relu函数。较优的是,所述空洞卷积的数量至少为4个,针对空洞卷积所产生的网格效应,对于不同的空洞卷积,采用不同的空洞率,空洞卷积的空洞率服从锯齿波分布,并逐渐增大,并采用像素反卷积来消除原始反卷积上采样过程中的网格效应。
本发明优选实施例的卷积神经网络如图2所示,包括四个3x3的空洞卷积,空洞率如图所示分别为1,2,5,9,每个空洞卷积后都连接有Batch Normalization操作、LeakyRelu激励操作(未图示),还包括四个4x4的像素反卷积。3x3空洞卷积用于提取人脸图像特征,对3x3空洞卷积进行Batch Normalizaion操作可以解决卷积神经网络随着空洞卷积数增多而导致的内部变量偏移问题,从而使得卷积神经网络能够更容易优化,避免陷入局部最优。具体做法可以是:把每一空洞卷积的输入正则化为标准高斯分布,使用Leaky Relu激励函数可以克服普通Relu激励函数在梯度较大情况下产生的神经元死亡现象;使用空洞卷积可以增加卷积神经网络的感受野,为了解决空洞卷积所造成的网格现象,本发明的空洞卷积率服从锯齿波分布,空洞率逐渐上升,这样可以获得更多的像素信息。
本发明优选实施例的像素反卷积的构造方式如图4所示,例如,对于一个4x4的特征图,要上采样得到8x8的特征图,步骤如下:首先经过3x3的空洞卷积操作生成4x4的中间特征图1,然后中间特征图1再经过3x3的空洞卷积操作生成4x4的中间特征图2,中间特征图1与中间特征图2经过空洞率为2的空洞卷积操作然后拼接成8x8的卷积特征图3,卷积特征图3经过3x3的空洞卷积操作生成8x8的卷积特征图4,卷积特征图3与卷积特征图4拼接成最后的8x8的特征图,像素反卷积充分考虑了上采样时像素之间的关系,有助于消除网格效应。
S2:建立所需的人脸数据集,人脸数据集包括训练集和测试集,并且设置卷积神经网络的训练参数;
举例来说,可以选取30000张人脸的RGB图作为人脸数据集,男女各15000张,每张图片尺寸为640x640,均为正面人脸图,每张图像都有自己的深度信息ground truth图,进一步地,出于对硬件的考虑,还可以先将RGB图像裁剪成384x384的图像块,并生成(例如用OpenGL生成,用双目视差原理)各所述RGB图像的深度信息ground truth图。人脸数据集包括训练集和测试集,其中训练集设25000张,测试集设5000张,训练集和测试集均为RGBD四通道的数据(即在RGBD四个通道,都要分别输入训练集和测试集)。为了使关键点区域(眼睛、鼻子、嘴巴)的预测结果更精确,如图3所示,可以提取关键点区域特征点的深度值作为数据通道D数据(例如,对深度信息ground truth图进行关键点(眼睛、嘴巴和鼻子)检测,将这些关键点处的深度保留,其余舍去),采用RGBD数据作为卷积神经网络的输入进行训练。
卷积神经网络的训练参数,包括每层的输入图像大小inputsize(如本例中为384x384)、卷积核的kernelsize(卷积核尺寸,如本例中为3x3)、卷积核的stride(步长)等。每层卷积的输出大小为:outputsize=(inputsize-kernelsize)/stride+1。在本实施例中每次输入到所述卷积神经网络的图像数为50,学习率为0.0001。
S3:对卷积神经网络进行权重初始化,将训练集输入初始化后的卷积神经网络中,根据卷积神经网络及其初始化的权重值,以最小化代价函数为目标来训练神经网络形成人脸图像深度预测神经网络模型;
其中,步骤S3对所有训练集中的RGBD图像分别训练卷积神经网络形成人脸深度预测神经网络模型,代价函数如下,由正则项和损失项组成:
Figure GDA0002460405600000051
其中,其中,
Figure GDA0002460405600000052
为正则项,
Figure GDA0002460405600000053
为损失项,yi,yi*分别表示所述训练集中的第i张人脸图像经过所述卷积神经网络训练后所得到的像素的深度值,像素的ground truth值,n表示所述训练集的图像中有深度信息的像素点的个数,λ表示损失项的正则系数,在(0,1]范围内取值,本实例中的λ为0.5。由于在训练的过程中,图片上物体边界周围的深度信息经常会存在缺失现象,本实施例采取的做法是将这些缺失深度信息的点去除掉,只在有深度信息的点上来最小化代价函数。通过不断地最小化代价函数来更新卷积神经网络的权重值,直到代价函数的值不再减小,就停止更新,训练结束。
在本实施例中对卷积神经网络进行权重初始化采用一维高斯分布,采用AdamOptimizer的方法来最小化代价函数,AdamOptimizer算法相比于传统的SGD(随机梯度下降)更加适用于数据量大、层数深的网络。AdamOptimizer算法是根据代价函数对每个参数的梯度进行一阶距估计和二阶距估计从而动态调整每个参数的学习率。AdamOptimizer算法的优点在于每一次迭代过程中的参数更加平稳,不容易陷入到局部最优。
S4:将测试集输入到已训练好的人脸图像深度预测神经网络模型,输出能够反映人脸图像深度信息的图像。
在步骤S2中的数据集选取5000张的测试集,步骤S3对所有训练集RGBD图像分别训练所述的卷积神经网络形成所述人脸深度预测神经网络模型,所述步骤S4中将待处理的测试集图像输入到相应的人脸深度预测神经网络模型,输出能够反映人脸图像深度信息的图像。
在一个实例中,待处理的测试集中的人脸RGB图像的大小为384x384,向所述卷积神经网络输入人脸RGB图像后,输出的深度预测图像的大小为384x384,图5是本发明优选实施例的实例图结果。
其中平均绝对相关误差的计算方式如下:
Figure GDA0002460405600000061
在本实例中rel在测试集中的值为0.221。
均方根误差的计算方式如下:
Figure GDA0002460405600000071
在本实例中rms在测试集中的值为0.203。
log10误差的计算方式如下:
Figure GDA0002460405600000072
在本实例中log10误差在测试集中的值为0.152。
以上公式中的yi,yi*分别表示训练集中的第i张人脸图像经过卷积神经网络训练后所得到的像素的深度值,像素的ground truth值,n表示训练集的图像有深度信息的像素点的个数。rel、rms、log10的结果越小证明卷积神经网络的预测能力越准确。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的技术人员来说,在不脱离本发明构思的前提下,还可以做出若干等同替代或明显变型,而且性能或用途相同,都应当视为属于本发明的保护范围。

Claims (10)

1.一种人脸深度预测方法,其特征在于,所述人脸深度预测方法用于抗网格效应,包括如下步骤:
S1:搭建抗网格效应的卷积神经网络,所述卷积神经网络包括编码网络和解码网络,其中编码网络包括多个空洞卷积,以及每个空洞卷积串联连接的规范化操作和激励操作,所述解码网络包括多个像素反卷积,像素反卷积的数量与空洞卷积的数量相等,每个像素反卷积输出的特征图的大小是输入的特征图大小的两倍,所述像素反卷积充分考虑了上采样时像素之间的关系以用于消除网格效应;
S2:建立所需的人脸数据集,所述人脸数据集包括训练集和测试集,并且设置所述卷积神经网络的训练参数;
S3:对所述卷积神经网络进行权重初始化,将所述训练集输入初始化后的卷积神经网络中,根据所述卷积神经网络及其初始化的权重值,以最小化代价函数为目标来训练所述神经网络形成人脸图像深度预测神经网络模型;
S4:将所述测试集输入到所述人脸图像深度预测神经网络模型,输出能够反映人脸图像深度信息的图像。
2.如权利要求1所述的人脸深度预测方法,其特征在于:所述编码网络中的数个空洞卷积依次串联连接,每个空洞卷积的输出端依次串联规范化操作和激励操作,激励操作的输出端连接后一个空洞卷积的输入端,如此连接,在最后一个空洞卷积后依次串联多个像素反卷积;所述规范化操作采用Batch Normalization,所述激励操作采用Leaky Relu函数。
3.如权利要求1所述的人脸深度预测方法,其特征在于:所述空洞卷积的数量至少为4个,空洞卷积的空洞率服从锯齿波分布,并逐渐增大。
4.如权利要求3所述的人脸深度预测方法,其特征在于:所述空洞卷积为四个,其空洞率分别为1,2,5,9。
5.如权利要求1所述的人脸深度预测方法,其特征在于:所述步骤S3中的代价函数由正则项和损失项组成,如下:
Figure FDA0002553593750000011
其中,
Figure FDA0002553593750000012
为正则项,
Figure FDA0002553593750000021
为损失项,yi,yi*分别表示所述训练集中的第i张人脸图像经过所述卷积神经网络训练后所得到的像素的深度值,像素的ground truth值,n表示所述训练集的图像中有深度信息的像素点的个数,λ表示损失项的正则系数。
6.如权利要求1所述的人脸深度预测方法,其特征在于:所述步骤S2中还包括:对人脸数据集中的各RGB图像,生成其的深度信息ground truth图。
7.如权利要求1所述的人脸深度预测方法,其特征在于:所述卷积神经网络的输入为RGBD四通道的数据;其中D通道的数据的获取方式为:对深度信息ground truth图进行关键点检测,将这些关键点处的深度保留,其余舍去,所述关键点为人脸的眼睛、嘴巴和鼻子。
8.如权利要求5所述的人脸深度预测方法,其特征在于:所述正则系数λ在(0,1]范围内。
9.如权利要求1所述的人脸深度预测方法,其特征在于:所述步骤S3中对卷积神经网络进行权重初始化采用一维高斯分布,并利用AdamOptimizer方法来最小化所述代价函数。
10.如权利要求1所述的人脸深度预测方法,其特征在于:所述步骤S3中通过不断地最小化代价函数来更新卷积神经网络的权重值,直到代价函数的值不再减小,就停止更新,训练结束。
CN201810333873.2A 2018-04-13 2018-04-13 一种抗网格效应的人脸深度预测方法 Active CN108629291B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810333873.2A CN108629291B (zh) 2018-04-13 2018-04-13 一种抗网格效应的人脸深度预测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810333873.2A CN108629291B (zh) 2018-04-13 2018-04-13 一种抗网格效应的人脸深度预测方法

Publications (2)

Publication Number Publication Date
CN108629291A CN108629291A (zh) 2018-10-09
CN108629291B true CN108629291B (zh) 2020-10-20

Family

ID=63705122

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810333873.2A Active CN108629291B (zh) 2018-04-13 2018-04-13 一种抗网格效应的人脸深度预测方法

Country Status (1)

Country Link
CN (1) CN108629291B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109784149B (zh) * 2018-12-06 2021-08-20 苏州飞搜科技有限公司 一种人体骨骼关键点的检测方法及系统
CN111507131B (zh) * 2019-01-31 2023-09-19 北京市商汤科技开发有限公司 活体检测方法及装置、电子设备和存储介质
CN109978936B (zh) * 2019-03-28 2022-12-30 腾讯科技(深圳)有限公司 视差图获取方法、装置、存储介质及设备
CN112102223B (zh) * 2019-06-18 2024-05-14 通用电气精准医疗有限责任公司 用于自动设置扫描范围的方法和系统
CN111127538B (zh) * 2019-12-17 2022-06-07 武汉大学 一种基于卷积循环编码-解码结构的多视影像三维重建方法
CN111709983A (zh) * 2020-06-16 2020-09-25 天津工业大学 一种基于卷积神经网络和光场图像的气泡流场三维重建方法
CN111951372B (zh) * 2020-06-30 2024-01-05 重庆灵翎互娱科技有限公司 一种三维人脸模型的生成方法和设备
CN113920005B (zh) * 2021-09-29 2024-04-19 杭州海马体摄影有限公司 一种构造单一人脸皮肤差异图片对的方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105631296A (zh) * 2015-12-30 2016-06-01 北京工业大学 一种基于cnn特征提取器的安全人脸认证系统设计方法
CN106372630A (zh) * 2016-11-23 2017-02-01 华南理工大学 一种基于深度学习的人脸方向检测方法
CN107103285A (zh) * 2017-03-24 2017-08-29 深圳市未来媒体技术研究院 基于卷积神经网络的人脸深度预测方法
CN107292950A (zh) * 2017-06-08 2017-10-24 深圳市唯特视科技有限公司 一种基于深度神经网络的端到端三维人脸重建方法
CN107679477A (zh) * 2017-09-27 2018-02-09 深圳市未来媒体技术研究院 基于空洞卷积神经网络的人脸深度和表面法向量预测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8582807B2 (en) * 2010-03-15 2013-11-12 Nec Laboratories America, Inc. Systems and methods for determining personal characteristics

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105631296A (zh) * 2015-12-30 2016-06-01 北京工业大学 一种基于cnn特征提取器的安全人脸认证系统设计方法
CN106372630A (zh) * 2016-11-23 2017-02-01 华南理工大学 一种基于深度学习的人脸方向检测方法
CN107103285A (zh) * 2017-03-24 2017-08-29 深圳市未来媒体技术研究院 基于卷积神经网络的人脸深度预测方法
CN107292950A (zh) * 2017-06-08 2017-10-24 深圳市唯特视科技有限公司 一种基于深度神经网络的端到端三维人脸重建方法
CN107679477A (zh) * 2017-09-27 2018-02-09 深圳市未来媒体技术研究院 基于空洞卷积神经网络的人脸深度和表面法向量预测方法

Also Published As

Publication number Publication date
CN108629291A (zh) 2018-10-09

Similar Documents

Publication Publication Date Title
CN108629291B (zh) 一种抗网格效应的人脸深度预测方法
CN107679477B (zh) 基于空洞卷积神经网络的人脸深度和表面法向量预测方法
CN107103285B (zh) 基于卷积神经网络的人脸深度预测方法
CN110189334B (zh) 基于注意力机制的残差型全卷积神经网络的医学图像分割方法
CN111798400B (zh) 基于生成对抗网络的无参考低光照图像增强方法及系统
CN112001914B (zh) 深度图像补全的方法和装置
CN107945204B (zh) 一种基于生成对抗网络的像素级人像抠图方法
CN108229381B (zh) 人脸图像生成方法、装置、存储介质和计算机设备
CN111784602B (zh) 一种生成对抗网络用于图像修复的方法
CN108230278B (zh) 一种基于生成对抗网络的图像去雨滴方法
CN110689599B (zh) 基于非局部增强的生成对抗网络的3d视觉显著性预测方法
CN110175986B (zh) 一种基于卷积神经网络的立体图像视觉显著性检测方法
CN110889370B (zh) 基于条件生成对抗网络的端对端的侧面人脸合成正脸的系统及方法
CN111652921A (zh) 一种单目深度预测模型的生成方法及单目深度预测方法
CN112330684A (zh) 对象分割方法、装置、计算机设备及存储介质
CN114781499B (zh) 一种构建基于ViT模型的密集预测任务适配器的方法
CN111882516B (zh) 一种基于视觉显著性和深度神经网络的图像质量评价方法
CN111275751B (zh) 一种无监督绝对尺度计算方法及系统
CN117151998A (zh) 一种基于支持向量回归的图像光照校正方法
CN114926876A (zh) 图像关键点检测方法、装置、计算机设备和存储介质
CN116958800A (zh) 基于层次注意力残差UNet++的遥感影像变化检测方法
CN111899161A (zh) 一种超分辨率重建方法
CN115100435B (zh) 基于有限数据多尺度目标学习的图像着色方法及其系统
CN118014860B (zh) 一种基于注意力机制的多源多尺度图像融合方法与装置
CN113496521B (zh) 利用多张彩色图片生成深度图像与相机外参的方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant