CN112288859B - 一种基于卷积神经网络的三维人脸建模方法 - Google Patents

一种基于卷积神经网络的三维人脸建模方法 Download PDF

Info

Publication number
CN112288859B
CN112288859B CN202011195044.6A CN202011195044A CN112288859B CN 112288859 B CN112288859 B CN 112288859B CN 202011195044 A CN202011195044 A CN 202011195044A CN 112288859 B CN112288859 B CN 112288859B
Authority
CN
China
Prior art keywords
point cloud
registration
point
depth
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011195044.6A
Other languages
English (en)
Other versions
CN112288859A (zh
Inventor
王晓华
卢迪
王文杰
张蕾
苏泽斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hefei Anda Exhibition Technology Co ltd
Original Assignee
Hefei Anda Exhibition Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hefei Anda Exhibition Technology Co ltd filed Critical Hefei Anda Exhibition Technology Co ltd
Priority to CN202011195044.6A priority Critical patent/CN112288859B/zh
Publication of CN112288859A publication Critical patent/CN112288859A/zh
Application granted granted Critical
Publication of CN112288859B publication Critical patent/CN112288859B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/005Tree description, e.g. octree, quadtree
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于卷积神经网络的三维人脸建模方法,具体按照如下步骤实施:步骤1,使用Kinect相机分别从人脸的左侧、右侧和正前方采集人脸点云信息;步骤2,对步骤1采集到的人脸点云信息进行预处理,分割出目标物体点云,并对点云进行除噪和平滑;步骤3,采用基于卷积神经网络的配准方法,得到三个方向的平移配准参数和三个方向的旋转配准参数,实现点云的配准拼接;步骤4,利用泊松曲面重建法,对点云进行三维重建。本发明解决了现有技术中存在的点云数据采集受环境影响大、计算量大、配准效率低的问题。

Description

一种基于卷积神经网络的三维人脸建模方法
技术领域
本发明属于计算机视觉领域,涉及一种基于卷积神经网络的三维人脸建模方法。
背景技术
随着计算机视觉的飞速发展,和人脸三维数字化在医疗、影视动画制作、人机交互等领域需求的不断扩大,人脸三维建模越来越成为计算机视觉的研究热点。一个快速、完整、精确的三维人脸重建的系统能够广泛的应用于各行各业,有效的推动产业智能化。
传统双目视觉的三维数字化通过双目摄像机获取图像,提取图像中被测物的表面纹理特征进行特征匹配,从而获得点云图,虽然成本低,但受环境光照和被测物体表面纹理复杂度的影响较大,点云密度低,三维建模粗糙。基于结构光的三维数字化虽然不受被测物体表面纹理复杂度的影响,但是受环境光影响较大。
发明内容
本发明的目的是提供一种基于卷积神经网络的三维人脸建模方法,解决了现有三维重建技术中存在的受环境影响大,配准效率低的问题。
本发明所采用的技术方案是,一种基于卷积神经网络的三维人脸建模方法,具体按照如下步骤实施:
步骤1,使用Kinect相机分别从人脸的左侧、右侧和正前方采集人脸点云信息;
步骤2,对步骤1采集到的人脸点云信息进行预处理,分割出目标物体点云,并对点云进行除噪和平滑;
步骤3,采用基于卷积神经网络的配准方法,得到三个方向的平移配准参数和三个方向的旋转配准参数,实现点云的配准拼接;
步骤4,利用泊松曲面重建法,对点云进行三维重建。
本发明的特点特点还在于,
步骤2具体为:
步骤2.1,对Z轴方向上的维度设置一定的深度距离阈值,将目标物点云与其他距离较远的无用信息分割出来,表达式如下:
D(z)为分割后获取的点云数据,若点在最大阈值Depth_Max和最小阈值Depth_Min之间,就分割出来,若在范围之外就舍弃掉;
步骤2.2,将步骤2.1分割出来的点云通过快速双边滤波法,进行高斯线性卷积和双线性插值,对点云数据进行除噪和平滑。
步骤2.2具体如下:
步骤2.2.1,对步骤2.1分割出来的每一个点云数据点p=(x,y,z),求出它的m个邻域点qi(xi,yi,zi)及其深度值di(u,v);
步骤2.2.2,计算光顺滤波函数GS和Gr以及三维高斯核函数G,计算公式如下:
G=Gs*Gr (4)
其中,Gs为空间邻近度因子,Gr为深度相似性因子,σs和σr分别为空间邻域标准差和深度标准差;
步骤2.2.3,计算每个单位区域像素深度值之和WD和W,计算公式如下:
其中,di(u,v)为点p=(x,y,z)邻域的深度值,邻域三维空间合集为R;
步骤2.2.4,将WD和W分别与三维高斯核函数G进行高斯线性卷积,并进行双线性插值,具体公式如下:
其中,interpolate为插值函数,求出滤波后的点云数据Db(x,y),实现三维点云数据的平滑。
步骤3具体为:
步骤3.1,构造卷积神经网络的点云配准模型;
步骤3.2,用训练数据训练卷积神经网络的点云配准模型;
步骤3.3,将步骤2得到的点云数据转化为深度图像数据,运用训练好的卷积神经网络的点云配准模型进行配准拼接。
步骤3.1具体为;
步骤3.1.1,构造网络结构;
利用卷积神经网络计算点云深度图像的特征,再利用得到的特征计算配准参数;模型采用N组并联的卷积神经网络相互独立地提取深度图像的N种不同的特征,每种特征都是128维的向量,将深度图像X1的第一种特征向量X1 1与深度图像X2的第一种特征向量相减,得到第一种特征的差分向量d1;将N种不同的差分向量d1,d2,...,dN并联为配准的整体差分向量;整体差分向量经过以ReLU为激活函数的全连接层F2得到256维向量,最后经过全连接层F3得到6种不同的配置参数,通过对整个网络进行端到端的训练,网络各部分得以协调,使得在各种配准参数范围内网络均能有效配准;
步骤3.1.2,构造网络模型的迭代点云配准方法;
采用迭代地进行点云配准,将待配准的参数分为三组,即tx,ty,tθ,tα,tβ,tz;先配准容易估计的配准参数,再配准较难估计的配准参数,使得配准过程容易进行;首先将X1和X2输入配准网络模型得到配准参数tx,ty,tθ,利用得到的配准参数对深度图像X1进行更新,然后将X2和更新过的X1再次输入配准网络模型得到配准参数tα,tβ,利用tα,tβ对深度图像X1再一次更新,最后再次将X2和更新过的X1输入配准网络得到配准参数tz,利用tz对X1再一次更新,得到经过一次迭代后更新的深度图像X1,重复迭代k次,k为常数,通常设置为10以内,使得最后迭代得到的配准参数能够让X1和X2的配准误差小于设定的阈值。
步骤3.2具体为;
步骤3.2.1,采用普林斯顿形状数据集中的约1000个模型作为训练数据,首先利用OpenGL的深度测试功能拍摄三维模型的深度图像X1,然后按一定的配准参数yi旋转模型,并拍摄变换之后的深度图像X2,将X1、X2作为配准网络的输入并将yi作为训练目标;
步骤3.2.2,按照步骤3.1.2的方法流程训练整个模型;
整个网络模型的训练优化目标是使估计配准参数与真实配准参数的均方损失最小,定义为:
其中,M为训练样本数,yi为第i组样本的真实配准参数,Xi为第i组输入的深度图像对,θ为模型中待训练的参数,模型采用Xavier方法初始化网络参数以提高网络的训练效率,训练采用随机梯度下降的方法进行参数优化,其中梯度更新的批大小设置为100,梯度更新的动量为m=0.9,权值衰减率d=0.0001,对于参数θ的更新公式可表示为:
其中,i为梯度更新的次数,μ为梯度的动量,ηi是第i次梯度更新时的学习率,是基于反向传播算法计算得到的目标函数对i时刻网络参数的偏导数,学习率ηi随着训练而衰减,以使网络训练稳定。
步骤3.3具体为;
步骤3.3.1,计算左侧人脸点云和正面人脸点云的深度图像X1和X2,将深度图像作为卷积神经网络的输入,给定点云P,其中观测视角处点(x,y)的深度为D,则该点在深度图像中的像素值c可表示为:
其中,F和N被设置为合适值使得计算得到的深度图像对比充分,通过计算获得了点云的深度图像数据;
步骤3.3.2,将步骤3.3.1中求出的深度图像X1和X2作为卷积神经网络模型的输入,进行迭代配准,直至配准误差小于设定的阈值,得到最优的配准参数,完成左侧人脸和正面人脸点云的配准拼接;
步骤3.3.3,将步骤3.3.2得到的左侧人脸和正面人脸拼接好的点云与右侧人脸点云进行配准拼接,最终得到完整的人脸点云。
步骤4具体为:
步骤4.1,将点云数据进行八叉树分割,便于在函数的三维空间内对泊松方程问题进行分割离散化,使用八叉树结构储存点集,根据采样点集的位置定义八叉树,然后细分八叉树使每个采样点都落在深度为D的叶节点,则将八叉树的每个节点用函数Fq来定义:
其中,qc和qw分别为节点q的中心和宽度,同时,为了将节点函数Fq能与空间向量场构建起对应关系,则可通过基函数F来进行说明,则有:
选用一个方差近似为2-D的高斯滤波器,实现点云数据的平均采样;
步骤4.2,创建向量场来逼近指示函数梯度算子,算法选用三次线性插值法将八个近邻点进行分配,以减少采样点与树节点位置的误差,则指示函数梯度算子与向量场之间的关系可表示为:
其中,Q为三维点云数据集,s是点q的邻近域点集,NbD(Q)是当前点q的八个邻近节点,Nq为点q的法向量,是线性插值权重;
步骤4.3,定义向量场后,就可以进行求解泊松方程/>进而得到指示函数χ,采用拉普拉斯算子对其进行求解;
步骤4.4,选取适合的等值面阈值来重构表面等值面阈值的选取可以采用三维点云数据采样点的坐标来估计指示函数χ,然后将估计的结果取均值,用其平均值进行等值面提取即:
步骤4.5,通过等值面的提取,然后将提取的等值面进行拼接,完成三维人脸模型的曲面重建。
本发明的有益效果是:本发明一种基于卷积神经网络的人脸三维建模的方法,使用了基于激光散斑的kinect相机对人脸进行点云信息采集,不受环境光和被测物体表面纹理复杂度的影响,点云密度高,三维建模效果好。采用直通滤波完成目标物点云和其他点云的分割,通过快速双边滤波快速高效的完成点云数据的除噪。采用基于卷积神经网络的点云配准方法进行点云的配准拼接,相较于传统点云配准方法,计算量大大降低,配准效率明显提升,能够应对实时性要求较高的场合。
附图说明
图1是本发明一种基于卷积神经网络的三维人脸建模方法的基于CNN的点云配准模型;
图2是本发明一种基于卷积神经网络的三维人脸建模方法的泊松曲面重建流程图;
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明一种基于卷积神经网络的三维人脸建模方法,具体按照如下步骤实施:
步骤1,使用Kinect相机分别从人脸的左侧、右侧和正前方采集人脸点云信息;
步骤2,对步骤1采集到的人脸点云信息进行预处理,分割出目标物体点云,并对点云进行除噪和平滑;
步骤2具体为:
步骤2.1,对Z轴方向上的维度设置一定的深度距离阈值,将目标物点云与其他距离较远的无用信息分割出来,具体表达式如下:
D(z)为分割后获取的点云数据,若点在最大阈值Depth_Max和最小阈值Depth_Min之间,就分割出来,若在范围之外就舍弃掉;
步骤2.2,将步骤2.1分割出来的点云通过快速双边滤波法,进行高斯线性卷积和双线性插值,对点云数据进行除噪和平滑;
步骤2.2具体如下:
步骤2.2.1,对步骤2.1分割出来的每一个点云数据点p=(x,y,z),求出它的m个邻域点qi(xi,yi,zi)及其深度值di(u,v);
步骤2.2.2,计算光顺滤波函数GS和Gr以及三维高斯核函数G,计算公式如下:
G=Gs*Gr (4)
其中,Gs为空间邻近度因子,Gr为深度相似性因子,σs和σr分别为空间邻域标准差和深度标准差;
步骤2.2.3,计算每个单位区域像素深度值之和WD和W,计算公式如下:
其中,di(u,v)为点p=(x,y,z)邻域的深度值,邻域三维空间合集为R;
步骤2.2.4,将WD和W分别与三维高斯核函数G进行高斯线性卷积,并进行双线性插值,具体公式如下:
其中,interpolate为插值函数,求出滤波后的点云数据Db(x,y),实现三维点云数据的平滑;
步骤3,采用基于卷积神经网络的配准方法,得到三个方向的平移配准参数和三个方向的旋转配准参数,实现点云的配准拼接;
步骤3具体为:
步骤3.1,构造卷积神经网络的点云配准模型;
步骤3.1具体为;
步骤3.1.1,构造网络结构;
利用卷积神经网络计算点云深度图像的特征,再利用得到的特征计算配准参数。模型采用N组并联的卷积神经网络相互独立地提取深度图像的N种不同的特征,每种特征都是128维的向量。将深度图像X1的第一种特征向量X1 1与深度图像X2的第一种特征向量相减,得到第一种特征的差分向量d1。将N种不同的差分向量d1,d2,...,dN并联为配准的整体差分向量。整体差分向量经过以ReLU为激活函数的全连接层F2得到256维向量,最后经过全连接层F3得到6种不同的配置参数,通过对整个网络进行端到端的训练,网络各部分得以协调,使得在各种配准参数范围内网络均能有效配准,卷积神经网络的点云匹配模型,如图1所示;
步骤3.1.2,构造网络模型的迭代点云配准方法;
由于点云空间位置变换的复杂性,难以有效地对配准参数进行一次性地精确估计。因此采用迭代地进行点云配准,将待配准的参数分为三组,即tx,ty,tθ,tα,tβ,tz。先配准容易估计的配准参数,再配准较难估计的配准参数,使得配准过程容易进行。首先将X1和X2输入配准网络模型得到配准参数tx,ty,tθ,利用得到的配准参数对深度图像X1进行更新。然后将X2和更新过的X1再次输入配准网络模型得到配准参数tα,tβ,利用tα,tβ对深度图像X1再一次更新。最后再次将X2和更新过的X1输入配准网络得到配准参数tz,利用tz对X1再一次更新,得到经过一次迭代后更新的深度图像X1。重复迭代k次,k为常数,通常设置为10以内,使得最后迭代得到的配准参数能够让X1和X2的配准误差小于设定的阈值;
步骤3.2,用训练数据训练卷积神经网络的点云配准模型;
步骤3.2具体为;
步骤3.2.1,采用普林斯顿形状数据集中的约1000个模型作为训练数据。首先利用OpenGL的深度测试功能拍摄三维模型的深度图像X1,然后按一定的配准参数yi旋转模型,并拍摄变换之后的深度图像X2,将X1、X2作为配准网络的输入并将yi作为训练目标;
步骤3.2.2,按照步骤3.1.2的方法流程训练整个模型;
整个网络模型的训练优化目标是使估计配准参数与真实配准参数的均方损失最小,定义为:
其中,M为训练样本数,yi为第i组样本的真实配准参数,Xi为第i组输入的深度图像对,θ为模型中待训练的参数。模型采用Xavier方法初始化网络参数以提高网络的训练效率。训练采用随机梯度下降的方法进行参数优化,其中梯度更新的批大小设置为100,梯度更新的动量为m=0.9,权值衰减率d=0.0001,对于参数θ的更新公式可表示为:
其中,i为梯度更新的次数,μ为梯度的动量,ηi是第i次梯度更新时的学习率,是基于反向传播算法计算得到的目标函数对i时刻网络参数的偏导数。学习率ηi随着训练而衰减,以使网络训练稳定;
步骤3.3,将步骤2得到的点云数据转化为深度图像数据,运用训练好的卷积神经网络的点云配准模型进行配准拼接;
步骤3.3具体为;
步骤3.3.1,计算左侧人脸点云和正面人脸点云的深度图像X1和X2,将深度图像作为卷积神经网络的输入。给定点云P,其中观测视角处点(x,y)的深度为D,则该点在深度图像中的像素值c可表示为:
其中,F和N被设置为合适值使得计算得到的深度图像对比充分,通过计算获得了点云的深度图像数据;
步骤3.3.2,将步骤3.3.1中求出的深度图像X1和X2作为卷积神经网络模型的输入,进行迭代配准,直至配准误差小于设定的阈值,得到最优的配准参数,完成左侧人脸和正面人脸点云的配准拼接;
步骤3.3.3,按照步骤3.3.1和步骤3.3.2的方法,将步骤3.3.2得到的左侧人脸和正面人脸拼接好的点云与右侧人脸点云进行配准拼接。最终得到完整的人脸点云;
步骤4,利用泊松曲面重建法,对点云进行三维重建;
步骤4的流程图,如图2所示,具体为:
步骤4.1,将点云数据进行八叉树分割,便于在函数的三维空间内对泊松方程问题进行分割离散化。使用八叉树结构储存点集,根据采样点集的位置定义八叉树,然后细分八叉树使每个采样点都落在深度为D的叶节点,则将八叉树的每个节点用函数Fq来定义:
其中,qc和qw分别为节点q的中心和宽度。同时,为了将节点函数Fq能与空间向量场构建起对应关系,则可通过基函数F来进行说明,则有:
这里选用一个方差近似为2-D的高斯滤波器,实现点云数据的平均采样;
步骤4.2,创建向量场来逼近指示函数梯度算子,算法选用三次线性插值法将八个近邻点进行分配,以减少采样点与树节点位置的误差,则指示函数梯度算子与向量场之间的关系可表示为:
其中,Q为三维点云数据集,s是点q的邻近域点集,NbD(Q)是当前点q的八个邻近节点,Nq为点q的法向量,是线性插值权重;
步骤4.3,定义向量场后,就可以进行求解泊松方程/>进而得到指示函数χ,采用拉普拉斯算子对其进行求解;
步骤4.4,选取适合的等值面阈值来重构表面等值面阈值的选取可以采用三维点云数据采样点的坐标来估计指示函数χ,然后将估计的结果取均值,用其平均值进行等值面提取即:
步骤4.5,通过等值面的提取,然后将提取的等值面进行拼接,完成三维人脸模型的曲面重建。
本发明是一种基于卷积神经网络的三维人脸建模方法,采用基于激光散斑的kinect相机进行点云信息的采集,不受环境光和被测物体表面纹理复杂度的影响,操作简单,生成的点云密度大、精度高,三维建模效果好。通过直通滤波和快速双边滤波对点云信息进行预处理,采用基于卷积神经网络的点云配准方法进行点云的配准和拼接,相比较于传统的先进行粗配准再进行精配准的方法具有计算量小、配准效率高的优点。

Claims (2)

1.一种基于卷积神经网络的三维人脸建模方法,其特征在于,具体按照如下步骤实施:
步骤1,使用Kinect相机分别从人脸的左侧、右侧和正前方采集人脸点云信息;
步骤2,对步骤1采集到的人脸点云信息进行预处理,分割出目标物体点云,并对点云进行除噪和平滑;
步骤3,采用基于卷积神经网络的配准方法,得到三个方向的平移配准参数和三个方向的旋转配准参数,实现点云的配准拼接;
步骤4,利用泊松曲面重建法,对点云进行三维重建;
所述步骤2具体为:
步骤2.1,对Z轴方向上的维度设置一定的深度距离阈值,将目标物点云与其他距离较远的无用信息分割出来,表达式如下:
D(z)为分割后获取的点云数据,若点在最大阈值Depth_Max和最小阈值Depth_Min之间,就分割出来,若在范围之外就舍弃掉;
步骤2.2,将步骤2.1分割出来的点云通过快速双边滤波法,进行高斯线性卷积和双线性插值,对点云数据进行除噪和平滑;
所述步骤3具体为:
步骤3.1,构造卷积神经网络的点云配准模型;
步骤3.2,用训练数据训练卷积神经网络的点云配准模型;
步骤3.3,将步骤2得到的点云数据转化为深度图像数据,运用训练好的卷积神经网络的点云配准模型进行配准拼接;
所述步骤3.1具体为;
步骤3.1.1,构造网络结构;
利用卷积神经网络计算点云深度图像的特征,再利用得到的特征计算配准参数;模型采用N组并联的卷积神经网络相互独立地提取深度图像的N种不同的特征,每种特征都是128维的向量,将深度图像X1的第一种特征向量与深度图像X2的第一种特征向量/>相减,得到第一种特征的差分向量d1;将N种不同的差分向量d1,d2,...,dN并联为配准的整体差分向量;整体差分向量经过以ReLU为激活函数的全连接层F2得到256维向量,最后经过全连接层F3得到6种不同的配置参数,通过对整个网络进行端到端的训练,网络各部分得以协调,使得在各种配准参数范围内网络均能有效配准;
步骤3.1.2,构造网络模型的迭代点云配准方法;
采用迭代地进行点云配准,将待配准的参数分为三组,即tx,ty,tθ,tα,tβ,tz;先配准容易估计的配准参数,再配准较难估计的配准参数,使得配准过程容易进行;首先将X1和X2输入配准网络模型得到配准参数tx,ty,tθ,利用得到的配准参数对深度图像X1进行更新,然后将X2和更新过的X1再次输入配准网络模型得到配准参数tα,tβ,利用tα,tβ对深度图像X1再一次更新,最后再次将X2和更新过的X1输入配准网络得到配准参数tz,利用tz对X1再一次更新,得到经过一次迭代后更新的深度图像X1,重复迭代k次,k为常数,通常设置为10以内,使得最后迭代得到的配准参数能够让X1和X2的配准误差小于设定的阈值;
所述步骤3.2具体为;
步骤3.2.1,采用普林斯顿形状数据集中的约1000个模型作为训练数据,首先利用OpenGL的深度测试功能拍摄三维模型的深度图像X1,然后按一定的配准参数yi旋转模型,并拍摄变换之后的深度图像X2,将X1、X2作为配准网络的输入并将yi作为训练目标;
步骤3.2.2,按照步骤3.1.2的方法流程训练整个模型;
整个网络模型的训练优化目标是使估计配准参数与真实配准参数的均方损失最小,定义为:
其中,M为训练样本数,yi为第i组样本的真实配准参数,Xi为第i组输入的深度图像对,θ为模型中待训练的参数,模型采用Xavier方法初始化网络参数以提高网络的训练效率,训练采用随机梯度下降的方法进行参数优化,其中梯度更新的批大小设置为100,梯度更新的动量为m=0.9,权值衰减率d=0.0001,对于参数θ的更新公式可表示为:
其中,i为梯度更新的次数,μ为梯度的动量,ηi是第i次梯度更新时的学习率,是基于反向传播算法计算得到的目标函数对i时刻网络参数的偏导数,学习率ηi随着训练而衰减,以使网络训练稳定;
所述步骤3.3具体为;
步骤3.3.1,计算左侧人脸点云和正面人脸点云的深度图像X1和X2,将深度图像作为卷积神经网络的输入,给定点云P,其中观测视角处点(x,y)的深度为D,则该点在深度图像中的像素值c可表示为:
其中,F和N被设置为合适值使得计算得到的深度图像对比充分,通过计算获得了点云的深度图像数据;
步骤3.3.2,将步骤3.3.1中求出的深度图像X1和X2作为卷积神经网络模型的输入,进行迭代配准,直至配准误差小于设定的阈值,得到最优的配准参数,完成左侧人脸和正面人脸点云的配准拼接;
步骤3.3.3,将步骤3.3.2得到的左侧人脸和正面人脸拼接好的点云与右侧人脸点云进行配准拼接,最终得到完整的人脸点云;
所述步骤4具体为:
步骤4.1,将点云数据进行八叉树分割,便于在函数的三维空间内对泊松方程问题进行分割离散化,使用八叉树结构储存点集,根据采样点集的位置定义八叉树,然后细分八叉树使每个采样点都落在深度为D的叶节点,则将八叉树的每个节点用函数Fq来定义:
其中,qc和qw分别为节点q的中心和宽度,同时,为了将节点函数Fq能与空间向量场构建起对应关系,则可通过基函数F来进行说明,则有:
选用一个方差近似为2-D的高斯滤波器,实现点云数据的平均采样;
步骤4.2,创建向量场来逼近指示函数梯度算子,算法选用三次线性插值法将八个近邻点进行分配,以减少采样点与树节点位置的误差,则指示函数梯度算子与向量场之间的关系可表示为:
其中,Q为三维点云数据集,s是点q的邻近域点集,NbD(Q)是当前点q的八个邻近节点,Nq为点q的法向量,是线性插值权重;
步骤4.3,定义向量场后,就可以进行求解泊松方程/>进而得到指示函数χ,采用拉普拉斯算子对其进行求解;
步骤4.4,选取适合的等值面阈值来重构表面等值面阈值的选取可以采用三维点云数据采样点的坐标来估计指示函数χ,然后将估计的结果取均值,用其平均值进行等值面提取即:
步骤4.5,通过等值面的提取,然后将提取的等值面进行拼接,完成三维人脸模型的曲面重建。
2.根据权利要求1所述的一种基于卷积神经网络的三维人脸建模方法,其特征在于,所述步骤2.2具体如下:
步骤2.2.1,对步骤2.1分割出来的每一个点云数据点p=(x,y,z),求出它的m个邻域点qi(xi,yi,zi)及其深度值di(u,v);
步骤2.2.2,计算光顺滤波函数GS和Gr以及三维高斯核函数G,计算公式如下:
G=Gs*Gr (4)
其中,Gs为空间邻近度因子,Gr为深度相似性因子,σs和σr分别为空间邻域标准差和深度标准差;
步骤2.2.3,计算每个单位区域像素深度值之和WD和W,计算公式如下:
其中,di(u,v)为点p=(x,y,z)邻域的深度值,邻域三维空间合集为R;
步骤2.2.4,将WD和W分别与三维高斯核函数G进行高斯线性卷积,并进行双线性插值,具体公式如下:
其中,interpolate为插值函数,求出滤波后的点云数据Db(x,y),实现三维点云数据的平滑。
CN202011195044.6A 2020-10-30 2020-10-30 一种基于卷积神经网络的三维人脸建模方法 Active CN112288859B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011195044.6A CN112288859B (zh) 2020-10-30 2020-10-30 一种基于卷积神经网络的三维人脸建模方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011195044.6A CN112288859B (zh) 2020-10-30 2020-10-30 一种基于卷积神经网络的三维人脸建模方法

Publications (2)

Publication Number Publication Date
CN112288859A CN112288859A (zh) 2021-01-29
CN112288859B true CN112288859B (zh) 2024-05-24

Family

ID=74353900

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011195044.6A Active CN112288859B (zh) 2020-10-30 2020-10-30 一种基于卷积神经网络的三维人脸建模方法

Country Status (1)

Country Link
CN (1) CN112288859B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113192112B (zh) * 2021-04-29 2022-05-31 浙江大学计算机创新技术研究院 一种基于学习采样的部分对应点云配准方法
CN115294285B (zh) * 2022-10-10 2023-01-17 山东天大清源信息科技有限公司 一种深度卷积网络的三维重建方法及系统
CN117011963B (zh) * 2023-10-07 2023-12-08 四川金投科技股份有限公司 一种基于电子钥匙的智能锁及智能门控系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017219391A1 (zh) * 2016-06-24 2017-12-28 深圳市唯特视科技有限公司 一种基于三维数据的人脸识别系统
CN107679477A (zh) * 2017-09-27 2018-02-09 深圳市未来媒体技术研究院 基于空洞卷积神经网络的人脸深度和表面法向量预测方法
CN108510573A (zh) * 2018-04-03 2018-09-07 南京大学 一种基于深度学习的多视点人脸三维模型重建的方法
CN110688947A (zh) * 2019-09-26 2020-01-14 西安知象光电科技有限公司 一种同步实现人脸三维点云特征点定位和人脸分割的方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104504410A (zh) * 2015-01-07 2015-04-08 深圳市唯特视科技有限公司 基于三维点云的三维人脸识别装置和方法
US10867430B2 (en) * 2018-11-19 2020-12-15 Intel Corporation Method and system of 3D reconstruction with volume-based filtering for image processing

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017219391A1 (zh) * 2016-06-24 2017-12-28 深圳市唯特视科技有限公司 一种基于三维数据的人脸识别系统
CN107679477A (zh) * 2017-09-27 2018-02-09 深圳市未来媒体技术研究院 基于空洞卷积神经网络的人脸深度和表面法向量预测方法
CN108510573A (zh) * 2018-04-03 2018-09-07 南京大学 一种基于深度学习的多视点人脸三维模型重建的方法
CN110688947A (zh) * 2019-09-26 2020-01-14 西安知象光电科技有限公司 一种同步实现人脸三维点云特征点定位和人脸分割的方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于卷积神经网络的表情不变三维人脸识别;陈志轩 等;电子测量技术(第04期);全文 *
形状空间下基于级联回归的三维人脸重建(英文);Feng LIU 等;Frontiers of Information Technology & Electronic Engineering(第12期);全文 *

Also Published As

Publication number Publication date
CN112288859A (zh) 2021-01-29

Similar Documents

Publication Publication Date Title
CN112288859B (zh) 一种基于卷积神经网络的三维人脸建模方法
WO2024077812A1 (zh) 基于点云语义分割与结构拟合的单体建筑三维重建方法
CN100559398C (zh) 自动的深度图像配准方法
CN110163974B (zh) 一种基于无向图学习模型的单图像面片重建方法
CN111696210A (zh) 一种基于三维点云数据特征轻量化的点云重构方法及系统
CN107481274B (zh) 一种三维作物点云的鲁棒性重构方法
CN106780458B (zh) 一种点云骨架提取方法及装置
CN111882668B (zh) 一种多视角立体对象重建方法与系统
CN112233249A (zh) 基于密集点云的b样条曲面拟合方法及装置
CN109766866B (zh) 一种基于三维重建的人脸特征点实时检测方法和检测系统
Zhang et al. Data-driven flower petal modeling with botany priors
Hu et al. Geometric feature enhanced line segment extraction from large-scale point clouds with hierarchical topological optimization
Yuan et al. Volume cutout
CN116862955A (zh) 一种植物图像的三维配准方法、系统及设备
CN110717978A (zh) 基于单张图像的三维头部重建方法
CN117011465A (zh) 一种树木三维重建方法、装置、电子设备及存储介质
CN115482268A (zh) 一种基于散斑匹配网络的高精度三维形貌测量方法与系统
CN103164870A (zh) 一种由生物体点云构建网格面的方法
CN113298919A (zh) 一种三维植物点云模型的骨架提取方法
CN112381721A (zh) 一种基于双目视觉的人脸三维重建方法
CN109934837A (zh) 一种3d植物叶片轮廓的提取方法、装置及系统
Zeng et al. 3D plants reconstruction based on point cloud
Zhang et al. A 3D Face Modeling and Recognition Method Based on Binocular Stereo Vision and Depth-Sensing Detection
Tiator et al. Using semantic segmentation to assist the creation of interactive VR applications
CN116883550B (zh) 一种三维虚拟实景动画显示方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20240218

Address after: 518000 1002, Building A, Zhiyun Industrial Park, No. 13, Huaxing Road, Henglang Community, Longhua District, Shenzhen, Guangdong Province

Applicant after: Shenzhen Wanzhida Technology Co.,Ltd.

Country or region after: China

Address before: 710048 Shaanxi province Xi'an Beilin District Jinhua Road No. 19

Applicant before: XI'AN POLYTECHNIC University

Country or region before: China

TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20240423

Address after: No. 18 Hebei Road, Baohe Economic Development Zone, Hefei City, Anhui Province, 230041

Applicant after: HEFEI ANDA EXHIBITION TECHNOLOGY CO.,LTD.

Country or region after: China

Address before: 518000 1002, Building A, Zhiyun Industrial Park, No. 13, Huaxing Road, Henglang Community, Longhua District, Shenzhen, Guangdong Province

Applicant before: Shenzhen Wanzhida Technology Co.,Ltd.

Country or region before: China

GR01 Patent grant