CN105844706B - 一种基于单幅图像的全自动三维头发建模方法 - Google Patents

一种基于单幅图像的全自动三维头发建模方法 Download PDF

Info

Publication number
CN105844706B
CN105844706B CN201610244614.3A CN201610244614A CN105844706B CN 105844706 B CN105844706 B CN 105844706B CN 201610244614 A CN201610244614 A CN 201610244614A CN 105844706 B CN105844706 B CN 105844706B
Authority
CN
China
Prior art keywords
hair
dimensional
image
neural network
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610244614.3A
Other languages
English (en)
Other versions
CN105844706A (zh
Inventor
周昆
柴蒙磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN201610244614.3A priority Critical patent/CN105844706B/zh
Publication of CN105844706A publication Critical patent/CN105844706A/zh
Application granted granted Critical
Publication of CN105844706B publication Critical patent/CN105844706B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于单幅人像图像的全自动三维头发建模方法,该方法主要分为四个步骤:头发图像训练数据的生成,基于分层深度神经网络的头发分割和生长方向估计,三维头发样本的生成和组织,以及数据驱动的三维头发建模;本发明可以全自动地鲁棒地生成完整的高质量的三维模型,质量达到当前最先进的基于用户交互的技术的水平。本发明技术可以用在一系列应用中,如人像发型编辑,发型风格空间的浏览,以及搜索相似发型的互联网图像。

Description

一种基于单幅图像的全自动三维头发建模方法
技术领域
本发明涉及基于单幅图像的三维建模领域,尤其涉及对人像图片的头发进行自动三维建模的方法。
背景技术
基于图像的头发建模是一个创造高质量头发几何的有效途径。基于多视角图像的头发采集技术经常需要复杂的设备配置和较长的处理周期(LUO,L.,LI,H.,ANDRUSINKIEWICZ,S.2013.Structure-aware hair capture.ACM Transactions on Graphics(TOG)32,4,76.)(ECHEVARRIA,J.I.,BRADLEY,D.,GUTIERREZ,D.,AND BEELER,T.2014.Capturing and stylizing hair for 3d fabrication.ACM Transactions onGraphics(TOG)33,4,125.)(HU,L.,MA,C.,LUO,L.,AND LI,H.2014.Robust hair captureusing simulated examples.ACM Transactions on Graphics(TOG)33,4,126.)(HU,L.,MA,C.,LUO,L.,WEI,L.-Y.,AND LI,H.2014.Capturing braided hairstyles.ACMTransactions on Graphics(TOG)33,6,225.),所以不适用于普通用户,而且要生成大量三维头发模型的话代价太大。
最近基于单幅图像的头发建模技术取得了令人印象深刻的结果。现有技术使用不同类型的先验知识完成建模,如使用图层边界和遮挡(CHAI,M.,WANG,L.,WENG,Y.,YU,Y.,GUO,B.,AND ZHOU,K.2012.Single-view hair modeling for portrait manipulation.CMTransactions on Graphics(TOG)31,4,116)(CHAI,M.,WANG,L.,WENG,Y.,JIN,X.,ANDZHOU,K.2013.Dynamic hair manipulation in images and videos.ACM Transactionson Graphics(TOG)32,4,75.),使用三维头发模型数据库(HU,L.,MA,C.,LUO,L.,AND LI,H.2015.Single-view hair modeling using a hairstyle database.ACM Transactionson Graphics(TOG)34,4,125.),以及使用阴影线索(CHAI,M.,LUO,L.,SUNKAVALLI,K.,CARR,N.,HADAP,S.,747AND ZHOU,K.2015.High-quality hair modeling from a singleportrait photo.ACM Transactions on Graphics(TOG)34,6,204.)。但是这些技术都需要不同类型的用户交互,如需要手动将头发从图片中分割出来,或需要用户提供笔画提供头发方向信息,或需要用户画二维发束完成搜索。这些用户交互通常需要5分钟,而得到最终结果需要20分钟左右,这就限制了大规模头发模型的生成。和上述方法不同,本发明是全自动,而且效率高,可以处理互联网级别的大量图片。
发明内容
本发明的目的在于针对现有技术的不足,提供了一种新的全自动的基于单幅图像的三维头发建模方法,通过分层深度卷积神经网络取得鲁棒、高精度的头发分割结果和方向估计,再利用数据驱动的方法将三维头发样本模型匹配到分割出的头发和方向图,得到最终的以发束表达的头发模型。该方法的结果可媲美当前借助用户交互的方法的结果,具有很高的实用价值。
本发明是通过以下技术方案实现的,一种基于单幅图像的全自动三维头发建模方法,包括以下步骤:
(1)头发训练数据的预处理:标记头发的二维掩码和生长方向,并通过无监督聚类方法得到不同发型的分类。
(2)全自动高精度的头发分割方法:基于步骤(1)的标记数据训练深度神经网络,利用训练得到的分层深度卷积神经网络完成头发的类型识别,头发的分割和头发生长方向的估计;
(3)三维头发样本的生成和组织:通过对原始头发模型的发束分解和再组合生成大量新发型样本,并投影生成二维掩码图和方向图,方便后续匹配;
(4)数据驱动的头发建模:将步骤(3)中的三维头发样本和步骤(2)分割出的头发掩码图和方向图进行匹配、变形,并生成最终模型;
本发明的有益效果是,本发明首次提出了基于单幅图像的全自动三维头发建模的方法,借助深度神经网络完成高精度鲁棒的头发分割和生长方向估计,并借助数据驱动的方法完成高效的头发匹配和建模。本发明取得的效果可媲美当今借助用户交互的方法取得的效果,自动高效,可用于大范围的互联网人像图片的建模。
附图说明
图1是训练数据的标记图;左列:原始图片;中列:头发分割掩码图;右列:基于方向的子区域分割和方向图;
图2是发型识别、头发分割和方向估计的流程图;给定头发区域的估计,首先识别发型的类别,再根据类别选择对应的分割网络和方向估计网络得到分割掩码图和方向图;
图3是三维头发样本的分割和再组合生成新样本的过程图;每行左列:两个原始头发样本;每行右边三列:分解原始发束再组合生成的三个新头发样本;
图4是本发明自动从单幅图像建模出的三维头发结果图;每行从左到右:输入图像,自动分割的头发掩码图和方向估计图,变形后的匹配头发样本,最终3个不同视角下的最终发束级别的头发模型。
具体实施方式
本发明的核心技术利用深度神经网络完成全自动的头发高精度分割和方向估计,并利用数据驱动的头发匹配方法,完成高质量头发三维建模。该方法主要分为如下四个主要步骤:头发训练数据的预处理、基于深度神经网络的头发分割和方向估计、三维头发样本的生成和组织、数据驱动的三维头发建模。
1.头发训练数据的预处理:标记头发的二维掩码和生长方向,并通过无监督聚类方法得到不同发型的分类;
1.1训练数据标记:
使用两万张人像照片作为训练数据,这些照片具有清晰可见的人脸和头发,并且具有常见的发型和足够的光照亮度。使用PaintSelection(LIU,J.,SUN,J.,AND SHUM,H.-Y.2009.Paint selection.In ACM Transactions on Graphics(ToG),vol.28,ACM,69.)抠图得到头发的二值区域掩码Mh。对于每张照片,将头发区域Mh分成数个具有一致的平滑变化的头发生长方向子区域。对于每个子区域用一个笔画标记发束的生长方向,然后将该方向传播到子区域所有像素,并和在每个像素上计算的不定向朝向图O合在一起产生方向图D。最后,将连续的方向范围[0,2π)离散化为四个区间([0,0.5π),[0.5π,π),[π,1.5π),[1.5π,2π)),然后将这四个标记分配给每个像素得到方向标记图Md。不在头发区域的像素也会有一个标记。图1给出了标记头发掩码图和方向图的例子。
1.2发型分类计算
对于每个标记的图片I,首先使用鲁棒的人脸对齐方法(CAO,X.,WEI,Y.,WEN,F.,AND SUN,J.2014.Face alignment by explicit shape regression.InternationalJournal of Computer Vision 107,2,177–190.)来检测和定位人脸标志,再将I匹配到参考人脸坐标系中的I',完成大小和正方向的矫正。接着围绕人脸中心的极坐标系统构建了环形分布直方图(划分为nH个区间,nH=16)。每个区间记录了极角度落在该区间的头发像素的数目。归一化后,该直方图可被看成图片的特征向量。最后,基于这些分布特征向量,使用K-means聚类方法,将训练图片的发型分为四类。两个直方图Ha、Hb的距离使用L1范式的Earth Mover距离(EMD)(LING,H.,AND OKADA,K.2007.An efficient earth mover’sdistance algorithm for robust histogram comparison.Pattern Analysis andMachine Intelligence,IEEE Transactions on 29,5,820 840–853.)计算。各聚类中心g是和类内其它成员距离之和最小的成员。
2.基于深度神经网络的头发分割和方向估计:基于步骤1的标记数据训练深度神经网络,利用训练得到的分层深度卷积神经网络完成头发的类型识别,头发的分割和头发生长方向的估计;算法流程如图2所示。
2.1头发区域的估计
给定一张人像照片,首先使用步骤1.2中的人脸对齐方法检测一系列人脸特征点,将该照片对齐到参考人脸坐标系。接着,对于每一类发型分布,挑选20个典型的头发包围盒,通过旋转和缩放对齐到照片的人脸区域,产生一组候选头发区域。典型的头发包围盒是通过将每一类头发的包围盒预聚类产生。这些候选区域将被裁剪,并独立传给后续识别器进行发型识别。
2.2发型识别,头发分割和方向估计
基于步骤2.1得到的头发区域,进行发型识别。发型识别是使用R-CNN的深度卷积神经网络结构(GIRSHICK,R.,DONAHUE,J.,DARRELL,T.,AND MALIK,J.2014.Rich featurehierarchies for accurate object detection and semantic segmentation.InComputer Vision and Pattern Recognition(CVPR),2014IEEE Conference on,IEEE,580–587.),并在步骤1.1标记好的头发训练数据上进行进一步学习。得到发型的类别后,进行头发区域的分割和方向估计。头发分割和头发方向估计都是基于公共的深度神经网络VGG16设计的(SIMONYAN,K.,AND ZISSERMAN,A.2014.Very deep convolutional networksfor large-scale image recognition.arXivpreprint859arXiv:1409.1556.),该网络是在公共数据集ImageNet上预训练的识别1000种类别的分类网络,本发明在此基础上做了改动使得网络的输出是每个像素的标记(分割器的输出标记数是2,方向估计器的输出标记数是5)。首先,最后两层的2×2的max-pooling层被去除,以提高网络的层分辨率,而且跟随卷积层之后的接受域也分别从3×3和7×7扩展为5×5和25×25(用0填充)。其次,所有的全连接层被换成了卷基层,这样可以让单一识别网络和本发明的逐像素标记的分割器兼容。第三,在训练阶段,损失层在整张图像上计算了输出标记和人工标注标记间的交叉熵之和(由于VGG16中有三个max-pooling层,图像的分辨率降采样了八倍)。最后,在测试阶段,通过双线性差值将输出的标记图升采样到原图片大小,并使用全连接的CRF进行改善。
本发明在训练和测试阶段的图像大小均为512×512。在测试阶段,给定人像照片I,人脸检测器首先将图像对齐到人脸坐标系中并产生围绕人脸的一组头发区域估计。然后发型识别网络测试每个候选区域,选择得分最高的作为类型作为头发的发型类别。对应于此类别的头发分割网络和方向估计网络会依次施加到I上。分割网络的输出是和I相同大小的头发分割掩码MI(带有一个alpha通道),而方向估计网络的输出是一个等大小的方向标记图,该图会和不定向朝向图结合在一起生成最终的方向图DI
3.三维头发样本的生成和组织:通过对原始头发模型的发束分解和再组合生成大量新发型样本,并投影生成二维掩码图和方向图,方便后续匹配;
3.1预处理
搜集300个不同发型的三维模型{H}。所有的模型已经被对齐到同一个参考人头模型,并且由大量的独立薄多边形发束{SH}组成。每个发束代表一缕生长一致的头发,生长方向被编码在参数化纹理坐标中。对于每一个模型做进一步处理以提升模型质量:对于没有连接在头皮上的发束,寻找连接头皮的且和这些发束最近的发束,将它们平滑连接起来形成更长的发束,连接到头皮上;对于过粗的发束(超过人头半径的十分之一),均匀将这些发束沿着生长方向分成两组发束,知道发束的宽度达到要求。
3.2样本的生成
将步骤3.1得到的三维头发样本分解成不同的发束组,首先使用简化的内部表达来表示每个发束{Si},即用穿过发束中心的均匀划分的折线和平均半径ri表示。接着对于每个头发模型,将它的发束聚类成不同的发束组,发束间的距离定义为:
其中Sa、Sb是发束,na、nb是发束的折线数目,是折线,ra、rb是发束的平均半径。每个头发模型被分解成十个发束组左右,并将这些发束组组合起来生成更多的新样本。图3给出了头发样本分解和再组合生成新样本的例子。
3.3样本的组织
生成新的样本后,本发明按照样本正视图的头发掩码面积的大小,升序将所有模型组织起来。为了进一步提升匹配效率,进一步地为每个头发样本H生成两个投影图:
头发区域掩码图它是头发样本的二维投影的掩码图。为了避免杂散发束的影响,本发明使用高斯滤波来平滑处理掩码图。
方向图本发明使用颜色来表示投影的头发方向,即用方向向量的XYZ表示RGB三通道的值。这样可绘制出头发样本的二维投影的方向图。
为了处理非正面视角,本发明在偏航角和俯仰角的[-π/4,π/4]范围内均匀采样6个角度。这样每个样本会有6×6组头发掩码图和方向图。为了后续的匹配计算效率,所有的图都降采样到100×100。
4.数据驱动的头发建模:将步骤3中的三维头发样本和步骤2分割出的头发掩码图和方向图进行匹配、变形,并生成最终模型;
4.1基于图像的三维头发样本匹配
使用步骤2.2得到头发掩码图和方向图来选择一组合适的三维样本。通过两步比较来完成快速的大量数据样本的搜索:
面积比较:首先根据脸部特征点,将输入图像对齐到样本投影图的坐标系中。然后比较输入图像的头发掩码面积|MI|和样本投影的头发掩码面积|MH|。样本的掩码面积在(0.8|MI|,1.25|MI|)范围内得以保留。
图像匹配:对于每一个通过第一步比较的样本,本发明进一步将样本的头发掩码图和方向图与输入图像的头发掩码图和方向图进行比较。如果输入图像不是正面图,本发明从预计算的6×6组样本投影图中挑选出视角最接近的图进行比较。头发掩码图的比较是基于MI边界的距离场(BALAN,A.O.,SIGAL,L.,BLACK,M.J.,DAVIS,J.E.,AND HAUSSECKER,H.W.2007.Detailed human shape and pose from images.InComputer Vision and Pattern Recognition,2007.CVPR’07.IEEE Conference on,IEEE,1–8.)进行计算:
其中分别是样本的头发掩码图和输入图像的头发掩码图,表示两个掩码间的对称差,是距离场的值。方向图的距离定义为像素的方向差dd∈[0,π)的和:
其中,分别是样本的方向图和输入图像的方向图,是两个掩码图的重叠区域,是重叠区域的像素数目,是重叠的像素的方向差。最后保留满足的样本作为最终候选样本{H}。
4.2头发变形
首先进行样本头发掩码图和输入图像的掩码图的边界匹配。对于每个候选样本H,首先将它变换到I中脸的姿势,然后按照步骤3.3的方法渲染得到头发掩码和方向图(MH,DH)。这里渲染图的分辨率和输入图一样,而不是降采样的小图。然后分别在掩码MH/MI的边界分别均匀采样200/2000个点{PH}/{PI}。对于每个边界点Pi H/Pi I,将它的位置标记为向外法向标记为计算边界间的点对点对应M({PH}→{PI})。对于候选模型的头发掩码边界的每个点Pi H,它在输入头发掩码边界的最优对应点通过优化如下匹配能量方程求得:
其中EP和Ee是衡量点匹配和边匹配的能量项。EP希望点对的位置和法向尽可能接近,权重λn的值为10;Ee希望映射M尽可能维持原边界的长度:
其中是候选样本的头发掩码图的边界点位置,是它在输入头发掩码边界的最优对应点位置,分别是的法向,λn是权重,分别是的相邻的采样点。上述能量方程在隐式马尔科夫模型(HMM)框架下,使用经典的Viterbi算法(FORNEY JR,G.D.1973.The viterbi algorithm.Proceedings of the IEEE61,3,268–278)求解。
边界匹配后,进一步通过全局平滑映射函数W(MH→MI)将边界的对应扩散到MH的所有像素。该函数使用了Thin-Plate-Spline(TPS)算法:
其中在输入图像I中的对应位置。EF(W)是对应矩阵W的二阶偏导的Frobenius范式。权重λ=1000。
最后通过下面的优化函数将候选样本模型H的每个顶点v变形到目标v':
其中VH是样本H的所有顶点。W(vi)是vi的对应位置,它的XY坐标由上述全局平滑映射函数W得到,而保持Z坐标不变。Δ是基于余切函数的离散网格拉普拉斯操作符(DESBRUN,M.,MEYER,M.,SCHRODER,P.,AND BARR,A.H.1999.Implicit fairing of irregularmeshes using diffusion and curvature flow.In Proceedings of ACM SIGGRAPH,317–324.),δi是原模型H上的顶点vi的拉普拉斯坐标的大小。权重λs=1。该优化函数可以使用非精确高斯牛顿方法求解(HUANG,J.,SHI,X.,LIU,X.,ZHOU,K.,WEI,L.-Y.,TENG,S.-H.,BAO,H.,GUO,B.,AND SHUM,H.-Y.2006.Subspace gradient domain mesh deformation.ACMTrans.Graph.25,3(July),1126–1134.)。经过变形后,可以得到与输入图像匹配更好的头发样本{H'}。
4.3最终头发生成
对于步骤4.2变形得到的候选样本{H'},在全像素图上进行最终方向图的比较(比较函数和步骤4.1一致),并挑选方向图匹配最好的模型H*来生成最终头发模型。接着将H*在整个模型的包围盒内转化为三维方向体表达,再以H*的方向向量和头皮区域的表面法向作为约束,将方向扩散到整个体内。然后以体方向场为引导,在头皮上均匀采样种子生成10000个发束。最后,将这些发束根据生长方向估计图进行变形得到最终头发模型(HU,L.,MA,C.,LUO,L.,AND LI,H.2015.Single-view hair modeling using a hairstyledatabase.ACM Transactions on Graphics(TOG)34,4,125.)。图4给出了从单幅图像生成最终头发模型的例子。
实施实例
发明人在一台配备Intel Core i7-3770中央处理器,NVidia GTX970图形处理器及32GB内存的机器上实现了本发明的实施实例。发明人采用所有在具体实施方式中列出的参数值,得到了附图中所示的所有实验结果。本发明可以有效地从大量英特网图片中生成多种发型的三维模型,这些发束级别的三维模型很好地匹配了输入的图像。对于一张典型的800×800图像,整个处理流程可在1分钟之内完成:头发分割和方向估计少于3秒,三维头发样本的匹配和变形大概需要20秒,最终发束生成少于30秒。在准备训练数据方面,处理一张图片需要平均1分钟;原始三维头发样本的分解和再生成需要少于10小时;而神经网络的训练大概需要8小时。

Claims (5)

1.一种基于单幅图像的全自动三维头发建模方法,其特征在于,包括以下步骤:
(1)头发训练数据的预处理:标记头发掩码和头发生长方向图,并通过无监督聚类方法得到不同发型的分类;
(2)全自动高精度的头发分割和方向估计方法:基于步骤(1)的标记数据训练深度神经网络,利用训练得到的分层深度卷积神经网络完成头发的类型识别,并利用基于公共的深度神经网络VGG16设计的模型进行头发的分割和头发生长方向的估计;其中,所述的基于公共的深度神经网络VGG16设计的模型是通过对VGG16进行如下改动得到的:第一,去除最后两层max-pooling层;第二,扩展跟随卷积层之后的接受域,并用0填充;第三,将所有全连接层换成卷积层;第四,在训练阶段,损失层在整张图像上计算输出标记和人工标注标记间的交叉熵之和;且在测试阶段,通过双线性插值将输出的标记图升采样到原图片大小,并使用全连接的CRF进行改善,得到分割的头发掩码图和头发生长方向图;
(3)三维头发样本的生成和组织:通过对原始头发模型的发束分解和再组合生成大量新发型样本,并投影生成头发掩码图和头发生长方向图,方便后续匹配;
(4)数据驱动的头发建模:将步骤(3)中的三维头发样本和步骤(2)分割出的头发掩码图和头发生长方向图进行匹配、变形,并生成最终模型。
2.根据权利要求1所述的基于单幅图像的全自动三维头发建模方法,其特征在于,所述步骤(1)包括如下子步骤:
(1.1)从英特网下载大量包含头发的人像图片,标记出头发掩码和头发生长方向图;
(1.2)利用步骤(1.1)中得到的头发标记数据,计算各种发型的分布特征,进行聚类。
3.根据权利要求1所述的基于单幅图像的全自动三维头发建模方法,其特征在于,所述步骤(2)包括如下子步骤:
(2.1)对输入图像中的头发区域进行自动估计;
(2.2)基于步骤(2.1)得到的头发区域,利用深度卷积神经网络R-CNN进行发型类型的识别;
(2.3)基于步骤(2.2)得到的头发类型选择对应的分割神经网络进行将头发从图片中分割出来,得到头发掩码图;
(2.4)基于步骤(2.2)得到的头发类型选择对应的方向估计神经网络预测对应头发的方向图。
4.根据权利要求1所述的基于单幅图像的全自动三维头发建模方法,其特征在于,所述步骤(3)包括如下子步骤:
(3.1)将原始三维头发模型的发束进行分解,再混合分解的发束生成新头发样本;
(3.2)将步骤(3.1)得到的头发样本投影生成头发掩码图和头发生长方向图,方便后续匹配。
5.根据权利要求1所述的基于单幅图像的全自动三维头发建模方法,其特征在于,所述步骤(4)包括如下子步骤:
(4.1)将步骤(2)中分割出的头发掩码图和头发生长方向图,与步骤(3)中的样本投影生成的头发掩码图和头发生长方向图进行匹配,挑选一组合适的样本;
(4.2)将步骤(4.1)的头发样本进行变形,更好地匹配图像中的头发;
(4.3)将步骤(4.2)得到的变形样本按照步骤(4.1)的方法进行方向图的匹配,挑选最佳样本生成最终头发模型。
CN201610244614.3A 2016-04-19 2016-04-19 一种基于单幅图像的全自动三维头发建模方法 Active CN105844706B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610244614.3A CN105844706B (zh) 2016-04-19 2016-04-19 一种基于单幅图像的全自动三维头发建模方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610244614.3A CN105844706B (zh) 2016-04-19 2016-04-19 一种基于单幅图像的全自动三维头发建模方法

Publications (2)

Publication Number Publication Date
CN105844706A CN105844706A (zh) 2016-08-10
CN105844706B true CN105844706B (zh) 2018-08-07

Family

ID=56588708

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610244614.3A Active CN105844706B (zh) 2016-04-19 2016-04-19 一种基于单幅图像的全自动三维头发建模方法

Country Status (1)

Country Link
CN (1) CN105844706B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11836900B2 (en) 2019-11-06 2023-12-05 Canon Kabushiki Kaisha Image processing apparatus

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017181332A1 (zh) 2016-04-19 2017-10-26 浙江大学 一种基于单幅图像的全自动三维头发建模方法
CN106611160B (zh) * 2016-12-15 2019-12-17 中山大学 一种基于卷积神经网络的图像头发识别方法及其装置
CN107145839B (zh) * 2017-04-17 2020-05-05 努比亚技术有限公司 一种指纹图像补全模拟方法及其系统
CN108320026B (zh) * 2017-05-16 2022-02-11 腾讯科技(深圳)有限公司 机器学习模型训练方法和装置
CN107220990B (zh) * 2017-06-22 2020-09-08 成都品果科技有限公司 一种基于深度学习的头发分割方法
CN107527318B (zh) * 2017-07-17 2021-06-04 复旦大学 一种基于生成对抗式网络模型的发型更换方法
BR112020008021A2 (pt) * 2017-10-24 2020-10-27 L'ORéAL S.A. dispositivos de computação, método para gerar uma cnn treinada para processar imagens e métodos para processar uma imagem
CN108280397B (zh) * 2017-12-25 2020-04-07 西安电子科技大学 基于深度卷积神经网络的人体图像头发检测方法
CN108629781B (zh) * 2018-04-24 2022-04-22 成都品果科技有限公司 一种头发绘制方法
CN109117760B (zh) * 2018-07-27 2021-01-22 北京旷视科技有限公司 图像处理方法、装置、电子设备和计算机可读介质
CN109002553B (zh) * 2018-08-08 2021-10-01 北京旷视科技有限公司 头发模型的构建方法、装置、电子设备和计算机可读介质
CN109359527B (zh) * 2018-09-11 2020-09-04 杭州格像科技有限公司 基于神经网络的头发区域提取方法及系统
CN109408653B (zh) * 2018-09-30 2022-01-28 叠境数字科技(上海)有限公司 基于多特征检索和形变的人体发型生成方法
CN109816764B (zh) 2019-02-02 2021-06-25 深圳市商汤科技有限公司 图像生成方法及装置、电子设备和存储介质
CN109920050B (zh) * 2019-03-01 2020-08-14 中北大学 一种基于深度学习和薄板样条的单视图三维火焰重建方法
CN109903378A (zh) * 2019-03-05 2019-06-18 盎锐(上海)信息科技有限公司 基于人工智能的头发3d建模装置及方法
CN110379003A (zh) * 2019-07-16 2019-10-25 北京航空航天大学青岛研究院 基于单张图像的三维头部重建方法
US11461998B2 (en) 2019-09-25 2022-10-04 Samsung Electronics Co., Ltd. System and method for boundary aware semantic segmentation
CN113763228B (zh) * 2020-06-01 2024-03-19 北京达佳互联信息技术有限公司 图像处理方法、装置、电子设备及存储介质
US20240273672A1 (en) * 2021-07-12 2024-08-15 Shanghaitech University Method for high-resolution image reconstruction
CN113658326A (zh) * 2021-08-05 2021-11-16 北京奇艺世纪科技有限公司 三维毛发的重建方法及装置
CN113744286A (zh) * 2021-09-14 2021-12-03 Oppo广东移动通信有限公司 虚拟头发生成方法及装置、计算机可读介质和电子设备
CN114373057B (zh) * 2021-12-22 2024-08-06 聚好看科技股份有限公司 一种头发与头部模型的匹配方法及设备
CN114723888B (zh) * 2022-04-08 2023-04-07 北京百度网讯科技有限公司 三维发丝模型生成方法、装置、设备、存储介质及产品

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102103690A (zh) * 2011-03-09 2011-06-22 南京邮电大学 一种自动的头发区域分割方法
CN104463172A (zh) * 2014-12-09 2015-03-25 中国科学院重庆绿色智能技术研究院 基于人脸特征点形状驱动深度模型的人脸特征提取方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102800129B (zh) * 2012-06-20 2015-09-30 浙江大学 一种基于单幅图像的头发建模和肖像编辑方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102103690A (zh) * 2011-03-09 2011-06-22 南京邮电大学 一种自动的头发区域分割方法
CN104463172A (zh) * 2014-12-09 2015-03-25 中国科学院重庆绿色智能技术研究院 基于人脸特征点形状驱动深度模型的人脸特征提取方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Single-View Hair Modeling for Portrait Manipulation;Menglei Chai et al;《ACM Transactions on Graphics》;20120731;第31卷(第4期);参见第1-8页 *
一种新的单张照片三维人脸重建方法;刘笃晋等;《计 算 机 仿 真》;20110930;第28 卷(第9 期);参见第275-278页 *
基于单幅人脸正视图的个性化人脸三维重建;金 彪等;《福建师范大学学报 ( 自然科学版)》;20130131;第29 卷(第1 期);参见第36-41页 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11836900B2 (en) 2019-11-06 2023-12-05 Canon Kabushiki Kaisha Image processing apparatus

Also Published As

Publication number Publication date
CN105844706A (zh) 2016-08-10

Similar Documents

Publication Publication Date Title
CN105844706B (zh) 一种基于单幅图像的全自动三维头发建模方法
US10665013B2 (en) Method for single-image-based fully automatic three-dimensional hair modeling
JP6891351B2 (ja) 多特徴検索と変形に基づく人体髪型の生成方法
Liu et al. Semantic-aware implicit neural audio-driven video portrait generation
US9792725B2 (en) Method for image and video virtual hairstyle modeling
Chai et al. Autohair: Fully automatic hair modeling from a single image
Roveri et al. A network architecture for point cloud classification via automatic depth images generation
Liao et al. Automatic caricature generation by analyzing facial features
CN116997933A (zh) 用于构造面部位置图的方法和系统
CN116583878A (zh) 用于个性化3d头部模型变形的方法和系统
Li et al. Pooling map adaptation in convolutional neural network for facial expression recognition
US11769309B2 (en) Method and system of rendering a 3D image for automated facial morphing with a learned generic head model
CN110717978B (zh) 基于单张图像的三维头部重建方法
JP2024503794A (ja) 2次元(2d)顔画像から色を抽出するための方法、システム及びコンピュータプログラム
CN108830222A (zh) 一种基于信息性和代表性主动学习的微表情识别方法
Hu et al. Face reenactment via generative landmark guidance
RU2710659C1 (ru) Совместная неконтролируемая сегментация объектов и подрисовка
Lin et al. Video stylization: painterly rendering and optimization with content extraction
CN113781372B (zh) 一种基于深度学习的戏曲脸谱生成方法及系统
Patterson et al. Landmark-based re-topology of stereo-pair acquired face meshes
CN115393471A (zh) 图像处理方法、装置及电子设备
Ji et al. An extraction method for roof point cloud of ancient building using deep learning framework
Cho et al. Mask-based style-controlled image synthesis using a mask style encoder
Sun et al. Hairstyle pattern recognition based on CNNs
Wang et al. Synthesizing trees by plantons

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant