CN116503524A - 一种虚拟形象的生成方法、系统、装置及存储介质 - Google Patents
一种虚拟形象的生成方法、系统、装置及存储介质 Download PDFInfo
- Publication number
- CN116503524A CN116503524A CN202310385691.0A CN202310385691A CN116503524A CN 116503524 A CN116503524 A CN 116503524A CN 202310385691 A CN202310385691 A CN 202310385691A CN 116503524 A CN116503524 A CN 116503524A
- Authority
- CN
- China
- Prior art keywords
- image
- dimensional
- face
- vertex coordinate
- coordinate information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 230000014509 gene expression Effects 0.000 claims abstract description 46
- 230000008921 facial expression Effects 0.000 claims abstract description 24
- 238000007781 pre-processing Methods 0.000 claims abstract description 16
- 230000009466 transformation Effects 0.000 claims description 15
- 238000001514 detection method Methods 0.000 claims description 13
- 238000013519 translation Methods 0.000 claims description 9
- 238000012549 training Methods 0.000 claims description 7
- 238000004422 calculation algorithm Methods 0.000 claims description 5
- 230000009471 action Effects 0.000 claims description 4
- 230000008569 process Effects 0.000 claims description 3
- 210000003128 head Anatomy 0.000 description 47
- 239000011159 matrix material Substances 0.000 description 15
- 239000013598 vector Substances 0.000 description 7
- 230000009286 beneficial effect Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 210000000887 face Anatomy 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 230000003321 amplification Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种虚拟形象的生成方法、系统、装置及存储介质,包括:获取包含人脸的图像,并对所述图像进行预处理,得到符合预设要求的待处理图像;所述图像由单目摄像头拍摄得到;将所述待处理图像输入到人脸透视重建模型进行预测,得到三维人脸网格顶点坐标信息和二维关键点位置信息;根据所述三维人脸网格顶点坐标信息确定表情基形状系数,根据所述三维人脸网格顶点坐标信息和所述二维关键点位置信息确定头部位姿信息;将所述表情基形状系数和所述头部位姿信息迁移到头部模型,生成三维人脸表情画像。本发明实施例能够通过单目摄像头获取的人脸图像驱动3D建模数字人,操作简洁,成本低,可广泛应用于计算机技术领域。
Description
技术领域
本发明涉及计算机技术领域,尤其涉及一种虚拟形象的生成方法、系统、装置及存储介质。
背景技术
元宇宙背景下,现实与虚拟环境的互动显得格外重要,而人脸表情的互动能更好连接虚拟与现实。目前要想捕获人脸表情去驱动3D建模数字人的表情,普遍方法是利用深度相机或者人脸面部标记点的辅助方式捕捉,存在操作复杂,驱动成本昂贵等缺点。
发明内容
有鉴于此,本发明实施例的目的是提供一种虚拟形象的生成方法、系统、装置及存储介质,能够通过单目摄像头获取的人脸图像驱动3D建模数字人,操作简洁,成本低。
第一方面,本发明实施例提供了一种虚拟形象的生成方法,包括以下步骤:
获取包含人脸的图像,并对所述图像进行预处理,得到符合预设要求的待处理图像;所述图像由单目摄像头拍摄得到;
将所述待处理图像输入到人脸透视重建模型进行预测,得到三维人脸网格顶点坐标信息和二维关键点位置信息;
根据所述三维人脸网格顶点坐标信息确定表情基形状系数,根据所述三维人脸网格顶点坐标信息和所述二维关键点位置信息确定头部位姿信息;
将所述表情基形状系数和所述头部位姿信息迁移到头部模型,生成三维人脸表情画像。
可选地,所述对所述图像进行预处理,得到符合预设要求的待处理图像,具体包括:
将所述图像进行人脸检测和尺寸变换,得到只包含单一人脸且符合人脸透视重建模型输入尺寸的待处理图像。
可选地,所述将所述图像进行人脸检测和尺寸变换,具体包括:
通过人脸检测模型对所述图像进行检测,得到人脸边界框和脸部关键点;
保持脸部关键点之间的距离比例不变,通过相似变换将所述人脸边界框缩放到人脸透视重建模型输入尺寸。
可选地,所述人脸透视重建模型的训练过程包括:
获取包含头部动作和面部表情的样本图像,并根据样本图像确定真实三维人脸网格顶点坐标信息和真实二维关键点位置信息;所述样本图像通过深度摄像头拍摄得到;
将预处理后的样本图像输入到初始模型,得到预测三维人脸网格顶点坐标信息和预测二维关键点位置信息;
根据真实三维人脸网格顶点坐标信息与预测三维人脸网格顶点坐标信息之间的误差计算第一损失值,根据真实二维关键点位置信息与预测二维关键点位置信息之间的误差计算第二损失值;
根据第一损失值和第二损失值对初始模型的模型参数进行更新,得到所述人脸透视重建模型。
可选地,所述根据所述三维人脸网格顶点坐标信息确定表情基形状系数,具体包括:
根据三维人脸网格顶点坐标信息确定三维人脸网格;
根据所述三维人脸网格和表情基形状确定表情基形状系数。
可选地,所述根据所述三维人脸网格顶点坐标信息和所述二维关键点位置信息确定头部位姿信息,具体包括:
通过EPnP算法对所述三维人脸网格顶点坐标信息和所述二维关键点位置信息进行预测,得到头部的旋转和平移信息。
第二方面,本发明实施例提供了一种虚拟形象的生成系统,包括:
第一模块,用于获取包含人脸的图像,并对所述图像进行预处理,得到符合预设要求的待处理图像;所述图像由单目摄像头拍摄得到;
第二模块,用于将所述待处理图像输入到人脸透视重建模型进行预测,得到三维人脸网格顶点坐标信息和二维关键点位置信息;
第三模块,用于根据所述三维人脸网格顶点坐标信息确定表情基形状系数,根据所述三维人脸网格顶点坐标信息和所述二维关键点位置信息确定头部位姿;
第四模块,用于将所述表情基形状系数和所述头部位姿迁移到自建头部模型,生成三维人脸表情画像。
第三方面,本发明实施例提供了一种虚拟形象的生成装置,包括:
至少一个处理器;
至少一个存储器,用于存储至少一个程序;
当所述至少一个程序被所述至少一个处理器执行,使得所述至少一个处理器实现上述的方法。
第四方面,本发明实施例提供了一种计算机可读存储介质,其中存储有处理器可执行的程序,所述处理器可执行的程序在由处理器执行时用于执行上述的方法。
第五方面,本发明实施例提供了一种虚拟形象的生成系统,包括图像采集设备以及与所述图像采集设备连接的计算机设备;其中,
所述图像采集设备,包括单目摄像头,用于拍摄包含人脸的图片;
所述计算机设备包括:
至少一个处理器;
至少一个存储器,用于存储至少一个程序;
当所述至少一个程序被所述至少一个处理器执行,使得所述至少一个处理器实现上述的方法。
实施本发明实施例包括以下有益效果:本实施例首先获取由单目摄像头拍摄的包含人脸的图像,并进行预处理得到待处理图像,然后将待处理图像输入到人脸透视重建模型得到三维人脸网格顶点坐标信息和二维关键点位置信息,并基于三维人脸网格顶点坐标信息和二维关键点位置信息得到表情基形状系数和头部位姿信息,最后将表情基形状系数和头部位姿信息迁移到头部模型生成三维人脸表情画像,通过人脸透视重建模型预测输入的单目摄像头图像的三维人脸网格顶点坐标信息和二维关键点位置信息,并进一步确定表情基形状系数和头部位姿信息,并结合头部模型生成三维人脸表情画像,从而实现通过单目摄像头获取的人脸图像驱动3D建模数字虚拟人,无需穿戴面部表情设备,通过连续的图像帧可以生成三维人脸表情动画,操作简洁,成本低。
附图说明
图1是本发明实施例提供的一种虚拟形象的生成方法的步骤流程示意图;
图2是本发明实施例提供的一种虚拟形象的生成方法的步骤流程示意图;
图3是本发明实施例提供的一种虚拟形象的生成系统的结构框图;
图4是本发明实施例提供的一种虚拟形象的生成装置的结构框图;
图5是本发明实施例提供的一种虚拟形象的生成系统的另一种结构框图。
具体实施方式
下面结合附图和具体实施例对本发明做进一步的详细说明。对于以下实施例中的步骤编号,其仅为了便于阐述说明而设置,对步骤之间的顺序不做任何限定,实施例中的各步骤的执行顺序均可根据本领域技术人员的理解来进行适应性调整。
在以下的描述中,涉及到“一些实施例”,其描述了所有可能实施例的子集,但是可以理解,“一些实施例”可以是所有可能实施例的相同子集或不同子集,并且可以在不冲突的情况下相互结合。
在以下的描述中,所涉及的术语“第一\第二\第三”仅仅是是区别类似的对象,不代表针对对象的特定排序,可以理解地,“第一\第二\第三”在允许的情况下可以互换特定的顺序或先后次序,以使这里描述的本发明实施例能够以除了在这里图示或描述的以外的顺序实施。
除非另有定义,本发明实施例所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本发明实施例中所使用的术语只是为了描述本发明实施例的目的,不是旨在限制本发明。
参阅图1和图2所示,本发明实施例提供了一种虚拟形象的生成方法,包括以下步骤S100-S400:
S100、获取包含人脸的图像,并对所述图像进行预处理,得到符合预设要求的待处理图像;所述图像由单目摄像头拍摄得到。
由单目摄像头拍摄的包含人脸的图像是后续头部模型中表情和位姿的信息来源,待处理图像为符合后续数据处理要求的图像。预处理的具体方式根据实际应用确定,本实施例不做具体限制,预处理包括但不限于图像裁剪和图像尺寸变换等。
可选地,所述对所述图像进行预处理,得到符合预设要求的待处理图像,具体包括:
S110、将所述图像进行人脸检测和尺寸变换,得到只包含单一人脸且符合人脸透视重建模型输入尺寸的待处理图像。
具体地,首先对图像进行人脸检测,得到只包含人脸的图像区域,然后将包含人脸的图像区域进行尺寸变换,得到符合人脸透视重建模型输入尺寸要求的待处理图像。需要说明的是,人脸检测和尺寸变换的具体方式根据实际应用确定,本实施例不做具体限制。
可选地,所述将所述图像进行人脸检测和尺寸变换,具体包括:
S111、通过人脸检测模型对所述图像进行检测,得到人脸边界框和脸部关键点;
S112、保持脸部关键点之间的距离比例不变,通过相似变换将所述人脸边界框缩放到人脸透视重建模型输入尺寸。
人脸检测模型用于对图像进行人脸检测,人脸检测模型包括但不限于RetinaFace神经网络。具体地,通过RetinaFace神经网络捕捉到图像中的人脸边界框和脸部关键点坐标,然后在保持脸部关键点之间的距离比例不变的情况下,将人脸边界框缩小或放大到人脸透视重建模型输入尺寸。缩小或放大根据检测的人脸边界框与模型输入尺寸之间的大小关系确定,若人脸边界框大于模型输入尺寸,则采用缩小操作,若人脸边界框小于模型输入尺寸,则采用放大操作。
S200、将所述待处理图像输入到人脸透视重建模型进行预测,得到三维人脸网格顶点坐标信息和二维关键点位置信息。
需要说明的是,人脸透视重建模需要先进行训练,然后将训练好的人脸透视重建模用于三维人脸网格顶点坐标信息和二维关键点位置信息的预测。
人脸透视重建模的结构包括若干个网络层结构和残差块,在一个具体的实施例中,脸透视重建模的结构包括依次连接的三个卷积层、一个池化层和四个残差块。输入图像先经过三个卷积层和一个池化层进行特征提取,提取出的特征图依次经过四个残差块进行深度特征提取和压缩。每个残差块包含两个卷积层,其中,第一个卷积层的输出通道数为输入通道数的一半,第二个卷积层的输出通道数等于输入通道数,最后经过一个全局池化层和全连接层回归。在一个具体的实施例中,人脸透视重建模的结构参数如表一所示,最终输出的是一个6100维的向量,分别表示1220个预测3D顶点坐标(pred_verts)和1220个预测2D顶点坐标(pred_points2d)。
表一
可选地,所述人脸透视重建模型的训练过程包括:
S201、获取包含头部动作和面部表情的样本图像,并根据样本图像确定真实三维人脸网格顶点坐标信息和真实二维关键点位置信息;所述样本图像通过深度摄像头拍摄得到。
在一个具体的实施例中,邀请10名志愿者来制作数据集,他们坐在一个随机的环境中,3D采集设备固定在他们面前,距离大约在0.3m到0.9m之间。每个志愿者者被要求用两个头部动作(从左看到右看/从抬头到低头)做出46个特定的表情,这些特定表情包含了人脸能做出的所有常用表情。使用深度摄像头来记录3D ground trunth.人脸的形状和位置由结构光传感器跟踪。在数据集类别中,使用其中3560个实例作为训练集,905个实例作为测试集。每个实例包含1220个3D网格顶点坐标信息label_verts的真实标签和通过面部对齐工具包预测的1220个关键点坐标label_verts。对原始数据的图片进行预处理,通过仿射变换中的相似变换使得1220个脸部关键点之间距离比例不变的情况,将人脸边界框尺寸缩放到256x256尺寸。
S202、将预处理后的样本图像输入到初始模型,得到预测三维人脸网格顶点坐标信息和预测二维关键点位置信息。
具体地,样本图像的预处理包括但不限于尺寸归一化、变换、旋转等步骤实现数据增强等。初始模型表示模型参数有待更新确定的人脸透视重建模型。初始模型的网络结构参数根据实际应用确定,本实施例不做具体限制。
S203、根据真实三维人脸网格顶点坐标信息与预测三维人脸网格顶点坐标信息之间的误差计算第一损失值,根据真实二维关键点位置信息与预测二维关键点位置信息之间的误差计算第二损失值。
具体地,损失值的计算公司参阅下面公式,计算3D顶点坐标pred_verts(预测值)和label_verts(真实值)张量之间的第一损失值Lvets,以及2D顶点坐标pred_points2d(预测值)label_points2d(真实值)和张量之间的第二损失值Lland,N是3D和2D顶点个数,v是模型预测3D输出,v*是3D真实标签,p是模型预测2D输出,p*是2D真实标签。
S204、根据第一损失值和第二损失值对初始模型的模型参数进行更新,得到所述人脸透视重建模型。
设定最小优化算法:联合2D和3D损失函数得到总损失函数Loss=Lvets+Lland,以及设定训练迭代次数,并根据误差最小化的目的完成训练。例如:训练方式采用随机梯度下降法训练40个迭代次数可以实现准模型确精度。
S300、根据所述三维人脸网格顶点坐标信息确定表情基形状系数,根据所述三维人脸网格顶点坐标信息和所述二维关键点位置信息确定头部位姿信息。
表情基形状系数用于表征基于面部表情基形状的变换系数。头部位姿信息用于表征头部的动作信息。根据三维人脸网格顶点坐标信息确定表情基形状系数,用于后续确定画像中人脸的面部表情;根据三维人脸网格顶点坐标信息和二维关键点位置信息确定头部位姿信息,用于后续确定画像中人头的动作。
可选地,所述根据所述三维人脸网格顶点坐标信息确定表情基形状系数,具体包括:
S310、根据三维人脸网格顶点坐标信息确定三维人脸网格;
S320、根据所述三维人脸网格和表情基形状确定表情基形状系数。
具体地,首先,根据三维人脸网格顶点坐标信息进行点与点连线、线与线成面,从而确定三维人脸网格;然后,将三维人脸网格降维到表情基形状,从而得到表情基形状系数。
在一个具体的实施例中,3D网格顶点坐标信息pred_verts共有1220个顶点,根据网格的点与点连线--线与线成面的规则,可以形成2374条线和1152个面,在已知线-面的布局已知的前提下,根据3D顶点坐标信息可以生成3D人脸网格。通过52个表情基形状和预测的3D人脸网格,通过最小二乘矩阵回归计算出52个表情基形状参数。
上述矩阵方程记为矩阵A∈Rn×m,n是表情基形状个数52,m是输出3D网格顶点一维数据3660,/>是第i个表情基形状的3D网格顶点坐标信息,ai是第i个表情基形/>状的系数,同样使得残差的平方和最小,标签值Y写为向量的形式/>
通过求偏导,最终的表情基形状系数的最优取值为:
可选地,所述根据所述三维人脸网格顶点坐标信息和所述二维关键点位置信息确定头部位姿信息,具体包括:
S330、通过EPnP(Efficient Perspective-n-Point)算法对所述三维人脸网格顶点坐标信息和所述二维关键点位置信息进行预测,得到头部的旋转和平移信息。
具体地,分别选择左右眼、鼻头、下巴四个3D网格顶点,3D空间中的4个点分别表示为P1=(X1,Y1,Z1)、P2=(X2,Y2,Z2)、P3=(X3,Y3,Z3)、P4=(X4,Y4,Z4),对应的在图像上的2D关键点表示为Q1=(u1,v1)、Q2=(u2,v2)、Q3=(u3,v3)、Q4=(u4,v4),EPnP算法的求解公式如下:
Min∑i||Qi-K(BPi+t)||2
其中,Qi表示第i个3D网格顶点,Pi表示第i个2D网格顶点,K为相机内部参数矩阵,B是旋转矩阵B∈R3×3,t是平移向量t∈R3*1。
可以使用下面的步骤来计算头部的位姿信息。
相机内部的参数矩阵K的逆矩阵K-1,这可以通过相机的内部参数(如焦距、像素尺寸等)来计算得到,K的形式通常为
其中,fx和fy为焦距,cx和cy为图像中心点的坐标。
通过将Pi表示为列向量,并将R和t拼成一个3*4的矩阵M=[R|t],最小化公式可化简为:
Min∑i||Qi-KPiM||2
定义矩阵A如下:
Ai=[ZiK-1Qi,-ZiK-1Pi]
其中,Zi是Pi的第三个维度Z轴的坐标,则最小化公式进一步简化为:
Min∑i||AiM||2
使用奇异值分解(SVD)计算矩阵A的分解:
A=U*S*VT
其中,U和V是正交矩阵,S是对角矩阵。
通过计算矩阵B和向量t来计算头部的旋转和平移:
B=UVT
t=P-B-1K-1Q
将B和t转换为相机坐标系下的坐标系,即将从相机坐标系转换为世界坐标系:
R=K-1*B
T=K-1*t
其中,R是旋转矩阵,T是平移向量。最终得到的旋转矩阵R和平移向量T可以用来表示头部在世界坐标系下的姿态,再将旋转矩阵转换为欧拉角roll、yaw、pitch。
S400、将所述表情基形状系数和所述头部位姿信息迁移到头部模型,生成三维人脸表情画像。
头部模型包含52个面部表情基形状,52个表情基形状相互两两正交,自建的3D头部模型的布线面规则不用仿照。
具体地,将1220*3个3D数据降到了52个维度来表现人脸的表情信息,将预测得到的52表情基形状参数移植到自建头部模型上,实现将单目摄像头捕捉的输入图片的人脸表情移植到自建3D头部模型。然后,自建3D头部模型绑定头部旋转骨架,将预测得到的头部旋转值和平移值给到骨架旋转值和偏移值,实现将单目摄像头捕捉的输入图片的头部位姿移植到自建3D头部模型。
实施本发明实施例包括以下有益效果:本实施例首先获取由单目摄像头拍摄的包含人脸的图像,并进行预处理得到待处理图像,然后将待处理图像输入到人脸透视重建模型得到三维人脸网格顶点坐标信息和二维关键点位置信息,并基于三维人脸网格顶点坐标信息和二维关键点位置信息得到表情基形状系数和头部位姿信息,最后将表情基形状系数和头部位姿信息迁移到头部模型生成三维人脸表情画像,通过人脸透视重建模型预测输入的单目摄像头图像的三维人脸网格顶点坐标信息和二维关键点位置信息,并进一步确定表情基形状系数和头部位姿信息,并结合头部模型生成三维人脸表情画像,从而实现通过单目摄像头获取的人脸图像驱动3D建模数字虚拟人,无需穿戴面部表情设备,通过连续的图像帧可以生成三维人脸表情动画,操作简洁,成本低。
参阅图3,本发明实施例提供了一种虚拟形象的生成系统,包括:
第一模块,用于获取包含人脸的图像,并对所述图像进行预处理,得到符合预设要求的待处理图像;所述图像由单目摄像头拍摄得到;
第二模块,用于将所述待处理图像输入到人脸透视重建模型进行预测,得到三维人脸网格顶点坐标信息和二维关键点位置信息;
第三模块,用于根据所述三维人脸网格顶点坐标信息确定表情基形状系数,根据所述三维人脸网格顶点坐标信息和所述二维关键点位置信息确定头部位姿;
第四模块,用于将所述表情基形状系数和所述头部位姿迁移到自建头部模型,生成三维人脸表情画像。
可见,上述方法实施例中的内容均适用于本系统实施例中,本系统实施例所具体实现的功能与上述方法实施例相同,并且达到的有益效果与上述方法实施例所达到的有益效果也相同。
参阅图4,本发明实施例提供了一种虚拟形象的生成装置,包括:
至少一个处理器;
至少一个存储器,用于存储至少一个程序;
当所述至少一个程序被所述至少一个处理器执行,使得所述至少一个处理器实现上述的方法。
其中,存储器作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序以及非暂态性计算机可执行程序。存储器可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施方式中,存储器可选包括相对于处理器远程设置的远程存储器,这些远程存储器可以通过网络连接至处理器。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
可见,上述方法实施例中的内容均适用于本装置实施例中,本装置实施例所具体实现的功能与上述方法实施例相同,并且达到的有益效果与上述方法实施例所达到的有益效果也相同。
此外,本申请实施例还公开了一种计算机程序产品或计算机程序,计算机程序产品或计算机程序存储在计算机可读存介质中。计算机设备的处理器可以从计算机可读存储介质读取该计算机程序,处理器执行该计算机程序,使得该计算机设备执行上述的方法。同样地,上述方法实施例中的内容均适用于本存储介质实施例中,本存储介质实施例所具体实现的功能与上述方法实施例相同,并且达到的有益效果与上述方法实施例所达到的有益效果也相同。
本发明实施例还提供了一种计算机可读存储介质,该计算机可读存储介质存储有处理器可执行的程序,所述处理器可执行的程序在被处理器执行时用于实现上述的方法。
可以理解的是,上文中所公开方法中的全部或某些步骤、系统可以被实施为软件、固件、硬件及其适当的组合。某些物理组件或所有物理组件可以被实施为由处理器,如中央处理器、数字信号处理器或微处理器执行的软件,或者被实施为硬件,或者被实施为集成电路,如专用集成电路。这样的软件可以分布在计算机可读介质上,计算机可读介质可以包括计算机存储介质(或非暂时性介质)和通信介质(或暂时性介质)。如本领域普通技术人员公知的,术语计算机存储介质包括在用于存储信息(诸如计算机可读指令、数据结构、程序模块或其他数据)的任何方法或技术中实施的易失性和非易失性、可移除和不可移除介质。计算机存储介质包括但不限于RAM、ROM、EEPROM、闪存或其他存储器技术、CD-ROM、数字多功能盘(DVD)或其他光盘存储、磁盒、磁带、磁盘存储或其他磁存储装置、或者可以用于存储期望的信息并且可以被计算机访问的任何其他的介质。此外,本领域普通技术人员公知的是,通信介质通常包含计算机可读指令、数据结构、程序模块或者诸如载波或其他传输机制之类的调制数据信号中的其他数据,并且可包括任何信息递送介质。
参阅图5,本发明实施例提供了一种虚拟形象的生成系统,包括图像采集设备以及与所述图像采集设备连接的计算机设备;其中,
所述图像采集设备,包括单目摄像头,用于拍摄包含人脸的图片;
所述计算机设备包括:
至少一个处理器;
至少一个存储器,用于存储至少一个程序;
当所述至少一个程序被所述至少一个处理器执行,使得所述至少一个处理器实现上述的方法。
具体地,对于所述图像采集设备,其主要通过包含单目摄像头的相机来实现;而对于所述计算机设备,其可为不同类型的电子设备,包含但不限于有台式电脑、手提电脑等终端。
可见,上述方法实施例中的内容均适用于本系统实施例中,本系统实施例所具体实现的功能与上述方法实施例相同,并且达到的有益效果与上述方法实施例所达到的有益效果也相同。
以上是对本发明的较佳实施进行了具体说明,但本发明创造并不限于所述实施例,熟悉本领域的技术人员在不违背本发明精神的前提下还可做作出种种的等同变形或替换,这些等同的变形或替换均包含在本申请权利要求所限定的范围内。
Claims (10)
1.一种虚拟形象的生成方法,其特征在于,包括:
获取包含人脸的图像,并对所述图像进行预处理,得到符合预设要求的待处理图像;所述图像由单目摄像头拍摄得到;
将所述待处理图像输入到人脸透视重建模型进行预测,得到三维人脸网格顶点坐标信息和二维关键点位置信息;
根据所述三维人脸网格顶点坐标信息确定表情基形状系数,根据所述三维人脸网格顶点坐标信息和所述二维关键点位置信息确定头部位姿信息;
将所述表情基形状系数和所述头部位姿信息迁移到头部模型,生成三维人脸表情画像。
2.根据权利要求1所述的生成方法,其特征在于,所述对所述图像进行预处理,得到符合预设要求的待处理图像,具体包括:
将所述图像进行人脸检测和尺寸变换,得到只包含单一人脸且符合人脸透视重建模型输入尺寸的待处理图像。
3.根据权利要求2所述的生成方法,其特征在于,所述将所述图像进行人脸检测和尺寸变换,具体包括:
通过人脸检测模型对所述图像进行检测,得到人脸边界框和脸部关键点;
保持脸部关键点之间的距离比例不变,通过相似变换将所述人脸边界框缩放到人脸透视重建模型输入尺寸。
4.根据权利要求1所述的生成方法,其特征在于,所述人脸透视重建模型的训练过程包括:
获取包含头部动作和面部表情的样本图像,并根据样本图像确定真实三维人脸网格顶点坐标信息和真实二维关键点位置信息;所述样本图像通过深度摄像头拍摄得到;
将预处理后的样本图像输入到初始模型,得到预测三维人脸网格顶点坐标信息和预测二维关键点位置信息;
根据真实三维人脸网格顶点坐标信息与预测三维人脸网格顶点坐标信息之间的误差计算第一损失值,根据真实二维关键点位置信息与预测二维关键点位置信息之间的误差计算第二损失值;
根据第一损失值和第二损失值对初始模型的模型参数进行更新,得到所述人脸透视重建模型。
5.根据权利要求1所述的生成方法,其特征在于,所述根据所述三维人脸网格顶点坐标信息确定表情基形状系数,具体包括:
根据三维人脸网格顶点坐标信息确定三维人脸网格;
根据所述三维人脸网格和表情基形状确定表情基形状系数。
6.根据权利要求1所述的生成方法,其特征在于,所述根据所述三维人脸网格顶点坐标信息和所述二维关键点位置信息确定头部位姿信息,具体包括:
通过EPnP算法对所述三维人脸网格顶点坐标信息和所述二维关键点位置信息进行预测,得到头部的旋转和平移信息。
7.一种虚拟形象的生成系统,其特征在于,包括:
第一模块,用于获取包含人脸的图像,并对所述图像进行预处理,得到符合预设要求的待处理图像;所述图像由单目摄像头拍摄得到;
第二模块,用于将所述待处理图像输入到人脸透视重建模型进行预测,得到三维人脸网格顶点坐标信息和二维关键点位置信息;
第三模块,用于根据所述三维人脸网格顶点坐标信息确定表情基形状系数,根据所述三维人脸网格顶点坐标信息和所述二维关键点位置信息确定头部位姿;
第四模块,用于将所述表情基形状系数和所述头部位姿迁移到自建头部模型,生成三维人脸表情画像。
8.一种虚拟形象的生成装置,其特征在于,包括:
至少一个处理器;
至少一个存储器,用于存储至少一个程序;
当所述至少一个程序被所述至少一个处理器执行,使得所述至少一个处理器实现如权利要求1-6任一项所述的方法。
9.一种计算机可读存储介质,其中存储有处理器可执行的程序,其特征在于,所述处理器可执行的程序在由处理器执行时用于执行如权利要求1-6任一项所述的方法。
10.一种虚拟形象的生成系统,其特征在于,包括图像采集设备以及与所述图像采集设备连接的计算机设备;其中,
所述图像采集设备,包括单目摄像头,用于拍摄包含人脸的图片;
所述计算机设备包括:
至少一个处理器;
至少一个存储器,用于存储至少一个程序;
当所述至少一个程序被所述至少一个处理器执行,使得所述至少一个处理器实现如权利要求1-6任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310385691.0A CN116503524B (zh) | 2023-04-11 | 2023-04-11 | 一种虚拟形象的生成方法、系统、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310385691.0A CN116503524B (zh) | 2023-04-11 | 2023-04-11 | 一种虚拟形象的生成方法、系统、装置及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116503524A true CN116503524A (zh) | 2023-07-28 |
CN116503524B CN116503524B (zh) | 2024-04-12 |
Family
ID=87319423
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310385691.0A Active CN116503524B (zh) | 2023-04-11 | 2023-04-11 | 一种虚拟形象的生成方法、系统、装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116503524B (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102043943A (zh) * | 2009-10-23 | 2011-05-04 | 华为技术有限公司 | 人脸姿态参数获取方法及装置 |
CN108765550A (zh) * | 2018-05-09 | 2018-11-06 | 华南理工大学 | 一种基于单张图片的三维人脸重建方法 |
CN111291674A (zh) * | 2020-02-04 | 2020-06-16 | 清华珠三角研究院 | 一种虚拟人物表情动作的提取方法、系统、装置及介质 |
CN111428579A (zh) * | 2020-03-03 | 2020-07-17 | 平安科技(深圳)有限公司 | 人脸图像的获取方法与系统 |
WO2020199693A1 (zh) * | 2019-03-29 | 2020-10-08 | 中国科学院深圳先进技术研究院 | 一种大姿态下的人脸识别方法、装置及设备 |
CN112614213A (zh) * | 2020-12-14 | 2021-04-06 | 杭州网易云音乐科技有限公司 | 人脸表情确定方法、表情参数确定模型、介质及设备 |
CN112884881A (zh) * | 2021-01-21 | 2021-06-01 | 魔珐(上海)信息科技有限公司 | 三维人脸模型重建方法、装置、电子设备及存储介质 |
CN113076918A (zh) * | 2021-04-15 | 2021-07-06 | 河北工业大学 | 基于视频的人脸表情克隆方法 |
WO2021139557A1 (zh) * | 2020-01-08 | 2021-07-15 | 杭州未名信科科技有限公司 | 肖像简笔画生成方法、系统及绘画机器人 |
CN113744374A (zh) * | 2021-09-03 | 2021-12-03 | 浙江大学 | 一种基于表情驱动的3d虚拟形象生成方法 |
WO2022143197A1 (zh) * | 2020-12-31 | 2022-07-07 | 魔珐(上海)信息科技有限公司 | 虚拟对象面部动画生成方法及装置、存储介质、终端 |
-
2023
- 2023-04-11 CN CN202310385691.0A patent/CN116503524B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102043943A (zh) * | 2009-10-23 | 2011-05-04 | 华为技术有限公司 | 人脸姿态参数获取方法及装置 |
CN108765550A (zh) * | 2018-05-09 | 2018-11-06 | 华南理工大学 | 一种基于单张图片的三维人脸重建方法 |
WO2020199693A1 (zh) * | 2019-03-29 | 2020-10-08 | 中国科学院深圳先进技术研究院 | 一种大姿态下的人脸识别方法、装置及设备 |
WO2021139557A1 (zh) * | 2020-01-08 | 2021-07-15 | 杭州未名信科科技有限公司 | 肖像简笔画生成方法、系统及绘画机器人 |
CN111291674A (zh) * | 2020-02-04 | 2020-06-16 | 清华珠三角研究院 | 一种虚拟人物表情动作的提取方法、系统、装置及介质 |
CN111428579A (zh) * | 2020-03-03 | 2020-07-17 | 平安科技(深圳)有限公司 | 人脸图像的获取方法与系统 |
WO2021174939A1 (zh) * | 2020-03-03 | 2021-09-10 | 平安科技(深圳)有限公司 | 人脸图像的获取方法与系统 |
CN112614213A (zh) * | 2020-12-14 | 2021-04-06 | 杭州网易云音乐科技有限公司 | 人脸表情确定方法、表情参数确定模型、介质及设备 |
WO2022143197A1 (zh) * | 2020-12-31 | 2022-07-07 | 魔珐(上海)信息科技有限公司 | 虚拟对象面部动画生成方法及装置、存储介质、终端 |
CN112884881A (zh) * | 2021-01-21 | 2021-06-01 | 魔珐(上海)信息科技有限公司 | 三维人脸模型重建方法、装置、电子设备及存储介质 |
CN113076918A (zh) * | 2021-04-15 | 2021-07-06 | 河北工业大学 | 基于视频的人脸表情克隆方法 |
CN113744374A (zh) * | 2021-09-03 | 2021-12-03 | 浙江大学 | 一种基于表情驱动的3d虚拟形象生成方法 |
Also Published As
Publication number | Publication date |
---|---|
CN116503524B (zh) | 2024-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11373332B2 (en) | Point-based object localization from images | |
CN108460338B (zh) | 人体姿态估计方法和装置、电子设备、存储介质、程序 | |
Huang et al. | A coarse-to-fine algorithm for matching and registration in 3D cross-source point clouds | |
CN109684969B (zh) | 凝视位置估计方法、计算机设备及存储介质 | |
CN112950775A (zh) | 一种基于自监督学习的三维人脸模型重建方法及系统 | |
CN112954292B (zh) | 一种基于增强现实的数字博物馆导览系统和方法 | |
WO2024007478A1 (zh) | 基于单手机的人体三维建模数据采集与重建方法及系统 | |
CN116958492B (zh) | 一种基于NeRf重建三维底座场景渲染的VR编辑方法 | |
CN114219855A (zh) | 点云法向量的估计方法、装置、计算机设备和存储介质 | |
CN112085835A (zh) | 三维卡通人脸生成方法、装置、电子设备及存储介质 | |
CN111462274A (zh) | 一种基于smpl模型的人体图像合成方法及系统 | |
US11961266B2 (en) | Multiview neural human prediction using implicit differentiable renderer for facial expression, body pose shape and clothes performance capture | |
CN115222917A (zh) | 三维重建模型的训练方法、装置、设备及存储介质 | |
CN114170290A (zh) | 图像的处理方法及相关设备 | |
CN110163095B (zh) | 回环检测方法、回环检测装置及终端设备 | |
CN115375836A (zh) | 基于多元置信度滤波的点云融合三维重建方法和系统 | |
KR20230150867A (ko) | 얼굴 표정, 신체 자세 형상 및 의류 퍼포먼스 캡처를 위해 암시적 구별가능 렌더러를 사용하는 멀티뷰 신경 사람 예측 | |
Yin et al. | [Retracted] Virtual Reconstruction Method of Regional 3D Image Based on Visual Transmission Effect | |
CN117726747A (zh) | 补全弱纹理场景的三维重建方法、装置、存储介质和设备 | |
CN116012626B (zh) | 建筑立面图像的素材匹配方法、装置、设备和存储介质 | |
CN116503524B (zh) | 一种虚拟形象的生成方法、系统、装置及存储介质 | |
Yang et al. | Deep learning based six‐dimensional pose estimation in virtual reality | |
CN116051737A (zh) | 图像生成方法、装置、设备及存储介质 | |
CN112613457B (zh) | 图像采集方式检测方法、装置、计算机设备和存储介质 | |
Zhang et al. | Pose detection of aerial image object based on constrained neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |