CN108305312B - 3d虚拟形象的生成方法和装置 - Google Patents
3d虚拟形象的生成方法和装置 Download PDFInfo
- Publication number
- CN108305312B CN108305312B CN201710049452.2A CN201710049452A CN108305312B CN 108305312 B CN108305312 B CN 108305312B CN 201710049452 A CN201710049452 A CN 201710049452A CN 108305312 B CN108305312 B CN 108305312B
- Authority
- CN
- China
- Prior art keywords
- points
- point
- image
- model
- control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
Abstract
本发明提供一种3D虚拟形象的生成方法和装置,包括预先在3D模型的特征部分预置控制点和随动点,当需要根据2D图像对3D模型的特征部分进行调整时,仅需调整控制点位置,即可控制随动点跟随控制点的变化而变化,从而简化调整模型的步骤,极大的提高了3D模型特征部分的重建效率,并且,通过随动点跟随控制点变化的方式调整模型,可以确保模型表面的平滑度,进而使渲染得到的3D虚拟形象形象生动。
Description
技术领域
本发明涉及计算机技术领域,尤其涉及一种3D虚拟形象的生成方法和装置。
背景技术
随着智能设备的普及和各种应用的推广,用户在相关应用场景下使用3D形象进行个性化交互的需求日益增长。3D形象的重点在于人脸部分,为了增加应用的可玩性和真实感,3D形象的构建可以参照用户提供的人脸图像。
现有基于真实人脸的3D虚拟人物的创建方法包括:根据人脸图像重建3D人脸模型,然后在3D人脸模型的基础上通过二次建模生成人物对应的身体、头发等其他模型,最终组合为3D虚拟人物模型。其中,重建3D人脸模型时,需要采集人脸正面图像,通过自动提取或人工标定方式进行人脸特征点定位,然后调整3D人脸模型上与人脸特征点对应的顶点,并逐个调整其他非对应的顶点,最后进行人脸纹理拟合。
上述方法存在以下缺陷:
1)现实场景中,很多情况下无法采集到人脸正面图像,比如在进行人脸识别时,很有可能仅采集到侧脸图像,此时采用上述的人脸重建方法将无法构建出3D人脸,或者构建的3D人脸效果极差;
2)在进行人脸轮廓调整时,先调整通用3D人脸模型上与人脸特征点对应的顶点,然后调整其他非对应的顶点,其计算处理过程复杂、耗时长。
发明内容
本发明提供一种3D虚拟形象的生成方法和装置。在根据2D图像调整3D模型的特征部分时,可以一步实现对3D模型上一系列点的调整,简化了模型重建步骤,提高了效率。
本发明第一方面提供一种3D虚拟形象的生成方法,所述方法包括:
获取2D图像,所述2D图像包含图像元素,确定所述2D图像的特征点,所述特征点的集合用于反映所述图像元素的轮廓;
根据所述特征点获取3D模型,所述3D模型具有与所述2D图像的图像元素相应的特征部分,所述特征部分包括控制点和与所述控制点关联的随动点,所述控制点与所述特征点一一对应;
根据所述特征点调整所述3D模型的特征部分的控制点,并根据预设的控制策略控制所述随动点跟随所述控制点的变化而变化,以重建3D模型的特征部分;
将所述2D图像的纹理映射到重建的所述3D模型的特征部分上,得到与所述2D图像对应的3D虚拟形象。
本发明第二方面提供一种3D虚拟形象的生成装置,所述装置包括:
图像获取单元,用于获取2D图像,所述2D图像包含图像元素;
特征点确定单元,用于确定所述2D图像的特征点,所述特征点的集合用于反映所述图像元素的轮廓;
模型获取单元,用于根据所述特征点获取3D模型,所述3D模型具有与所述2D图像的图像元素相应的特征部分,所述特征部分包括控制点和与所述控制点关联的随动点,所述控制点与所述特征点一一对应;
重建单元,用于根据所述特征点调整所述3D模型的特征部分的控制点,并根据预设的控制策略控制所述随动点跟随所述控制点的变化而变化,以重建3D模型的特征部分;
纹理映射单元,用于将所述2D图像的纹理映射到重建的所述3D模型的特征部分上,得到与所述2D图像对应的3D虚拟形象。
实施本发明方案,具有如下有益效果:
在3D模型的特征部分预置控制点和随动点,当调整控制点位置时,随动点跟随控制点的变化而变化,实现了一次调整带动一系列相关点变化,简化调整模型的程序,极大的提高了重建3D模型特征部分的效率;并且,通过随动点跟随控制点变化的方式调整模型,可以确保模型表面的平滑度,进而使渲染得到的3D虚拟形象形象生动。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案和优点,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它附图。
图1是可用于实施本发明实施例的3D虚拟形象的重建方法的计算机终端的硬件结构框图;
图2是本发明实施例揭示的3D虚拟形象的重建方法的流程图;
图3是本发明实施例揭示的对2D图像进行人脸特征点识别得到的识别结果的示意图;
图4是本发明实施例揭示的确定2D图像的特征点的方法的流程图;
图5是本发明实施例揭示的矫正特征点的方法的流程图;
图6是本发明实施例揭示的基于目标特征点调整3D模型的控制点的方法的流程图;
图7是本发明实施例揭示的计算3D模型的控制点的第一位移量的方法的流程图;
图8是本发明实施例揭示的3D虚拟形象的生成装置的结构示意图;
图9是本发明实施例揭示的特征点确定单元的结构示意图;
图10是本发明实施例揭示的重建单元的结构示意图;
图11是本发明实施例揭示的控制子单元的结构示意图;
图12是本发明实施例揭示的纹理映射单元的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
本申请实施例提供的3D虚拟形象的生成方法基于服务器,该服务器可以是移动终端、计算机终端或者类似的运算装置。在介绍本申请的3D虚拟形象的生成方法之前,首先以计算机终端为例介绍服务器的硬件结构,图1是可用于实施本发明实施例的3D虚拟形象的生成方法的计算机终端的硬件结构框图。如图1所示,计算机终端100可以包括一个或多个(图中仅示出一个)处理器102(处理器102可以包括但不限于微处理器MCU或可编程逻辑器件FPGA等的处理装置)、用于存储数据的存储器104、以及用于通信功能的传输装置106。本领域普通技术人员可以理解,图1所示的结构仅为示意,其并不对上述电子装置的结构造成限定。例如,计算机终端100还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。
存储器104可用于存储应用软件的软件程序以及模块,如本发明实施例中的3D虚拟形象的生成方法对应的程序指令/模块,处理器102通过运行存储在存储器104内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的3D虚拟形象的生成。存储器104可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器104可进一步包括相对于处理器102远程设置的存储器,这些远程存储器可以通过网络连接至计算机终端100。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
传输装置106用于经由一个网络接收或者发送数据。上述的网络具体实例可包括计算机终端100的通信供应商提供的无线网络。在一个实例中,传输装置106包括一个网络适配器(Network Interface Controller,简称为NIC),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,传输装置106可以为射频(Radio Frequency,简称为RF)模块,其用于通过无线方式与互联网进行通讯。
在上述运行环境下,本实施例提供了如图2所示的3D虚拟形象的生成方法。该方法可以应用于智能终端设备中,由智能终端设备中的处理器执行,智能终端设备可以是智能手机、平板电脑等。智能终端设备中安装有至少一个应用程序,本发明实施例并不限定应用程序的种类,可以为系统类应用程序,也可以为软件类应用程序。
图2是本发明实施例揭示的3D虚拟形象的生成方法的流程图。如图2所示,该方法的一种可选的方案包括如下步骤:
步骤S201:获取2D图像,所述2D图像包含图像元素。
对于获取的2D图像,其可以是本地存储的,也可以是从网络上下载的,对于图像的格式本实施例不进行限定,其可以是JPEG格式、BMP格式等等。本申请中获取的2D图像需包含图像元素,图像元素可以是人脸、全身人像、动物面部、动物全身等。2D图像可以不以正面视图来展示图像元素,允许偏离正面一定角度。对于2D图像中的图像元素为人脸来说,2D图像可以不是人脸正面图像,可以是偏离正面一定角度的人脸图像;较优的,2D图像中的人脸不能够偏离正面角度过大,以控制在能够看到人脸上的两个眼睛的角度最好。
在可选实施例中,可以通过摄像模块拍摄获取得到2D图像,进而实时的对拍摄获得到的图像进行图像元素的识别。
步骤S202:确定所述2D图像的特征点,所述特征点的集合用于反映所述图像元素的轮廓。
确定所述2D图像的特征点包括:
S2021,提取2D图像的图像特征点。
对于2D图像,可以使用FCD(Fast Corner Detector,快速角点检测)完成图像特征点的提取,并利用SIFT(Scale-invariant feature transform,尺度不变特征转换)算法直接在灰度空间上生成相应特征点的SIFT描述符。其中,SIFT特征是一种电脑视觉的算法,用来侦测与描述图像中的局部性特征,它在空间尺度中寻找极值点,并提取出其位置、尺度、旋转不变量,此算法由David Lowe在1999年所发表,2004年完善总结。
S2022,根据图像特征点确定2D图像的图像元素。
图像特征点的集合可以反映图像元素的轮廓,根据图像特征点可以判别2D图像中包含哪一种图像元素。当然,2D图像中可能包含多种图像元素,这种情况下,可以将在2D图像中占比最大的一种图像元素作为2D图像的图像元素。
S2023,依据所述2D图像中图像元素和预先设定的特征点列表对所述图像特征点进行筛选,获得2D图像的特征点。
本实施例预先针对各个图像元素设置了特征点列表,特征点列表记录了图像元素、图像元素的关键特征点以及各关键特征点与预先设置的3D模型的控制点的对应关系,该3D模型包含了与图像元素相应的特征部分,该控制点为特征部分的控制点。举例来说,图像元素为人脸,3D模型的特征部分为人脸模型,特征点列表可以记录图像元素的名称、图像元素的关键特征点以及与关键特征点对应的控制点。
具体的,对所述图像特征点进行筛选,获得2D图像的特征点的步骤可以包括:从特征点列表中查找所述2D图像的图像元素对应的关键特征点,将关键特征点与所述2D图像的图像特征点进行匹配,将与关键特征点匹配成功的图像特征点作为2D图像的特征点,并保存关键特征点与所述特征点的对应关系。由于关键特征点分别与2D图像的特征点和3D模型的控制点对应,因此2D图像的特征点和3D模型的控制点之间相互对应。
以2D图像为人脸图像为例,先提取2D图像的图像特征点,根据图像特征点识别人脸元素,然后根据人脸元素和特征点列表确定2D图像的特征点。2D图像的特征点可以是预先设定好的人脸上的点,一般性的为多个特征点。这些特征点的集合用于表征人脸轮廓,人脸中的眉部、眼睛、鼻子、嘴巴、下巴以及两侧脸颊能够较好地刻画一张脸,因此可以将这些位置上的某几个点作为特征点。所述2D人脸图像的特征点可以包括眼睛特征点、鼻子特征点、嘴唇特征点、眉部特征点以及脸部边缘特征点中的任一种或多种。可选的,人脸图像中的特征点的个数可以为预设的数量,例如总共88个、99个、155个等,特征点的数量与预设的3D人物模型的人脸部分的控制点的数量相关。较优的,人脸图像中的特征点个数与3D人物模的控制点的个数相同,即:若预设的3D人物模型的人脸部分的控制点总共为88个,则人脸图像中的特征点的个数总共也为88个。具体的,特征点的数量越多则重建的3D人脸与人脸图像的相似度越高。
示例性的,可以得到如图3所示的人脸特征点识别结果。需要指出的是,图3仅为示例,在可选实施例中可以在以上人脸特征点中仅识别部分或更多的特征点,或采用其他方式标记各个特征点,均属于本发明实施例的范畴。
步骤S203:根据所述特征点获取3D模型,所述3D模型具有与所述2D图像的图像元素相应的特征部分,所述特征部分包括控制点和与所述控制点关联的随动点,所述控制点与所述特征点一一对应。
2D图像的特征点集合可以反映图像元素的轮廓,根据该图像元素的轮廓可以确定2D图像的图像元素,进而可以在三维模型库中找到包含同类元素的3D模型。例如,若2D图像的图像元素是人脸,则对应的3D模型可以是人脸模型、包括人脸的半身模型或者是全身模型;若2D图像的图像元素是斗牛犬,则对应的3D模型可以是斗牛犬的全身模型。
可选地,预先建立三维模型库,用于存储3D模型。其中,三维模型库中的3D模型是根据不同的元素类别创建的,3D模型可以是模仿真实的人或动物的模型,也可以是一些虚拟的卡通人物或动物模型,这些模型在建模过程中预留了用于调整特定部位的控制单元,控制单元包括控制点和与控制点关联的随动点,所述控制点与所述2D模型上的特征点存在一一对应关系。
以3D人物模型为例,3D人物模型是设计人员根据不同的人脸脸型预先创建出来的高矮胖瘦大小不一的模型,3D人物模型的人脸部分处预留了可以通过程序进行位置控制的控制单元,例如,眼睛部分预留了眼角控制单元、上眼睑控制单元、下眼睑控制单元、眼珠控制单元等。每个控制单元包括控制点和与控制点关联的随动点,控制单元还预置了随动点的控制策略,当控制点调整时,随动点可以根据控制策略与控制点关联动作。作为可选地实施方式,每个控制单元对应一个控制点和多个随动点,以实现一个点带动多个点动作,获得较佳的控制效果。此外,为了提高3D人物模型的通用性,优选地,可以统一每个3D人物模型的控制点数量和位置分布。例如,每个人物模型的人脸轮廓用88个控制点来表示,其中,左眉毛分布8个控制点,右眉毛分布8个控制点,左眼睛分布8个控制点,右眼睛分布8个控制点,鼻子分布13个控制点,嘴巴分布22个控制点,下巴分布5个控制点,左侧脸颊分布8个控制点,右侧脸颊分布8个控制点。控制点的数量可以增减,只要能够勾勒出人脸轮廓,当然,使用较多的控制点能够勾勒出更精细的人脸轮廓。
可选地,根据2D图形的特征点获取3D模型的方法可以是从三维模型库中调取具有与所述2D图像的图像元素相应的特征部分的3D模型,其中,可以根据预设的特征元素判断模板分析并确定所述2D图像的特征元素。作为一种可选的实施方式,预设的特征元素判断模板为现有技术中通过对训练图像样本进行预处理(例如光照补齐、旋转矫正等),提取Gabor特征,训练图像样本信息由二维矩阵转变成一维向量,对训练图像样本的特征向量进行特征降维,以降低复杂度,输入SVM(Support Vector Machine,支持向量机,一种可训练的机器学习方法)分类器进行训练与识别,得到的特征元素判断模板,本实施例中,导入2D图像进行识别,根据预设的特征元素判断模板识别到2D图像的图像元素。
步骤S204:根据所述特征点调整所述3D模型的特征部分的控制点,并根据预设的控制策略控制所述随动点跟随所述控制点的变化而变化,以重建3D模型的特征部分。
作为一种可选的实施方式,根据特征点的位置以及特征点与3D模型的控制点的对应关系,调整3D模型的控制点,使得3D模型上各个控制点之间的位置关系与2D图像上各特征点之间的位置关系一致;在改变控制点位置的同时,与该控制点关联的随动点还根据预设的控制策略与该控制点一起进行位置调整,从而实现多个随动点与控制点联动的效果;与现有技术中逐个调整3D模型上与特征点对应的点和非对应点相比,这种方式极大的简化了计算过程,还能确保调整后的3D模型表面过渡平滑。
作为另一种可选的实施方式,根据所述特征点调整所述3D模型的特征部分的控制点,并根据预设的控制策略控制所述随动点跟随所述控制点的变化而变化,以重建3D模型的特征部分,可以包括:
S2041,矫正所述特征点,得到用于3D模型特征部分重建的目标特征点;
S2042,基于所述目标特征点调整所述3D模型的特征部分的控制点,并根据预设的控制策略控制所述随动点跟随所述控制点的变化而变化,以重建3D模型的特征部分。
如果2D图像中图像元素角度有偏转,则根据2D图像的特征点不能表征图像元素的正面轮廓,若直接根据这些特征点进行3D模型上特征部分的重建,可能会出现重建的特征部分比例错误、失真,不能获得较好的效果;因此,需要对2D图像的特征点进行矫正,得到图像元素正面情况下的特征点,将矫正后的特征点作为用于3D重建的目标特征点,以提高重建的特征部分与2D图像的图像元素的相似度,确保获得较好的重建效果。步骤S2041仅调整特征点的位置,不改变特征点与控制点之间的对应关系。由于特征点与控制点对应,目标特征点与特征点对应,因此,目标特征点与控制点也存在一一映射关系。
进一步地,根据目标特征点的位置以及目标特征点与3D模型的控制点的对应关系,调整3D模型的控制点,使得3D模型上各个控制点之间的位置关系与目标特征点之间的位置关系一致;在改变控制点位置的同时,与该控制点关联的随动点还根据预设的控制策略与该控制点一起进行位置调整,从而实现多个随动点与控制点联动的效果;与现有技术中逐个调整3D模型上与2D图像特征点对应的点和非对应点相比,这种方式不仅简化了计算过程,还可以确保调整后的3D模型表面过渡平滑。此外,将从2D图像的特征点进行矫正,还原图像元素再正面情况下的特征点位置,再根据矫正后的特征点来重建3D模型的特征部分,从而不必限定图像元素的拍摄角度。例如,即使2D图像中人脸(图像元素)角度有偏转,也能确保3D模型人脸部分的重建效果。
步骤S205:将所述2D图像的纹理映射到重建的所述3D模型的特征部分上,得到与所述2D图像对应的3D虚拟形象。
3D模型的特征部分主要由几何结构信息和纹理信息两部分构成,当模型的特征部分重建完成后,也就得到了特征部分的几何结构信息,再通过纹理映射技术将所述2D图像的纹理映射到所述完成重建的特征部分上,即将3D模型特征部分的纹理替换为2D图像的图像元素的纹理,渲染得到3D虚拟形象。对于最终得到的3D虚拟形象,可以通过显示屏进行显示。
在纹理映射之前,还可以将图像元素的纹理和3D模型特征部分的纹理的亮度及色彩调整为一致,以提升渲染得到的3D虚拟形象的逼真效果,并保持3D模型的特征部分的颜色与其他区域的颜色协调。
上述的3D虚拟形象的生成方法,在3D模型的特征部分预置控制点和随动点,当调整控制点位置时,随动点跟随控制点的变化而变化,实现了一次调整带动一系列相关点变化,简化调整模型的程序,极大的提高了3D模型特征部分的重建效率;并且,通过随动点跟随控制点变化的方式调整模型,可以确保模型表面的平滑度,实现较好的模型重建效果。
如图4所示,在另一个实施例中,步骤S202可以包括以下步骤:
步骤S401,计算2D图像的所有局部二值特征。
步骤S402,采用预先训练的特征点分类器对所述局部二值特征进行判别。
具体的,所述分类器为随机森林分类器,通过以下方法训练得到:
获取多个训练样本,所有训练样本具有相同的样本元素,每个所述训练样本包含标定的样本特征点,所述样本特征点与3D模型的控制点一一映射,所述3D模型具有与所述样本元素相应的特征部分;计算所有样本特征点的局部二值特征;根据每个样本特征点的局部二值特征建立分类器;根据多个所述训练样本对所述分类器进行训练,得到特征点分类器。
步骤S403,根据判别结果确定所述2D图像的特征点。
本实施例采用随机森林的方式进行2D图像的图像特征点的检测。除了本实施例公开的方式之外,还可以采用主动形状模型ASM(Active Shape Model)、主动表观模型AAM(Active Appearance Model)、级联回归等算法进行特征点的检测标记。
针对不同的图像元素训练对应的特征点分类器,然后使用分类器对输入的2D图像进行特征点识别,可以得到2D图像的特征点以及这些特征点与3D模型的控制点之间的对应关系。
如图5所示,在一个实施例中,步骤S2041可以包括以下步骤:
S501,根据所述特征点的位置信息计算所述2D图像中图像元素的偏转角度;
S502,根据所述偏转角度矫正所述特征点,得到所述图像元素在偏转角度为0时的特征点,并将所述图像元素在偏转角度为0时的特征点作为用于3D模型特征部分重建的目标特征点。
示例性的,当2D图像中的图像元素为人脸时,可以通过以下方法计算得到2D图像中人脸偏转的角度。具体步骤包括:
(11)建立人脸的标准三维模型,标记确定2D图像中的特征点对应到标准三维模型中的点位置,记为pi。其中,标准三维模型的建立方法,可以自主采集大量人群的人脸三维信息,建立一个基于采样样本的“平均脸”三维模型,也可以直接使用人脸三维模型库已经采集好的数据。
(12)标记2D图像中特征点的二维位置,记为qi。
(13)通过三维投影到二维的投影公式,建立最小化误差模型:
其中,(α,β,γ)代表人脸姿态三个旋转角度(分别是沿x、y、z轴的旋转角度),N代表着所述2D人脸图像上标定特征点的个数,qi代表着待测试的特征点,pi代表与qi对应着的标准三维模型的特征点,R代表旋转矩阵,t为空间偏移向量,c为伸缩因子。R的具体形式是如下三个矩阵相乘:
即我们希望能求解出公式中的变量R,t,C,让对应标准三维模型中的特征点pi通过平移(t)、旋转(R)、缩放(C)后投影到二维平面的点与实际测量到的特征点qi之间的误差距离最小。
(14)通过梯度下降、牛顿法等方式求解这个利用非线性最小二乘法建立的方程组,得到在我们检测到的pi以及标准模型对应的qi参数下,最满足方程组的解R,t,C,再通过分解R(按Rx,Ry,Rz的矩阵)得到具体旋转角(α,β,γ)。
进一步地,根据人脸偏转的角度矫正特征点,即利用偏转角度将人脸对应部位的特征点几何变换到偏转角度为0的“正脸模型”,可以采用基于3D人脸重建的方法(即3D法)实现。具体包括如下步骤:
(21)通过上述(11)-(14)的求解,得到了pi和qi之间映射关系的最优解R,t,C,以及人脸旋转角(α,β,γ);
(22)对于每个检测到的二维特征点qi,通过三维投影到二维的投影公式求解它在实际三维空间中对应的真实点ppi,可以得出:
qi=C(R ppi+t)
反算出ppi=RrCr(qi-t)
其中Rr,Cr分别表示矩阵R,C的逆矩阵;
(23)在ppi的三维空间中,我们对每个三维特征点ppi进行反向旋转角度(-α,-β,-γ),即将每个三维特征点由角度(α,β,γ)旋转回(0,0,0)的正脸角度,得到正脸角度下的三维特征点pppi;
(24)将正脸角度下的三维特征点pppi投影回二维平面,得到对应的二维特征点qqqi,即得到了“正脸模型”下的人脸二维特征点。
应当注意的是,计算人脸偏转角度的方法较多,以上仅为一个示例性方法,本实施例的主要思想在于通过计算人脸偏转角度来矫正特征点,得到正面人脸的特征点,只要包含这种技术思路,即使采用其他方法来实现特征点矫正,仍然属于本发明实施例的范畴。
如图6所示,在一个实施例中,步骤S204可以包括以下步骤:
S601,参考所述目标特征点之间的位置关系,计算所述3D模型的控制点的第一位移量。
具体的,目标特征点之间的位置关系可以根据目标特征点的位置坐标来确定,目标特征点之间的位置关系包括目标特征点之间的距离和方位。第一位移量是将3D模型的控制点之间的位置关系调整为与目标特征点之间的位置关系一致情况下控制点需要移动的位移量,第一位移量包括位移长度和方向。
S602,获取与所述控制点关联的随动点的控制策略。
具体的,随动点的控制策略是预先制定的,控制策略用于明确在控制点位置发生改变时,与控制点关联的各个随动点应该做何种适应性调整,以确保不会因为控制点的位置调整导致模型表面不平滑。随动点的控制策略可以约束随动点的位移量,该位移量包括位移长度和方向。示例性的,与控制点A关联的一个随动点a1的控制策略可以是:a1跟随A移动,a1的位移长度为A的1/2,a1的位移方向与A相同。
作为一种优选的实施方式,控制策略可以通过如下方法确定:
(1)获取3D模型,所述3D模型包含特征部分,3D模型的特征部分预置有多个控制单元,每个控制单元包括一个控制点和与该控制点关联的多个随动点。
(2)根据3D模型从预设的模型库中获取多个样本模型,所述样本模型与3D模型包含相同的特征部分,例如3D模型和样本模型都具有人脸部分;每个样本模型具有多个顶点,且每个样本模型上都有与3D模型的控制点及随动点一一对应的顶点,当然,样本模型上的顶点数目可以远大于3D模型的控制点和随动点数目。
(3)为每个控制单元的控制点设定调整参数,调整参数与特征部分的动作相对应,例如,调整参数F对应特征部分的动作为微笑,调整参数G对应特征部分的动作为哭泣,调整参数H对应特征部分的动作为惊讶。同一个控制单元的同一个控制点可以具有多个调整参数,每个调整参数对应的随动点的控制策略可能各不相同,但随动点的控制策略的确定方法相同,具体可以通过如下的步骤(31)-(32)来确定当一个控制点按照一个预设的调整参数进行调整时,与控制点关联的任意一个随动点的控制策略。
(31)按照控制点的调整参数手动调整每个样本模型上与该控制点对应的顶点,并对该顶点附近的其他顶点进行手动调整,以确保调整后的样本模型表面平滑,且与调整参数对应的特征部分的动作相同或近似;
(32)根据随动点与样本模型上顶点的对应关系,确定每个样本模型上与随动点对应的顶点在样本模型调整前后的位移(包括位移量和方向),再根据所有与该随动点对应的顶点的位移求取位移平均值,将该位移平均值作为该随动点的控制策略。
按照上述步骤可以计算得到当控制点按照设定的调整参数移动后,与控制点关联的每个随动点的控制策略,可以将控制点的调整参数与随动点的控制策略进行对应存储,后续调整3D模型特征部分时,如果控制点按照预设的调整参数进行调整,与控制点关联的随动点可以按照各自对应的控制策略进行自动调整。从而不必像现有技术中那样对模型的顶点逐个进行调整,简化了调整模型的程序。
S603,根据所述控制策略和所述第一位移量,计算所述随动点的第二位移量。
S604,按照所述第一位移量调整所述控制点,以使所述控制点之间的位置关系与所述目标特征点之间的位置关系一致,并按照所述第二位移量调整与所述控制点关联的随动点,以重建3D模型的特征部分。
具体的,控制点和与控制点关联的随动点被包装为一个控制单元,通过修改控制点的位置参数,即可同时改变控制点和关联随动点的位置。
如图7所示,在一个实施例中,步骤S601包括如下步骤:
S701,确定目标特征点与控制点之间的映射关系。
具体的,目标特征点、特征点和控制点之间一一对应,目标特征点与控制点的映射关系即为与目标特征点对应的特征点与控制点之间的映射关系。
S702,根据所述目标特征点与控制点之间的映射关系计算形变系数。
鉴于2D图像中图像元素的大小与3D模型的特征部分的大小可能不一致,在进行模型调整之前,需要确定使二者大小保持一致或相近的形变系数。
在一个实施例中,计算形变系数的步骤可以包括:选取两个目标特征点,将两个目标特征点之间的距离作为第一参考长度;根据所述目标特征点与控制点之间的映射关系,查找得到与两个目标特征点对应的两个控制点,将与两个目标特征点对应的两个控制点之间的距离作为第二参考长度;计算所述第一参考长度与所述第二参考长度的比值,得到形变系数。
示例性的,以2D图像中图像元素为人脸,3D模型特征部分为人脸模型为例,可以选取2D图像中处于人脸的两眼位置的目标特征点m1和m2,将m1和m2之间的距离作为第一参考长度Lm1m2;找到3D模型上分别与m1和m2对应的控制点n1和n2,将n1和n2之间的距离作为第二参考长度Ln1n2,计算Lm1m2和Ln1n2的比值,获得形变系数。
S703,选取一个目标特征点作为第一参考点,并将与所述第一参考点对应的控制点作为第二参考点。
S704,确定所述目标特征点与所述第一参考点之间的第一位置关系以及所述目标特征点对应的控制点与所述第二参考点之间的第二位置关系。
具体的,第一位置关系包括目标特征点与第一参考点之间的距离以及方位信息,第二位置关系包括控制点与第二参考点之间的距离以及方位信息。
S705,根据所述第一位置关系、所述第二位置关系和所述形变系数,计算所述控制点的目标位置。
具体的,根据第一位置关系中的距离信息、第二位置关系中的距离信息以及形变系数,计算得到控制点目标位置与第二参考点之间的距离L,根据第一位置关系中的方位信息、第二位置关系中的方位信息和距离L确定控制点的目标位置。
S706,基于所述控制点的目标位置和当前位置确定所述控制点的第一位移量。
在一个实施例中,步骤S205包括如下步骤:
S1,将2D图像的特征点进行三角剖分,得到2D图像的三角面片;
S2,将3D模型的控制点进行三角剖分,得到3D模型的三角面片;
S3,根据所述特征点与所述控制点之间的映射关系,建立所述2D图像的三角面片与所述3D模型的三角面片之间的对应关系;
S4,参照建立的对应关系,将2D图像的三角面片中的纹理映射到对应的3D模型的三角面片。
具体的,将2D图像的三角面片中的纹理映射到对应的3D模型的三角面片,可以包括:
S41,根据3D模型的三角面片的纹理对对应的2D图像的三角面片的纹理进行自适应亮度调整。
具体的,自适应亮度调整方法可以包括:分别计算2D图像纹理数据和对应的3D模型纹理数据的平均亮度,将3D模型纹理数据的平均亮度减去2D图像纹理数据的平均亮度得到亮度差值,然后按照亮度差值对2D图像纹理每个像素点进行亮度提升,以使2D图像纹理的亮度与3D模型纹理的亮度一致。
S42,根据2D图像的三角面片的纹理对对应的3D模型的三角面片的纹理进行颜色调整。
具体的,颜色调整可以包括:分别计算2D图像纹理数据和对应的3D模型纹理数据的平均颜色,将2D图像纹理数据的平均颜色减去3D模型纹理数据的平均颜色得到颜色差值,然后按照颜色差值提升3D模型纹理的像素颜色,以使3D模型纹理的颜色与2D图像纹理的颜色一致。其中,可以通过叠加每个像素的RGB值,并除以像素个数,来得到平均颜色。
S43,将调整后的2D图像的三角面片的纹理与调整后的3D模型的三角面片的纹理进行alpha半透明融合。
本实施例中,在做半透明融合之前需要对2D纹理数据和3D模型数据的亮度、色彩进行一致性调整,可以提升3D虚拟形象的逼真效果,并保持3D模型的特征部分的颜色与其他区域的颜色协调。如果没有这步处理,仅采用半透明alpha融合,则渲染出的虚拟形象中特征部分的颜色与其他区域的颜色会明显不一致。
以2D图像中图像元素为人脸,3D模型特征部分为人脸模型为例,若要将2D图形中的纹理映射到3D模型的特征部分,可以采用如下方法实现。包括:
1.对于检测到的2D图像的特征点集{x1,y1}和3D模型对应三维点{x2,y2,z2},通过最小二乘法建立{x1,y1}到{x2,y2,z2}的映射关系M,使得针对输入的每个{x2,y2,z2},通过M映射到二维平面的坐标点{x3,y3},与实际特征点{x1,y1}的距离最小。这一步可以建立起2D图像中每个坐标点到3D模型每个三维点的映射关系。
2.获取3D模型每个三维点{x2,y2,z2}与纹理点{u1,v1}的映射关系N,映射关系N在建模时已被记录于模型文件中,通过读取模型文件即可获得映射关系。
3.遍历3D模型的每个三角形面片,包括:
(1)针对三角形的三个顶点v1、v2、v3,通过映射关系M计算出对应的2D图像的像素点位置f1、f2、f3;
(2)针对三角形的三个顶点v1、v2、v3,通过映射关系N计算出对应的纹理像素点位置t1、t2、t3;
(3)确定2D图像的像素点位置与纹理像素点位置的对应关系,通过(1)-(2),即得到纹理像素点位置t1的颜色即为2D图像的像素点f1的颜色,同理得到t2对应f2,t3对应f3;
(4)对t1、t2、t3构成的三角形内部所有像素点进行线性插值,得到t1、t2、t3构成的三角形每个像素点,将2D图像上对应位置的像素颜色映射到3D模型。
4.通过步骤3的遍历,即可根据2D图像生成3D模型的纹理。
需要说明的是,除了以上的纹理映射方法之外,还可以采用保相似的网格参数化方法进行纹理映射。保相似的网格参数化方法从三角形表示的边角关系出发,利用相邻边长比值及夹角相等则三角形相似这一判定定理,在平面上构建与三维网格上对应的邻边的长度比值和夹角来建立全局的线性方程组,求解该方程组得到参数化后的二维平面网格,进而得到模型上顶点与二维平面各三角形顶点之间的映射关系。该方法计算简单快速,参数化后的三角形扭曲较小,可以产生较好的纹理映射效果。
本申请提供的3D虚拟形象生成方法可用于三维虚拟社交、三维形象模拟等需要展现三维虚拟形象的应用中,在这些场景下,用户可以通过单张包含图像元素的图像或视频流(图像或视频流可以通过手机即时拍摄、录制或从已有的资源中选择),通过本申请的方法将3D模型的特征部分调整为与原图像/视频中的图像元素近似,并进行纹理映射,进而根据模型数据和纹理数据渲染得到3D虚拟形象,并在客户端界面上进行展示,此外,还可以通过预先设计的模型的预置动作,控制3D虚拟形象做一些动作,从而与用户进行互动。
下面对本申请实施例提供的3D虚拟形象的生成装置进行描述,下文描述的3D虚拟形象的生成装置与上文描述的3D虚拟形象的生成方法可相互对应参照。本申请提供的3D虚拟形象的生成装置可以应用于图1所示的服务器,也可以通过终端实现。
参见图8,图8是本发明实施例揭示的3D虚拟形象的生成装置的结构示意图。
如图8所示,所述3D虚拟形象的生成装置80包括:
图像获取单元81,用于获取2D图像,所述2D图像包含图像元素;
特征点确定单元82,用于确定所述2D图像的特征点,所述特征点的集合用于反映所述图像元素的轮廓;
模型获取单元83,用于根据所述特征点获取3D模型,所述3D模型具有与所述2D图像的图像元素相应的特征部分,所述特征部分包括控制点和与所述控制点关联的随动点,所述控制点与所述特征点一一对应;
重建单元84,用于根据所述特征点调整所述3D模型的特征部分的控制点,并根据预设的控制策略控制所述随动点跟随所述控制点的变化而变化,以重建3D模型的特征部分;
纹理映射单元85,用于将所述2D图像的纹理映射到重建的所述3D模型的特征部分上,得到与所述2D图像对应的3D虚拟形象。
可选的,本申请实施例还公开了上述特征点确定单元82的一种可选结构,如图9所示,特征点确定单元82可以包括:
特征计算子单元821,用于计算2D图像的所有局部二值特征;
判别子单元822,用于采用预先训练的特征点分类器对所述局部二值特征进行判别;
特征点确定子单元823,用于根据判别结果确定所述2D图像的特征点。
其中,所述分类器通过以下方法训练得到:获取多个训练样本,所有训练样本具有相同的样本元素,每个所述训练样本包含标定的样本特征点,所述样本特征点与3D模型的控制点一一映射,所述3D模型具有与所述样本元素相应的特征部分;计算所有样本特征点的局部二值特征;根据每个样本特征点的局部二值特征建立分类器;根据多个所述训练样本对所述分类器进行训练,得到特征点分类器。
可选的,本申请实施例还公开了上述重建单元84的一种可选结构,如图10所示,重建单元84可以包括:
目标特征点确定子单元841,用于矫正所述特征点,得到用于3D模型特征部分重建的目标特征点;
控制子单元842,用于基于所述目标特征点调整所述3D模型的特征部分的控制点,并根据预设的控制策略控制所述随动点跟随所述控制点的变化而变化,以重建3D模型的特征部分
所述目标特征点确定子单元841包括:
偏转角度计算模块8411,用于根据所述特征点的位置信息计算所述2D图像中图像元素的偏转角度;
目标特征点确定模块8412,用于根据所述偏转角度矫正所述特征点,得到所述图像元素在偏转角度为0时的特征点,并将所述图像元素在偏转角度为0时的特征点作为用于3D模型特征部分重建的目标特征点。
可选的,本申请实施例还公开了上述控制子单元842的一种可选结构,如图11所示,控制子单元842可以包括:
第一位移量计算模块8421,用于参考所述目标特征点之间的位置关系,计算所述3D模型的控制点的第一位移量;
控制策略获取模块8422,用于获取与所述控制点关联的随动点的控制策略;
第二位移量计算模块8423,用于根据所述控制策略和所述第一位移量,计算所述随动点的第二位移量;
调整模块8424,用于按照所述第一位移量调整所述控制点,以使所述控制点之间的位置关系与所述目标特征点之间的位置关系一致,并按照所述第二位移量调整与所述控制点关联的随动点,以重建3D模型的特征部分。
优选地,所述第一位移量计算模块8421包括:
映射关系确定子模块84211,用于确定目标特征点与控制点之间的映射关系;
形变系数计算子模块84212,用于根据所述目标特征点与控制点之间的映射关系计算形变系数;
参考点确定子模块84213,用于选取一个目标特征点作为第一参考点,并将与所述第一参考点对应的控制点作为第二参考点;
位置关系确定子模块84214,用于确定所述目标特征点与所述第一参考点之间的第一位置关系以及所述目标特征点对应的控制点与所述第二参考点之间的第二位置关系;
目标位置计算子模块84215,用于根据所述第一位置关系、所述第二位置关系和所述形变系数,计算所述控制点的目标位置;
位移量计算子模块84216,用于基于所述控制点的目标位置和当前位置确定所述控制点的第一位移量。
优选地,所述形变系数计算子模块84212包括:
第一参考长度确定子模块,用于选取两个目标特征点,将两个目标特征点之间的距离作为第一参考长度;
第二参考长度确定子模块,用于根据所述目标特征点与控制点之间的映射关系,查找得到与两个目标特征点对应的两个控制点,将与两个目标特征点对应的两个控制点之间的距离作为第二参考长度;
形变系数计算子模块,用于计算所述第一参考长度与所述第二参考长度的比值,得到形变系数。
可选的,本申请实施例还公开了上述纹理映射单元85的一种可选结构,如图12所示,纹理映射单元85可以包括:
第一剖分子单元851,用于将2D图像的特征点进行三角剖分,得到2D图像的三角面片;
第二剖分子单元852,用于将3D模型的控制点进行三角剖分,得到3D模型的三角面片;
关系建立子单元853,用于根据所述特征点与所述控制点之间的映射关系,建立所述2D图像的三角面片与所述3D模型的三角面片之间的对应关系;
纹理映射子单元854,用于参照建立的对应关系,将2D图像的三角面片中的纹理映射到对应的3D模型的三角面片。
优选地,所述纹理映射子单元854包括:
亮度调整模块,用于根据3D模型的三角面片的纹理对对应的2D图像的三角面片的纹理进行亮度调整;
颜色调整模块,用于根据2D图像的三角面片的纹理对对应的3D模型的三角面片的纹理进行颜色调整;
纹理融合模块,用于将调整后的2D图像的三角面片的纹理与调整后的3D模型的三角面片的纹理进行半透明融合。
本实施例提供的3D虚拟形象生成装置,在3D模型的特征部分预置控制点和随动点,当调整控制点位置时,随动点跟随控制点的变化而变化,实现了一次调整带动一系列相关点变化,简化调整模型的程序,极大的提高了3D模型特征部分的重建效率;并且,通过随动点跟随控制点变化的方式调整模型,可以确保模型表面的平滑度,使渲染得到的3D虚拟形象逼真。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,该计算机程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only目标特征点Memory,ROM)等非易失性存储介质,或随机存储记忆体(Random目标特征点Access目标特征点Memory,RAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (11)
1.一种3D虚拟形象的生成方法,其特征在于,所述方法包括:
获取2D图像,所述2D图像包含图像元素,确定所述2D图像的特征点,所述特征点的集合用于反映所述图像元素的轮廓;所述特征点包括眼睛特征点、鼻子特征点、嘴唇特征点、眉部特征点以及脸部边缘特征点;
根据所述特征点获取3D模型,所述3D模型具有与所述2D图像的图像元素相应的特征部分,所述特征部分包括控制点和与所述控制点关联的随动点,所述控制点与所述特征点一一对应;
根据所述特征点调整所述3D模型的特征部分的控制点,并根据预设的控制策略控制所述随动点跟随所述控制点的变化而变化,以重建3D模型的特征部分;
将所述2D图像的纹理映射到重建的所述3D模型的特征部分上,得到与所述2D图像对应的3D虚拟形象;
其中,所述控制策略通过如下方法确定:
获取所述3D模型,所述3D模型的所述特征部分预置有多个控制单元,每个控制单元包括一个控制点和与该控制点关联的多个随动点;
为所述每个控制单元的控制点设定调整参数,所述调整参数与所述特征部分的动作相对应;
计算得到当控制点按照设定的调整参数移动后,与控制点关联的每个随动点的控制策略;
所述根据所述特征点调整所述3D模型的特征部分的控制点,并根据预设的控制策略控制所述随动点跟随所述控制点的变化而变化,以重建3D模型的特征部分,包括:
矫正所述特征点,得到用于3D模型特征部分重建的目标特征点;包括:根据所述特征点的位置信息计算所述2D图像中图像元素的偏转角度;根据所述偏转角度矫正所述特征点,得到所述图像元素在偏转角度为0时的特征点,并将所述图像元素在偏转角度为0时的特征点作为用于3D模型特征部分重建的目标特征点;
基于所述目标特征点调整所述3D模型的特征部分的控制点,并根据预设的控制策略控制所述随动点跟随所述控制点的变化而变化,以重建3D模型的特征部分,包括:参考所述目标特征点之间的位置关系,计算所述3D模型的控制点的第一位移量;获取与所述控制点关联的随动点的控制策略;根据所述控制策略和所述第一位移量,计算所述随动点的第二位移量;按照所述第一位移量调整所述控制点,以使所述控制点之间的位置关系与所述目标特征点之间的位置关系一致,并按照所述第二位移量调整与所述控制点关联的随动点,以重建3D模型的特征部分。
2.根据权利要求1所述的方法,其特征在于,所述确定所述2D图像的特征点,包括:
计算2D图像的所有局部二值特征;
采用预先训练的特征点分类器对所述局部二值特征进行判别;
根据判别结果确定所述2D图像的特征点;
其中,所述分类器通过以下方法训练得到:
获取多个训练样本,所有训练样本具有相同的样本元素,每个所述训练样本包含标定的样本特征点,所述样本特征点与3D模型的控制点一一映射,所述3D模型具有与所述样本元素相应的特征部分;
计算所有样本特征点的局部二值特征;
根据每个样本特征点的局部二值特征建立分类器;
根据多个所述训练样本对所述分类器进行训练,得到特征点分类器。
3.根据权利要求1所述的方法,其特征在于,所述参考所述目标特征点之间的位置关系,计算所述3D模型的控制点的第一位移量,包括:
确定目标特征点与控制点之间的映射关系;
根据所述目标特征点与控制点之间的映射关系计算形变系数;
选取一个目标特征点作为第一参考点,并将与所述第一参考点对应的控制点作为第二参考点;
确定所述目标特征点与所述第一参考点之间的第一位置关系以及所述目标特征点对应的控制点与所述第二参考点之间的第二位置关系;
根据所述第一位置关系、所述第二位置关系和所述形变系数,计算所述控制点的目标位置;
基于所述控制点的目标位置和当前位置确定所述控制点的第一位移量。
4.根据权利要求1所述的方法,其特征在于,所述将所述2D图像的纹理映射到重建的所述3D模型的特征部分上,得到与所述2D图像对应的3D虚拟形象,包括:
将2D图像的特征点进行三角剖分,得到2D图像的三角面片;
将3D模型的控制点进行三角剖分,得到3D模型的三角面片;
根据所述特征点与所述控制点之间的映射关系,建立所述2D图像的三角面片与所述3D模型的三角面片之间的对应关系;
参照建立的对应关系,将2D图像的三角面片中的纹理映射到对应的3D模型的三角面片。
5.根据权利要求4所述的方法,其特征在于,所述参照建立的对应关系,将2D图像的三角面片中的纹理映射到对应的3D模型的三角面片,包括:
根据3D模型的三角面片的纹理对对应的2D图像的三角面片的纹理进行亮度调整;
根据2D图像的三角面片的纹理对对应的3D模型的三角面片的纹理进行颜色调整;
将调整后的2D图像的三角面片的纹理与调整后的3D模型的三角面片的纹理进行半透明融合。
6.根据权利要求1所述的方法,其特征在于,所述图像元素为人脸,所述2D图像的特征点的集合用于反映人脸轮廓;
所述矫正所述特征点,得到用于3D模型特征部分重建的目标特征点,包括:
根据所述特征点的位置信息计算2D图像中人脸偏转的角度;
根据所述人脸偏转的角度矫正所述特征点,得到所述人脸在偏转角度为0时的特征点,并将所述人脸在偏转角度为0时的特征点作为用于3D模型特征部分重建的目标特征点。
7.一种3D虚拟形象的生成装置,其特征在于,所述装置包括:
图像获取单元,用于获取2D图像,所述2D图像包含图像元素;
特征点确定单元,用于确定所述2D图像的特征点,所述特征点的集合用于反映所述图像元素的轮廓;所述特征点包括眼睛特征点、鼻子特征点、嘴唇特征点、眉部特征点以及脸部边缘特征点;
模型获取单元,用于根据所述特征点获取3D模型,所述3D模型具有与所述2D图像的图像元素相应的特征部分,所述特征部分包括控制点和与所述控制点关联的随动点,所述控制点与所述特征点一一对应;
重建单元,用于根据所述特征点调整所述3D模型的特征部分的控制点,并根据预设的控制策略控制所述随动点跟随所述控制点的变化而变化,以重建3D模型的特征部分;
纹理映射单元,用于将所述2D图像的纹理映射到重建的所述3D模型的特征部分上,得到与所述2D图像对应的3D虚拟形象;
所述装置还包括控制策略确定单元,用于:
获取所述3D模型,所述3D模型的所述特征部分预置有多个控制单元,每个控制单元包括一个控制点和与该控制点关联的多个随动点;
为所述每个控制单元的控制点设定调整参数,所述调整参数与所述特征部分的动作相对应;
计算得到当控制点按照设定的调整参数移动后,与控制点关联的每个随动点的控制策略;
所述重建单元,包括:
目标特征点确定子单元,用于矫正所述特征点,得到用于3D模型特征部分重建的目标特征点;所述目标特征点确定子单元包括:偏转角度计算模块,用于根据所述特征点的位置信息计算所述2D图像中图像元素的偏转角度;目标特征点确定模块,用于根据所述偏转角度矫正所述特征点,得到所述图像元素在偏转角度为0时的特征点,并将所述图像元素在偏转角度为0时的特征点作为用于3D模型特征部分重建的目标特征点;
控制子单元,用于基于所述目标特征点调整所述3D模型的特征部分的控制点,并根据预设的控制策略控制所述随动点跟随所述控制点的变化而变化,以重建3D模型的特征部分;所述控制子单元包括:第一位移量计算模块,用于参考所述目标特征点之间的位置关系,计算所述3D模型的控制点的第一位移量;控制策略获取模块,用于获取与所述控制点关联的随动点的控制策略;第二位移量计算模块,用于根据所述控制策略和所述第一位移量,计算所述随动点的第二位移量;调整模块,用于按照所述第一位移量调整所述控制点,以使所述控制点之间的位置关系与所述目标特征点之间的位置关系一致,并按照所述第二位移量调整与所述控制点关联的随动点,以重建3D模型的特征部分。
8.根据权利要求7所述的装置,其特征在于,所述特征点确定单元包括:
特征计算子单元,用于计算2D图像的所有局部二值特征;
判别子单元,用于采用预先训练的特征点分类器对所述局部二值特征进行判别;
特征点确定子单元,用于根据判别结果确定所述2D图像的特征点。
9.根据权利要求7所述的装置,其特征在于,所述第一位移量计算模块包括:
映射关系确定子模块,用于确定目标特征点与控制点之间的映射关系;
形变系数计算子模块,用于根据所述目标特征点与控制点之间的映射关系计算形变系数;
参考点确定子模块,用于选取一个目标特征点作为第一参考点,并将与所述第一参考点对应的控制点作为第二参考点;
位置关系确定子模块,用于确定所述目标特征点与所述第一参考点之间的第一位置关系以及所述目标特征点对应的控制点与所述第二参考点之间的第二位置关系;
目标位置计算子模块,用于根据所述第一位置关系、所述第二位置关系和所述形变系数,计算所述控制点的目标位置;
位移量计算子模块,用于基于所述控制点的目标位置和当前位置确定所述控制点的第一位移量。
10.根据权利要求7所述的装置,其特征在于,所述纹理映射单元包括:
第一剖分子单元,用于将2D图像的特征点进行三角剖分,得到2D图像的三角面片;
第二剖分子单元,用于将3D模型的控制点进行三角剖分,得到3D模型的三角面片;
关系建立子单元,用于根据所述特征点与所述控制点之间的映射关系,建立所述2D图像的三角面片与所述3D模型的三角面片之间的对应关系;
纹理映射子单元,用于参照建立的对应关系,将2D图像的三角面片中的纹理映射到对应的3D模型的三角面片。
11.根据权利要求10所述的装置,其特征在于,所述纹理映射子单元包括:
亮度调整模块,用于根据3D模型的三角面片的纹理对对应的2D图像的三角面片的纹理进行亮度调整;
颜色调整模块,用于根据2D图像的三角面片的纹理对对应的3D模型的三角面片的纹理进行颜色调整;
纹理融合模块,用于将调整后的2D图像的三角面片的纹理与调整后的3D模型的三角面片的纹理进行半透明融合。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710049452.2A CN108305312B (zh) | 2017-01-23 | 2017-01-23 | 3d虚拟形象的生成方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710049452.2A CN108305312B (zh) | 2017-01-23 | 2017-01-23 | 3d虚拟形象的生成方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108305312A CN108305312A (zh) | 2018-07-20 |
CN108305312B true CN108305312B (zh) | 2021-08-17 |
Family
ID=62872325
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710049452.2A Active CN108305312B (zh) | 2017-01-23 | 2017-01-23 | 3d虚拟形象的生成方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108305312B (zh) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110876050B (zh) * | 2018-08-31 | 2021-08-20 | 盎锐(上海)信息科技有限公司 | 基于3d摄像机的数据处理装置及方法 |
CN109089105B (zh) * | 2018-08-31 | 2020-06-23 | 盎锐(上海)信息科技有限公司 | 基于深度感知编码的模型生成装置及方法 |
CN109218699B (zh) * | 2018-08-31 | 2020-12-01 | 盎锐(上海)信息科技有限公司 | 基于3d摄像机的影像处理装置及方法 |
CN109218704A (zh) * | 2018-08-31 | 2019-01-15 | 盎锐(上海)信息科技有限公司 | 基于多3d摄像机的建模装置及方法 |
CN109348208B (zh) * | 2018-08-31 | 2020-09-29 | 盎锐(上海)信息科技有限公司 | 基于3d摄像机的感知编码获取装置及方法 |
CN109151437B (zh) * | 2018-08-31 | 2020-09-01 | 盎锐(上海)信息科技有限公司 | 基于3d摄像机的全身建模装置及方法 |
CN109246413B (zh) * | 2018-08-31 | 2020-11-10 | 盎锐(上海)信息科技有限公司 | 基于数字化影像的拍摄装置及方法 |
CN109218703B (zh) * | 2018-08-31 | 2020-09-01 | 盎锐(上海)信息科技有限公司 | 基于3d摄像机的数据处理装置及方法 |
CN110941977A (zh) * | 2018-09-25 | 2020-03-31 | Oppo广东移动通信有限公司 | 图像处理方法、装置、存储介质及电子设备 |
CN109584145A (zh) * | 2018-10-15 | 2019-04-05 | 深圳市商汤科技有限公司 | 卡通化方法和装置、电子设备和计算机存储介质 |
CN110210501B (zh) * | 2019-06-11 | 2021-06-18 | 北京字节跳动网络技术有限公司 | 虚拟对象生成方法、电子设备及计算机可读存储介质 |
CN112348937A (zh) * | 2019-08-09 | 2021-02-09 | 华为技术有限公司 | 人脸图像处理方法及电子设备 |
CN110557625A (zh) * | 2019-09-17 | 2019-12-10 | 北京达佳互联信息技术有限公司 | 虚拟形象直播方法、终端、计算机设备及存储介质 |
CN112156464B (zh) * | 2020-10-22 | 2023-03-14 | 腾讯科技(深圳)有限公司 | 虚拟对象的二维形象展示方法、装置、设备及存储介质 |
CN112686733B (zh) * | 2021-01-06 | 2022-10-04 | 中软数智信息技术(武汉)有限公司 | 基于大数据的电商产品模拟系统 |
CN112700306B (zh) * | 2021-01-06 | 2022-11-11 | 鼎趣(上海)科技有限公司 | 一种用于电子商务的虚拟造型生成方法 |
CN113050795A (zh) * | 2021-03-24 | 2021-06-29 | 北京百度网讯科技有限公司 | 虚拟形象的生成方法及装置 |
CN117274511B (zh) * | 2023-11-22 | 2024-03-12 | 大家智合(北京)网络科技股份有限公司 | 一种包装领域的盒型3d预览系统及其方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU9663098A (en) * | 1997-09-23 | 1999-04-12 | Enroute, Inc. | Generating three-dimensional models of objects defined by two-dimensional image data |
CN1889129A (zh) * | 2006-07-20 | 2007-01-03 | 北京中星微电子有限公司 | 基于单张相片的快速人脸建模方法及系统 |
CN101354795A (zh) * | 2008-08-28 | 2009-01-28 | 北京中星微电子有限公司 | 基于视频的三维人脸动画驱动方法和系统 |
CN101383055B (zh) * | 2008-09-18 | 2010-09-29 | 北京中星微电子有限公司 | 一种三维人脸模型的构造方法和系统 |
CN101814192A (zh) * | 2009-02-20 | 2010-08-25 | 三星电子株式会社 | 真实感3d人脸重建的方法 |
CN101739719B (zh) * | 2009-12-24 | 2012-05-30 | 四川大学 | 二维正面人脸图像的三维网格化方法 |
CN103514432B (zh) * | 2012-06-25 | 2017-09-01 | 诺基亚技术有限公司 | 人脸特征提取方法、设备和计算机程序产品 |
DE102013021045A1 (de) * | 2013-03-15 | 2014-09-18 | Nvidia Corporation | Ausführung von Objekterkennungsoperationen mittels einer grafischen Verarbeitungseinheit |
CN103646416A (zh) * | 2013-12-18 | 2014-03-19 | 中国科学院计算技术研究所 | 一种三维卡通人脸纹理生成方法及设备 |
CN104978764B (zh) * | 2014-04-10 | 2017-11-17 | 华为技术有限公司 | 三维人脸网格模型处理方法和设备 |
CN105096377B (zh) * | 2014-05-14 | 2019-03-19 | 华为技术有限公司 | 一种图像处理方法和装置 |
CN104966316B (zh) * | 2015-05-22 | 2019-03-15 | 腾讯科技(深圳)有限公司 | 一种3d人脸重建方法、装置及服务器 |
CN105550637B (zh) * | 2015-12-04 | 2019-03-08 | 小米科技有限责任公司 | 轮廓点定位方法及装置 |
CN105719326A (zh) * | 2016-01-19 | 2016-06-29 | 华中师范大学 | 一种基于单张照片的真实感人脸生成方法 |
-
2017
- 2017-01-23 CN CN201710049452.2A patent/CN108305312B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN108305312A (zh) | 2018-07-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108305312B (zh) | 3d虚拟形象的生成方法和装置 | |
CN109697688B (zh) | 一种用于图像处理的方法和装置 | |
CN109859098B (zh) | 人脸图像融合方法、装置、计算机设备及可读存储介质 | |
CN107993216B (zh) | 一种图像融合方法及其设备、存储介质、终端 | |
CN110807836B (zh) | 三维人脸模型的生成方法、装置、设备及介质 | |
CN111243093B (zh) | 三维人脸网格的生成方法、装置、设备及存储介质 | |
KR20170008638A (ko) | 3차원 컨텐츠 생성 장치 및 그 3차원 컨텐츠 생성 방법 | |
CN109801380A (zh) | 一种虚拟试衣的方法、装置、存储介质及计算机设备 | |
WO2022095721A1 (zh) | 参数估算模型的训练方法、装置、设备和存储介质 | |
CN113012293B (zh) | 石刻模型构建方法、装置、设备及存储介质 | |
CN113628327A (zh) | 一种头部三维重建方法及设备 | |
US11562536B2 (en) | Methods and systems for personalized 3D head model deformation | |
US11587288B2 (en) | Methods and systems for constructing facial position map | |
US10789784B2 (en) | Image display method, electronic device, and non-transitory computer readable recording medium for quickly providing simulated two-dimensional head portrait as reference after plastic operation | |
US11461970B1 (en) | Methods and systems for extracting color from facial image | |
KR20200100020A (ko) | 3차원 컨텐츠 생성 장치 및 그 3차원 컨텐츠 생성 방법 | |
CN112509117A (zh) | 手部三维模型的重建方法、装置、电子设备及存储介质 | |
CN117157673A (zh) | 用于形成个性化的3d头部和面部模型的方法和系统 | |
CN111586428A (zh) | 具有虚拟人物上妆功能的化妆品直播系统及方法 | |
CN115393471A (zh) | 图像处理方法、装置及电子设备 | |
CN114612614A (zh) | 人体模型的重建方法、装置、计算机设备及存储介质 | |
CN113516755A (zh) | 图像处理方法、图像处理装置、电子设备和存储介质 | |
CN114820907A (zh) | 人脸图像卡通化处理方法、装置、计算机设备和存储介质 | |
CN113298956A (zh) | 图像处理方法、美甲方法、美妆方法和装置、终端设备 | |
CN117078827A (zh) | 一种纹理贴图的生成方法、装置及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |