CN117095126A - 一种虚拟模型的生成方法、装置、计算机设备及存储介质 - Google Patents

一种虚拟模型的生成方法、装置、计算机设备及存储介质 Download PDF

Info

Publication number
CN117095126A
CN117095126A CN202311082941.XA CN202311082941A CN117095126A CN 117095126 A CN117095126 A CN 117095126A CN 202311082941 A CN202311082941 A CN 202311082941A CN 117095126 A CN117095126 A CN 117095126A
Authority
CN
China
Prior art keywords
model
virtual model
target object
target
texture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311082941.XA
Other languages
English (en)
Inventor
刘宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Netease Hangzhou Network Co Ltd
Original Assignee
Netease Hangzhou Network Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Netease Hangzhou Network Co Ltd filed Critical Netease Hangzhou Network Co Ltd
Priority to CN202311082941.XA priority Critical patent/CN117095126A/zh
Publication of CN117095126A publication Critical patent/CN117095126A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本申请实施例公开了一种虚拟模型的生成方法、装置、计算机设备及计算机可读存储介质。本方案通过采集目标对象的运动数据,根据运动数据生成目标对象的骨架模型,以及获取目标对象的形状模型,基于形状模型与骨架模型,确定目标对象的初始虚拟模型,然后,获取目标对象的纹理图像,根据纹理图像生成第一纹理贴图;基于第一纹理贴图对初始虚拟模型进行处理,得到目标对象的目标虚拟模型。以此,可以提高虚拟模型的制作效率。

Description

一种虚拟模型的生成方法、装置、计算机设备及存储介质
技术领域
本申请涉及计算机技术领域,具体涉及一种虚拟模型的生成方法、装置、计算机设备及计算机可读存储介质。
背景技术
随着计算机技术的发展,VR(Virtual Reality,虚拟现实)、AR(AugmentedReality,增强显示)、游戏等数字娱乐产业得到了迅速发展。这些数字娱乐产业需要大量的三维模型资源,尤其是人物头像模型。
相关技术中,通常采用手工建模来创造三维模型,具体为通过3D建模软件,手动绘制或创建模型的各个部分,逐步完成三维模型的建立。但是,手工建模的方式需要耗费大量时间和资源,且通常存在一定的误差和限制,从而影响三维模型的制作效率。
发明内容
本申请实施例提供一种虚拟模型的生成方法、装置、计算机设备及计算机可读存储介质,可以提高虚拟模型的制作效率。
本申请实施例提供了一种虚拟模型的生成方法,包括:
采集目标对象的运动数据,根据所述运动数据生成所述目标对象的骨架模型;
获取所述目标对象的形状模型,基于所述形状模型与所述骨架模型,确定所述目标对象的初始虚拟模型;
获取所述目标对象的纹理图像,根据所述纹理图像生成第一纹理贴图;
基于所述第一纹理贴图对所述初始虚拟模型进行处理,得到所述目标对象的目标虚拟模型。
相应的,本申请实施例还提供了一种虚拟模型的生成装置,包括:
第一采集单元,用于采集目标对象的运动数据,根据所述运动数据生成所述目标对象的骨架模型;
第一获取单元,用于获取所述目标对象的形状模型,基于所述形状模型与所述骨架模型,确定所述目标对象的初始虚拟模型;
第二获取单元,用于获取所述目标对象的纹理图像,根据所述纹理图像生成第一纹理贴图;
第一处理单元,用于基于所述第一纹理贴图对所述初始虚拟模型进行处理,得到所述目标对象的目标虚拟模型。
相应的,本申请实施例还提供了一种计算机设备,包括存储器,处理器及存储在储存器上并可在处理器上运行的计算机程序,其中,处理器执行本申请实施例任一提供的虚拟模型的生成方法。
相应的,本申请实施例还提供了一种存储介质,存储介质存储有多条指令,指令适于处理器进行加载,以执行如上的虚拟模型的生成方法。
本申请实施例通过采集目标对象的运动数据,根据运动数据生成目标对象的骨架模型,以及获取目标对象的形状模型,基于形状模型与骨架模型,确定目标对象的初始虚拟模型,然后,获取目标对象的纹理图像,根据纹理图像生成第一纹理贴图;基于第一纹理贴图对初始虚拟模型进行处理,得到目标对象的目标虚拟模型。以此,可以提高虚拟模型的制作效率。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种虚拟模型的生成方法的流程示意图。
图2为本申请实施例提供的一种虚拟模型的生成装置的结构框图。
图3为本申请实施例提供的计算机设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例提供一种虚拟模型的生成方法、装置、计算机可读存储介质及计算机设备。具体地,本申请实施例的虚拟模型的生成方法可以由计算机设备执行,其中,该计算机设备可以为终端或者服务器等设备。该终端可以为智能手机、平板电脑、笔记本电脑、触控屏幕、个人计算机(PC,Personal Computer)、个人数字助理(Personal DigitalAssistant,PDA)等终端设备。服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN、以及大数据和人工智能平台等基础云计算服务的云服务器。
例如,该计算机设备可以是终端,该终端可以采集目标对象的运动数据,根据运动数据生成目标对象的骨架模型;获取目标对象的形状模型,基于形状模型与骨架模型,确定目标对象的初始虚拟模型;获取目标对象的纹理图像,根据纹理图像生成第一纹理贴图;基于第一纹理贴图对初始虚拟模型进行处理,得到目标对象的目标虚拟模型。
基于上述问题,本申请实施例提供第一种虚拟模型的生成方法、装置、计算机设备及计算机可读存储介质,可以提高虚拟模型的制作效率。
以下分别进行详细说明。需说明的是,以下实施例的描述顺序不作为对实施例优选顺序的限定。
本申请实施例提供一种虚拟模型的生成方法,该方法可以由终端或服务器执行,本申请实施例以虚拟模型的生成方法由终端执行为例来进行说明。
请参阅图1,图1为本申请实施例提供的一种虚拟模型的生成方法的流程示意图。该虚拟模型的生成方法的具体流程可以如下:
101、采集目标对象的运动数据,根据运动数据生成目标对象的骨架模型。
在本申请实施例中,目标对象指的是需要生成虚拟模型的真实对象,目标对象可以为生物对象的头部,比如,目标对象可以为真实人物的头部等。
其中,运动数据指的是目标对象运动过程中产生的运动数据。
具体的,采集目标对象的运动数据可以采用动作捕捉技术,通过安装在目标对象上的传感器收集目标对象的运动数据,运动数据可以包括位置、速度、角度等。
例如,目标对象可以为人物A的头部,首先选择合适的传感器,将传感器安装在人物A的头部周围。其中,传感器可以是惯性测量单元(Inertial Measurement Unit,IMU)、光学跟踪器等。在数据采集过程中。在数据采集之前,可以对传感器进行校准和标定,以保证数据的准确性和稳定性;在数据采集过程中,需要人物A进行一定的动作,比如头部转动、眼睛注视、嘴巴张合等,通过采集人物A的头部在不同角度以及不同动作的数据,可以获得更丰富的头部运动数据;在数据采集之后,可以将采集到的运动数据进行存储,比如可以存储在计算机中,以便后续对运动数据的使用。
具体的,根据运动数据生成目标对象的骨架模型,可以通过骨骼动画技术将运动数据应用至目标对象的骨架,生成骨架模型,以通过骨架模型动态地展现出目标对象的运行特征。
其中,骨骼动画是计算机动画中的一种技术,其中将角色分为两个部分:用于绘制角色的表面表示(称为网格或蒙皮)和一组互连的部分骨骼,并共同形成骨骼或装备,这是一种用于对网格进行动画处理(姿势和关键帧)的虚拟骨架。
例如,目标对象为人物头部,运动数据则为人物头部的运动数据,通过骨骼动画技术基于运动数据生成人物头部对应的骨架模型,以通过骨架模型展现人物头部的运动特征。
在一些实施例中,为了保证骨架模型生成的准确性,步骤“根据运动数据生成目标对象的骨架模型”,可以包括以下操作:
对运动数据进行预处理,得到处理后运动数据;
对处理后运动数据进行标准化处理,得到标准化运动数据;
基于标准化运动数据生成骨架模型。
在本申请实施例中,对运动数据进行预处理的作用是将采集的运动数据转换成适合虚拟模型生成的格式。其中,预处理至少可以包括:去除噪声、滤波和差值。
具体的,在对运动数据进行清洗和预处理过程中,去除噪声、滤波、插值等操作是为了提高数据质量和准确性,从而更好地进行后续的数据分析和建模。
其中,噪声是在数据采集和传输过程中引入的随机干扰,可能会导致数据精度和准确性降低。通过去除噪声,可以减少数据中的错误和不确定性。
其中,滤波是一种对数据进行平滑处理的方法,可以减少数据中的高频噪声和抖动,保留数据中的低频变化趋势,使得数据更加稳定并且易于被分析和建模。
其中,插值是一种用于填充缺失数据的方法,可以在一定程度上还原缺失数据的信息,并且提高数据的完整性和连续性。其主要适用于时间序列或空间序列等一些连续性较强的数据。
具体的,对运动数据进行预处理,可以包括对运动数据依次进行去除噪声、滤波、插值,从而得到处理后运动数据。
进一步的,对处理后运动数据进行标准化处理,使得不同数据之间具有相同的尺度和范围。比如,标准化处理可以采用z-score标准化、min-max标准化等方法。其中,z-score标准化是数据处理的一种常用方法。通过它能够将不同量级的数据转化为统一量度的z-score分值进行比较;min-max标准化,也称离差标准化,将数据调整到[0,1]。
最终,根据标准化运动数据生成目标对象的骨架模型。
102、获取目标对象的形状模型,基于形状模型与骨架模型,确定目标对象的初始虚拟模型。
其中,目标对象的形状模型指的是根据目标对象的外形形状生成的三维模型。
在本申请实施例中,可以使用三维建模技术生成目标对象的形状模型。具体的,获取目标对象的外形特征和比例等外形信息,根据外形信息通过设计软件进行三维建模,生成目标对象的形状模型。比如,可以通过Blender、Maya等设计软件对目标对象进行建模,得到形状模型。
例如,目标对象可以为人物头部,获取人物头部中脸部、五官等部位的基本形状,使用设计软件根据各部位的基本形状进行建模,生成人物头部的三维模型,也即形状模型。
在一些实施例中,除了通过设计软件进行建模生成形状模型,还可以使用深度学习技术生成目标对象的形状模型。比如,将目标对象输入虚拟模型生成网络中,通过虚拟模型生成网络提取目标对象的外形特征,进而根据外形特征生成外形模型。
在一些实施例中,为了得到目标对象的完整虚拟模型,步骤“基于形状模型与骨架模型,确定目标对象的初始虚拟模型”,可以包括以下操作:
将形状模型与骨架模型进行绑定,得到初始虚拟模型。
在本申请实施例中,可以通过蒙皮技术将形状模型与骨架模型进行绑定。其中,蒙皮为三维动画的一种制作技术,在三维软件中创建的模型基础上,为模型添加骨骼。由于骨骼与模型是相互独立的,为了让骨骼驱动模型产生合理的运动。把模型绑定到骨骼上的技术叫做蒙皮。
具体的,根据形状模型与目标对象各部位的第一对应关系,以及骨架模型与目标对象各部位的第二对应关系,确定形状模型各部分与骨架模型各部分的第三对应关系,进而可以根据第三对应关系,将形状模型与骨架模型对应的部分进行绑定,以得到目标对象的初始虚拟模型,也即该初始虚拟模型包括了目标对象的外形信息和运动信息。
103、获取目标对象的纹理图像,根据纹理图像生成第一纹理贴图。
其中,纹理图像指的是包含目标对象的外形纹理的图像。
在本申请实施例中,获取目标对象的纹理图像可以使用专业的3D扫描仪或者摄影设备进行采集。采集的纹理图像应该包含目标对象的尽量多的细节和特征,以便于后续的纹理贴图处理。
在一些实施例中,为了将目标对象的纹理信息应用至生成的虚拟模型中,步骤“根据纹理图像生成第一纹理贴图”,可以包括以下操作:
将纹理图像与初始虚拟模型进行对齐,确定纹理图像中各像素点与初始虚拟模型表面的对应关系;
基于对应关系,将纹理图像映射至初始虚拟模型表面,生成纹理图像对应的第一纹理贴图。
首先,将采集到的纹理图像与初始虚拟模型进行对齐,以此可以确定纹理图像中各像素点与初始虚拟模型表面的对应关系,进而根据该对应关系在初始虚拟模型表面上生成纹理坐标。其中,纹理坐标是指将二维纹理图像中的每个像素映射到三维模型(也即初始虚拟模型)表面上的一个点。
具体的,将纹理图像映射至初始虚拟模型表面也即将纹理坐标中的像素值赋值给在初始虚拟模型表面上对应的点。通常情况下,这个过程是通过计算纹理坐标与初始虚拟模型表面的交点来实现的。最后,将纹理映射计算出来的结果保存成一张纹理贴图,也即第一纹理贴图。
104、基于第一纹理贴图对初始虚拟模型进行处理,得到目标对象的目标虚拟模型。
具体的,基于第一纹理贴图对初始虚拟模型进行处理,可以包括将第一纹理贴图与初始虚拟模型进行融合,从而得到目标虚拟模型,可以表现出目标对象表面的纹理效果。
在本申请实施例中,为了提高生成虚拟模型的真实度和逼真度,在步骤“基于第一纹理贴图对初始虚拟模型进行处理,得到目标对象的目标虚拟模型”之前,还可以包括以下步骤:
获取初始虚拟模型的表面材质信息;
基于表面材质信息对第一纹理贴图的材质参数进行调整,得到调整后的纹理贴图。
其中,表面材质信息可以为预定义的表面材质效果,比如可以包括物体的表面属性和光照属性。
在本申请实施例中,可以通过材质映射实现虚拟对象表面的材质效果,比如可以使用PBR(Physically Based Rendering,基于物理的渲染)材质映射技术。使用PBR材质映射技术,可以更准确地模拟真实世界中的光照和材质效果,使生成的三维头像更加真实逼真。
其中,PBR材质映射是一种基于物理原理的材质映射技术,可以更加真实地模拟光线在物体表面的反射、折射和散射等物理特性。在PBR材质映射中,需要定义物体的表面属性,如金属度、粗糙度、反射率等。这些属性可以影响光线在物体表面上的反射和折射。PBR材质映射还需要定义环境光、漫反射、镜面反射等光照属性,以模拟真实世界中的光照情况。具体的,实现PBR材质映射可以使用现有的图形引擎或者自行实现。
在本申请实施例中,可以预先确定初始虚拟模型表面所需要实现的材质效果,根据材质效果定义材质参数和光照参数,然后计算初始虚拟模型的表面属性和光照效果。
例如,PBR材质映射过程可以包括:首先,定义一个PBR材质的基本结构,包括Diffuse、Roughness、Metalness、Normal等纹理。然后,根据初始虚拟模型的实际需求和场景,选择合适的颜色、反射率、粗糙度等参数,将其映射到材质上。可以使用软件,如Blender、Substance Designer等进行材质编辑和映射,也即调整第一纹理贴图的材质参数,以使通过第一纹理贴图表现材质效果。
其中,Diffuse是指物体表面的漫反射属性。在PBR中,Diffuse通常是材质的基础属性,它决定了物体表面的颜色和光照的强度。在渲染时,Diffuse属性会考虑光照的角度和颜色,从而模拟出物体表面的反射效果。
其中,Roughness是指物体表面的粗糙度属性。在PBR中,Roughness通常是一个介于0和1之间的值,它决定了物体表面的光滑程度。如果Roughness值为0,则物体表面完全光滑;如果Roughness值为1,则物体表面非常粗糙。在渲染时,Roughness属性会影响物体表面的反射和散射效果,从而更真实地模拟出物体表面的光学行为。
其中,Metalness是指物体表面的金属属性。在PBR中,Metalness通常是一个介于0和1之间的值,它决定了物体表面是金属还是非金属。如果Metalness值为0,则物体表面是非金属;如果Metalness值为1,则物体表面是金属。在渲染时,Metalness属性会影响物体表面的光反射和折射效果,从而更真实地模拟出金属和非金属材质的光学行为。
其中,Normal是指物体表面的法线属性。在PBR中,Normal通常是一个三维向量,它决定了物体表面的几何形状。在渲染时,Normal属性通常用于计算物体表面的阴影和高光效果,从而更真实地模拟出物体表面的形状。
则在一些实施例中,步骤“基于第一纹理贴图对初始虚拟模型进行处理,得到目标对象的目标虚拟模型”,可以包括以下操作:
基于调整后的纹理贴图对初始虚拟模型进行处理,得到目标虚拟模型。
具体的,将调整后的纹理贴图与初始虚拟模型进行融合,得到目标虚拟模型,可以表现目标对象的表面纹理效果以及材质效果。
在一些实施例中,为了提现生成虚拟模型的细节效果,在步骤“基于第一纹理贴图对初始虚拟模型进行处理,得到目标对象的目标虚拟模型”之前,还可以包括以下步骤:
获取目标对象中指定部位的特征信息;
通过预设噪声算法对特征信息进行处理,生成指定部位对应的第二纹理贴图;
将第二纹理贴图与第一纹理贴图进行融合处理,得到融合后纹理贴图。
其中,指定部位指的是目标对象中需要进行细节处理的部位,比如,目标对象可以为人物头部,指定部位可以为眼睛、鼻子,耳朵等需要细节处理的部位。
其中,特征信息指的是指定部位的特点,比如,指定部位可以为头发部位,头发部位的特征信息可以为头发纹理;指定部位可以为眼睛部位,眼睛部位的特征信息可以为眼睛亮度等等。
在本申请实施例中,预设噪声算法可以为Perlin噪声算法,Perlin噪声算法是一种特殊的随机噪声算法,可以产生连续的、自然的、无缝的纹理和形状。通过Perlin噪声算法可以生成自然、随机的纹理效果,使生成的三维头像更加自然、真实,并具有个性化特点。
其中,Perlin噪声算法的基本思想是在三维立方体网格中随机生成一些梯度向量,然后计算网格中任意一点的噪声值。这个噪声值可以用来模拟真实场景中的物体的各种复杂形态。
在本申请实施例中,实现Perlin噪声算法需要定义一个渐变噪声函数,该渐变噪声函数可以根据输入的三维坐标生成一个堆积的向量,用来标识点的运动特征。具体的,渐变噪声函数的定义可以如下:
其中,fade函数用于对输入的值进行平滑处理,以保证输出值的连续性;lerp函数用于进行线性插值,用来产生平稳的过渡效果;grad函数用来计算随机向量。在算法实现中,需要定义一个共256个元素的随机种子表p,该表用于存储0~255的随机数,并根据输入的x、y、z坐标值,进行随机采样和插值,生成一个三维噪声贴图。该贴图可以用来生成各种复杂的纹理和形状。Perlin噪声算法的实现过程涉及到多次随机采样和插值,因此计算量较大,需要采用高效的算法和数据结构进行优化。例如,可以使用分层噪声、中心偏移、叠加等技术来提高算法的性能和效率。同时,也可以使用GPU等高性能计算设备来加速Perlin噪声算法的计算过程。
具体的,通过预设噪声算法对特征信息进行处理,生成指定部位对应的第二纹理贴图,也即通过Perlin噪声算法对各指定部位的特效信息进行处理,生成各指定部位对应的纹理贴图,也即第二纹理贴图。
例如,目标对象可以为人物头部,指定部位可以为头发,皮肤以及眼睛等,则可以使用Perlin噪声算法生成头发的纹理图像,皮肤的色彩的纹理图形,眼睛的亮度的纹理图形等。Perlin噪声算法可以生成连续的、自然的、无缝的纹理和形状,能够使生成的头像更加真实。
其中,使用Perlin噪声算法生成头发的纹理。可以根据人物头部的头发特征,使用Perlin噪声算法生成头发的形状和纹理。比如,若头发是黑色的,可以使用Perlin噪声算法生成黑色的头发,并根据头发的形状和长度生成相应的纹理图像。
其中,使用Perlin噪声算法生成皮肤的色彩。可以根据人物头部的肤色特征,使用Perlin噪声算法生成皮肤的色彩。比如,若肤色是棕色的,可以使用Perlin噪声算法生成棕色的皮肤,并根据皮肤的细节生成相应的纹理图像。
进一步的,将生成的指定部位对应的第二纹理贴图,与第一纹理贴图进行融合处理,从而得到融合后的纹理贴图。
则步骤“基于第一纹理贴图对初始虚拟模型进行处理,得到目标对象的目标虚拟模型”,可以包括以下操作:
基于融合后的纹理贴图对初始虚拟模型进行处理,得到目标虚拟模型。
具体的,将融合后的纹理贴图与初始虚拟模型进行融合,得到目标虚拟模型,可以表现目标对象的表面纹理效果以及指定部位的细节纹理效果。
在一些实施例中,在步骤“基于第一纹理贴图对初始虚拟模型进行处理,得到目标对象的目标虚拟模型”之前,可以包括以下步骤;
将调整后纹理贴图与第二纹理贴图进行融合处理,得到目标纹理贴图。
具体的,将进行材质映射的调整后纹理贴图,与各指定部位的第二纹理贴图进行融合,从而得到目标纹理贴图。
则步骤“基于第一纹理贴图对初始虚拟模型进行处理,得到目标对象的目标虚拟模型”,可以包括以下操作:
基于目标纹理贴图对初始虚拟模型进行处理,得到目标虚拟模型。
具体的,将目标纹理贴图与初始虚拟模型进行融合,得到目标虚拟模型,可以表现目标对象的表面纹理效果、材质效果以及指定部位的细节纹理效果。
在一些实施例中,为了进一步提高生成虚拟模型的真实度,还可以包括以下步骤:
基于目标对象的真实图像对目标虚拟模型进行优化处理,得到优化处理后的目标虚拟模型。
其中,目标对象的真实图像指的是拍摄目标对象得到的图像。具体的,对目标虚拟模型进行优化处理,也即通过调整目标虚拟模型,以减少目标虚拟模型与真实图像之间的差异,从而使得优化处理后的目标虚拟模型更接近真实的目标虚拟对象。
在一些实施例中,步骤“基于目标对象的真实图像对目标虚拟模型进行优化处理,得到优化处理后的目标虚拟模型”,可以包括以下操作:
将目标虚拟模型输入训练后网络模型中;
基于训练后网络模型生成目标虚拟模型对应的虚拟图像;
计算虚拟图像与真实图像的相似度,并基于相似度调整目标虚拟模型,得到优化处理后的目标虚拟模型。
其中,训练后网络模型可以为DCGAN(Deep Convolution GenerativeAdversarial Networks(深度卷积生成对抗网络)模型。DCGAN模型包括生成器网络和判别器网络。DCGAN即使用卷积网络的对抗网络,G(生成器)网在生成数据时,使用反卷积的重构技术来重构原始图片。D(判别器)网用卷积技术来识别图片特征,进而做出判别。
在本申请实施例中,目标虚拟模型生成之后,还可以对其进行优化,以提高目标虚拟模型的真实度和逼真度。使用DCGAN算法可以对生成的头像进行优化。DCGAN算法是一种基于深度学习的图像生成算法,可以学习到图像的特征和纹理,然后用这些特征来生成更加逼真的图像。在头像优化中,需要将生成的头像输入到DCGAN模型中,训练模型,得到更加真实的虚拟模型。
具体的,将目标虚拟模型输入DCGAN模型中,通过DCGAN模型的的生成器网络生成目标虚拟模型的图像,也即目标虚拟模型对应的虚拟图像;然后通过DCGAN模型的判别器网络计算虚拟图像与真实图像的相似度,进而根据相似度对目标虚拟模型进行调整,以使优化处理后的目标虚拟模型更接近真实的目标对象。
在一些实施例中,还可以包括以下步骤:
采集样本对象对应的样本虚拟模型以及样本真实图像;
基于样本虚拟模型与样本真实图像对预设网络模型进行训练,得到训练后网络模型。
其中,样本对象可以为与目标对象类型相同的真实对象,样本虚拟模型指的是根据样本对象进行建模生成的样本对象对应的虚拟模型,样本真实图像可以为对样本对象进行拍摄得到的图像。样本对象可以包括多个。
进一步的,根据每一样本对象对应的样本虚拟模型与样本真实图像构建一训练样本对,然后基于每一训练样本对,对预设网络模型进行训练,得到训练后模型。其中,预设网络模型可以为初始的DCGAN模型,训练后模型可以为训练好的DCGAN模型。
在一些实施例中,为了提高DCGAN模型的效果,步骤“基于样本虚拟模型与样本真实图像对预设网络模型进行训练,得到训练后网络模型”,可以包括以下操作:
将样本虚拟模型输入生成器网络中,通过生成器网络生成样本虚拟模型对应的样本虚拟图像;
将样本虚拟图像与样本真实图像输入判别器网络中,通过判别器网络计算样本虚拟图像与样本真实图像之间的相似度;
基于相似度对预设网络模型的模型参数进行调整,直至预设网络模型收敛,得到训练后网络模型。
具体的,DCGAN模型可以包括生成器网络和判别器网络。
其中,生成器网络接受一个随机噪声向量作为输入,并通过反卷积层逐步生成图像。其中,随机噪声向量是一个经过预处理的随机向量,它在训练过程中被输入到生成器网络中,用于控制生成的图像的多样性和随机性。
具体的,生成器网络的输入向量通常是一个服从均匀分布或高斯分布的向量,其维度可以根据具体应用进行调整。这个向量可以通过Python中的NumPy库或其他随机数生成器库来生成。在每次训练迭代中,随机噪声向量会被重新采样,以确保生成的图像具有多样性。
在本申请实施例中,DCGAN模型可以使用Python和TensorFlow等开源工具进行实现,具体实现过程包括实现生成器网络、实现判别器网络、实现损失函数以及实现训练过程。
其中,实现生成器网络可以包括:使用TensorFlow等开源工具实现多个3D卷积层和反卷积层组成的生成器网络,并将随机噪声向量输入到生成器网络中,生成与输入数据相似的3D图像。在本申请实施例中,输入数据也即样本虚拟模型。则3D图像也即通过生成器网络生成样本虚拟模型对应的样本虚拟图形。
其中,实现判别器网络可以包括:使用TensorFlow等开源工具实现多个3D卷积层和全连接层组成的判别器网络,并将输入的3D图像输入到判别器网络中,输出其与真实图像的相似度。在本申请实施例中,真实图像也即样本对象对应的样本真实图像,通过判别器网络计算样本虚拟图形与样本真实图像的相似度。
其中,实现损失函数可以包括:将生成器网络的损失和判别器网络的损失组合起来作为DCGAN算法的损失函数。在本申请实施例中,可以根据样本真实图像与样本虚拟图像之间的相似度计算损失函数。
其中,实现训练过程可以包括:使用TensorFlow等开源工具执行多次迭代,训练生成器和判别器网络,直到达到预设的训练次数或损失函数的最优解。在本申请实施例中,根据损失函数调整预设网络模型的模型参数,直至模型收敛,得到训练后网络模型。
在本申请实施例中,通过DCGAN算法对生成的目标虚拟模型进行优化处理,可以生成高分辨率、高质量的图像,通过DCGAN算法的优化,可以生成高质量、真实、逼真的三维模型。
本申请实施例公开了一种虚拟模型的生成方法,该方法包括:采集目标对象的运动数据,根据运动数据生成目标对象的骨架模型;获取目标对象的形状模型,基于形状模型与骨架模型,确定目标对象的初始虚拟模型;获取目标对象的纹理图像,根据纹理图像生成第一纹理贴图;基于第一纹理贴图对初始虚拟模型进行处理,得到目标对象的目标虚拟模型,以此,可以提高虚拟模型的制作效率。
为便于更好的实施本申请实施例提供的虚拟模型的生成方法,本申请实施例还提供一种基于上述虚拟模型的生成方法的虚拟模型的生成装置。其中名词的含义与上述虚拟模型的生成方法中相同,具体实现细节可以参考方法实施例中的说明。
请参阅图2,图2为本申请实施例提供的一种虚拟模型的生成装置的结构框图,该装置包括:
第一采集单元301,用于采集目标对象的运动数据,根据所述运动数据生成所述目标对象的骨架模型;
第一获取单元302,用于获取所述目标对象的形状模型,基于所述形状模型与所述骨架模型,确定所述目标对象的初始虚拟模型;
第二获取单元303,用于获取所述目标对象的纹理图像,根据所述纹理图像生成第一纹理贴图;
第一处理单元304,用于基于所述第一纹理贴图对所述初始虚拟模型进行处理,得到所述目标对象的目标虚拟模型。
在一些实施例中,第二获取单元303可以包括:
对齐子单元,用于将所述纹理图像与所述初始虚拟模型进行对齐,确定所述纹理图像中各像素点与所述初始虚拟模型表面的对应关系;
第一生成子单元,用于基于所述对应关系,将所述纹理图像映射至所述初始虚拟模型表面,生成所述纹理图像对应的第一纹理贴图。
在一些实施例中,还装置还可以包括:
第三获取单元,用于获取所述初始虚拟模型的表面材质信息;
调整单元,用于基于所述表面材质信息对所述第一纹理贴图的材质参数进行调整,得到调整后的纹理贴图。
在一些实施例中,第一处理单元304可以包括:
第一处理子单元,用于基于所述调整后的纹理贴图对所述初始虚拟模型进行处理,得到所述目标虚拟模型。
在一些实施例中,该装置还可以包括:
第四获取单元,用于获取所述目标对象中指定部位的特征信息;
第二处理单元,用于通过预设噪声算法对所述特征信息进行处理,生成所述指定部位对应的第二纹理贴图;
第三处理单元,用于将所述第二纹理贴图与所述第一纹理贴图进行融合处理,得到融合后纹理贴图。
在一些实施例中,第一处理单元304可以包括:
第二处理子单元,用于基于所述融合后的纹理贴图对所述初始虚拟模型进行处理,得到所述目标虚拟模型。
在一些实施例中,该装置还可以包括:
优化单元,包括基于所述目标对象的真实图像对所述目标虚拟模型进行优化处理,得到优化处理后的目标虚拟模型。
在一些实施例中,优化单元可以包括:
第一输入子单元,用于将所述目标虚拟模型输入训练后网络模型中;
第二生成子单元,用于基于所述训练后网络模型生成所述目标虚拟模型对应的虚拟图像;
计算子单元,用于计算所述虚拟图像与所述真实图像的相似度,并基于所述相似度调整所述目标虚拟模型,得到所述优化处理后的目标虚拟模型。
在一些实施例中,该装置还可以包括:
第二采集单元,用于采集样本对象对应的样本虚拟模型以及样本真实图像;
训练单元,用于基于所述样本虚拟模型与所述样本真实图像对预设网络模型进行训练,得到所述训练后网络模型。
在一些实施例中,训练单元可以包括:
第二输入子单元,用于将所述样本虚拟模型输入所述生成器网络中,通过所述生成器网络生成所述样本虚拟模型对应的样本虚拟图像;
第三输入子单元,用于将所述样本虚拟图像与所述样本真实图像输入所述判别器网络中,通过所述判别器网络计算所述样本虚拟图像与所述样本真实图像之间的相似度;
调整子单元,用于基于所述相似度对所述预设网络模型的模型参数进行调整,直至所述预设网络模型收敛,得到所述训练后网络模型。
在一些实施例中,第一获取单元302可以包括:
绑定子单元,用于将所述形状模型与所述骨架模型进行绑定,得到所述初始虚拟模型。
在一些实施例中,第一采集单元301可以包括:
第一处理子单元,用于对所述运动数据进行预处理,得到处理后运动数据;
第二处理子单元,用于对所述处理后运动数据进行标准化处理,得到标准化运动数据;
生成子单元,用于基于所述标准化运动数据生成所述骨架模型。
本申请实施例公开了一种虚拟模型的生成装置,通过第一采集单元301采集目标对象的运动数据,根据所述运动数据生成所述目标对象的骨架模型;第一获取单元302获取所述目标对象的形状模型,基于所述形状模型与所述骨架模型,确定所述目标对象的初始虚拟模型;第二获取单元303获取所述目标对象的纹理图像,根据所述纹理图像生成第一纹理贴图;第一处理单元304基于所述第一纹理贴图对所述初始虚拟模型进行处理,得到所述目标对象的目标虚拟模型。以此,可以提高虚拟模型的制作效率。
相应的,本申请实施例还提供一种计算机设备,该计算机设备可以为终端。如图3所示,图3为本申请实施例提供的计算机设备的结构示意图。该计算机设备500包括有一个或者一个以上处理核心的处理器501、有一个或一个以上计算机可读存储介质的存储器502及存储在存储器502上并可在处理器上运行的计算机程序。其中,处理器501与存储器502电性连接。本领域技术人员可以理解,图中示出的计算机设备结构并不构成对计算机设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
处理器501是计算机设备500的控制中心,利用各种接口和线路连接整个计算机设备500的各个部分,通过运行或加载存储在存储器502内的软件程序和/或模块,以及调用存储在存储器502内的数据,执行计算机设备500的各种功能和处理数据,从而对计算机设备500进行整体监控。
在本申请实施例中,计算机设备500中的处理器501会按照如下的步骤,将一个或一个以上的应用程序的进程对应的指令加载到存储器502中,并由处理器501来运行存储在存储器502中的应用程序,从而实现各种功能:
采集目标对象的运动数据,根据运动数据生成目标对象的骨架模型;
获取目标对象的形状模型,基于形状模型与骨架模型,确定目标对象的初始虚拟模型;
获取目标对象的纹理图像,根据纹理图像生成第一纹理贴图;
基于第一纹理贴图对初始虚拟模型进行处理,得到目标对象的目标虚拟模型。
在一些实施例中,根据纹理图像生成第一纹理贴图,包括:
将纹理图像与初始虚拟模型进行对齐,确定纹理图像中各像素点与初始虚拟模型表面的对应关系;
基于对应关系,将纹理图像映射至初始虚拟模型表面,生成纹理图像对应的第一纹理贴图。
在一些实施例中,在基于第一纹理贴图对初始虚拟模型进行处理,得到目标对象的目标虚拟模型之前,还包括:
获取初始虚拟模型的表面材质信息;
基于表面材质信息对第一纹理贴图的材质参数进行调整,得到调整后的纹理贴图;
基于第一纹理贴图对初始虚拟模型进行处理,得到目标对象的目标虚拟模型,包括:
基于调整后的纹理贴图对初始虚拟模型进行处理,得到目标虚拟模型。
在一些实施例中,在基于第一纹理贴图对初始虚拟模型进行处理,得到目标对象的目标虚拟模型之前,还包括:
获取目标对象中指定部位的特征信息;
通过预设噪声算法对特征信息进行处理,生成指定部位对应的第二纹理贴图;
将第二纹理贴图与第一纹理贴图进行融合处理,得到融合后纹理贴图;
基于第一纹理贴图对初始虚拟模型进行处理,得到目标对象的目标虚拟模型,包括:
基于融合后的纹理贴图对初始虚拟模型进行处理,得到目标虚拟模型。
在一些实施例中,方法还包括:
基于目标对象的真实图像对目标虚拟模型进行优化处理,得到优化处理后的目标虚拟模型。
在一些实施例中,基于目标对象的真实图像对目标虚拟模型进行优化处理,得到优化处理后的目标虚拟模型,包括:
将目标虚拟模型输入训练后网络模型中;
基于训练后网络模型生成目标虚拟模型对应的虚拟图像;
计算虚拟图像与真实图像的相似度,并基于相似度调整目标虚拟模型,得到优化处理后的目标虚拟模型。
在一些实施例中,方法还包括:
采集样本对象对应的样本虚拟模型以及样本真实图像;
基于样本虚拟模型与样本真实图像对预设网络模型进行训练,得到训练后网络模型。
在一些实施例中,预设网络模型包括生成器网络和判别器网络;
基于样本虚拟模型与样本真实图像对预设网络模型进行训练,得到训练后网络模型,包括:
将样本虚拟模型输入生成器网络中,通过生成器网络生成样本虚拟模型对应的样本虚拟图像;
将样本虚拟图像与样本真实图像输入判别器网络中,通过判别器网络计算样本虚拟图像与样本真实图像之间的相似度;
基于相似度对预设网络模型的模型参数进行调整,直至预设网络模型收敛,得到训练后网络模型。
在一些实施例中,基于形状模型与骨架模型,确定目标对象的初始虚拟模型,包括:
将形状模型与骨架模型进行绑定,得到初始虚拟模型。
在一些实施例中,根据运动数据生成目标对象的骨架模型,包括:
对运动数据进行预处理,得到处理后运动数据;
对处理后运动数据进行标准化处理,得到标准化运动数据;
基于标准化运动数据生成骨架模型。
在一些实施例中,预处理至少包括:去除噪声、滤波和插值。
本申请实施例通过采集目标对象的运动数据,根据运动数据生成目标对象的骨架模型,以及获取目标对象的形状模型,基于形状模型与骨架模型,确定目标对象的初始虚拟模型,然后,获取目标对象的纹理图像,根据纹理图像生成第一纹理贴图;基于第一纹理贴图对初始虚拟模型进行处理,得到目标对象的目标虚拟模型。以此,可以提高虚拟模型的制作效率。
以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
可选的,如图3所示,计算机设备500还包括:触控显示屏503、射频电路504、音频电路505、输入单元506以及电源507。其中,处理器501分别与触控显示屏503、射频电路504、音频电路505、输入单元506以及电源507电性连接。本领域技术人员可以理解,图3中示出的计算机设备结构并不构成对计算机设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
触控显示屏503可用于显示图形用户界面以及接收用户作用于图形用户界面产生的操作指令。触控显示屏503可以包括显示面板和触控面板。其中,显示面板可用于显示由用户输入的信息或提供给用户的信息以及计算机设备的各种图形用户接口,这些图形用户接口可以由图形、引导信息、图标、视频和其任意组合来构成。可选的,可以采用液晶显示器(LCD,Liquid Crystal Display)、有机发光二极管(OLED,Organic Light-EmittingDiode)等形式来配置显示面板。触控面板可用于收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板上或在触控面板附近的操作),并生成相应的操作指令,且操作指令执行对应程序。可选的,触控面板可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器501,并能接收处理器501发来的命令并加以执行。触控面板可覆盖显示面板,当触控面板检测到在其上或附近的触摸操作后,传送给处理器501以确定触摸事件的类型,随后处理器501根据触摸事件的类型在显示面板上提供相应的视觉输出。在本申请实施例中,可以将触控面板与显示面板集成到触控显示屏503而实现输入和输出功能。但是在某些实施例中,触控面板与触控面板可以作为两个独立的部件来实现输入和输出功能。即触控显示屏503也可以作为输入单元506的一部分实现输入功能。
射频电路504可用于收发射频信号,以通过无线通信与网络设备或其他计算机设备建立无线通讯,与网络设备或其他计算机设备之间收发信号。
音频电路505可以用于通过扬声器、传声器提供用户与计算机设备之间的音频接口。音频电路505可将接收到的音频数据转换后的电信号,传输到扬声器,由扬声器转换为声音信号输出;另一方面,传声器将收集的声音信号转换为电信号,由音频电路505接收后转换为音频数据,再将音频数据输出处理器501处理后,经射频电路504以发送给比如另一计算机设备,或者将音频数据输出至存储器502以便进一步处理。音频电路505还可能包括耳塞插孔,以提供外设耳机与计算机设备的通信。
输入单元506可用于接收输入的数字、字符信息或用户特征信息(例如指纹、虹膜、面部信息等),以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。
电源507用于给计算机设备500的各个部件供电。可选的,电源507可以通过电源管理系统与处理器501逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。电源507还可以包括一个或一个以上的直流或交流电源、再充电系统、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。
尽管图3中未示出,计算机设备500还可以包括摄像头、传感器、无线保真模块、蓝牙模块等,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
由上可知,本实施例提供的计算机设备,可以采集目标对象的运动数据,根据运动数据生成目标对象的骨架模型;获取目标对象的形状模型,基于形状模型与骨架模型,确定目标对象的初始虚拟模型;获取目标对象的纹理图像,根据纹理图像生成第一纹理贴图;基于第一纹理贴图对初始虚拟模型进行处理,得到目标对象的目标虚拟模型。
本领域普通技术人员可以理解,上述实施例的各种方法中的全部或部分步骤可以通过指令来完成,或通过指令控制相关的硬件来完成,该指令可以存储于一计算机可读存储介质中,并由处理器进行加载和执行。
为此,本申请实施例提供一种计算机可读存储介质,其中存储有多条计算机程序,该计算机程序能够被处理器进行加载,以执行本申请实施例所提供的任一种虚拟模型的生成方法中的步骤。例如,该计算机程序可以执行如下步骤:
采集目标对象的运动数据,根据运动数据生成目标对象的骨架模型;
获取目标对象的形状模型,基于形状模型与骨架模型,确定目标对象的初始虚拟模型;
获取目标对象的纹理图像,根据纹理图像生成第一纹理贴图;
基于第一纹理贴图对初始虚拟模型进行处理,得到目标对象的目标虚拟模型。
在一些实施例中,根据纹理图像生成第一纹理贴图,包括:
将纹理图像与初始虚拟模型进行对齐,确定纹理图像中各像素点与初始虚拟模型表面的对应关系;
基于对应关系,将纹理图像映射至初始虚拟模型表面,生成纹理图像对应的第一纹理贴图。
在一些实施例中,在基于第一纹理贴图对初始虚拟模型进行处理,得到目标对象的目标虚拟模型之前,还包括:
获取初始虚拟模型的表面材质信息;
基于表面材质信息对第一纹理贴图的材质参数进行调整,得到调整后的纹理贴图;
基于第一纹理贴图对初始虚拟模型进行处理,得到目标对象的目标虚拟模型,包括:
基于调整后的纹理贴图对初始虚拟模型进行处理,得到目标虚拟模型。
在一些实施例中,在基于第一纹理贴图对初始虚拟模型进行处理,得到目标对象的目标虚拟模型之前,还包括:
获取目标对象中指定部位的特征信息;
通过预设噪声算法对特征信息进行处理,生成指定部位对应的第二纹理贴图;
将第二纹理贴图与第一纹理贴图进行融合处理,得到融合后纹理贴图;
基于第一纹理贴图对初始虚拟模型进行处理,得到目标对象的目标虚拟模型,包括:
基于融合后的纹理贴图对初始虚拟模型进行处理,得到目标虚拟模型。
在一些实施例中,方法还包括:
基于目标对象的真实图像对目标虚拟模型进行优化处理,得到优化处理后的目标虚拟模型。
在一些实施例中,基于目标对象的真实图像对目标虚拟模型进行优化处理,得到优化处理后的目标虚拟模型,包括:
将目标虚拟模型输入训练后网络模型中;
基于训练后网络模型生成目标虚拟模型对应的虚拟图像;
计算虚拟图像与真实图像的相似度,并基于相似度调整目标虚拟模型,得到优化处理后的目标虚拟模型。
在一些实施例中,方法还包括:
采集样本对象对应的样本虚拟模型以及样本真实图像;
基于样本虚拟模型与样本真实图像对预设网络模型进行训练,得到训练后网络模型。
在一些实施例中,预设网络模型包括生成器网络和判别器网络;
基于样本虚拟模型与样本真实图像对预设网络模型进行训练,得到训练后网络模型,包括:
将样本虚拟模型输入生成器网络中,通过生成器网络生成样本虚拟模型对应的样本虚拟图像;
将样本虚拟图像与样本真实图像输入判别器网络中,通过判别器网络计算样本虚拟图像与样本真实图像之间的相似度;
基于相似度对预设网络模型的模型参数进行调整,直至预设网络模型收敛,得到训练后网络模型。
在一些实施例中,基于形状模型与骨架模型,确定目标对象的初始虚拟模型,包括:
将形状模型与骨架模型进行绑定,得到初始虚拟模型。
在一些实施例中,根据运动数据生成目标对象的骨架模型,包括:
对运动数据进行预处理,得到处理后运动数据;
对处理后运动数据进行标准化处理,得到标准化运动数据;
基于标准化运动数据生成骨架模型。
在一些实施例中,预处理至少包括:去除噪声、滤波和插值。
本申请实施例通过采集目标对象的运动数据,根据运动数据生成目标对象的骨架模型,以及获取目标对象的形状模型,基于形状模型与骨架模型,确定目标对象的初始虚拟模型,然后,获取目标对象的纹理图像,根据纹理图像生成第一纹理贴图;基于第一纹理贴图对初始虚拟模型进行处理,得到目标对象的目标虚拟模型。以此,可以提高虚拟模型的制作效率。
以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
其中,该计算机可读存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,Random Access Memory)、磁盘或光盘等。
由于该计算机可读存储介质中所存储的计算机程序,可以执行本申请实施例所提供的任一种虚拟模型的生成方法中的步骤,因此,可以实现本申请实施例所提供的任一种虚拟模型的生成方法所能实现的有益效果,详见前面的实施例,在此不再赘述。
以上对本申请实施例所提供的一种虚拟模型的生成方法、装置、计算机可读存储介质及计算机设备进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。

Claims (14)

1.一种虚拟模型的生成方法,其特征在于,所述方法包括:
采集目标对象的运动数据,根据所述运动数据生成所述目标对象的骨架模型;
获取所述目标对象的形状模型,基于所述形状模型与所述骨架模型,确定所述目标对象的初始虚拟模型;
获取所述目标对象的纹理图像,根据所述纹理图像生成第一纹理贴图;
基于所述第一纹理贴图对所述初始虚拟模型进行处理,得到所述目标对象的目标虚拟模型。
2.根据权利要求1所述的方法,其特征在于,所述根据所述纹理图像生成第一纹理贴图,包括:
将所述纹理图像与所述初始虚拟模型进行对齐,确定所述纹理图像中各像素点与所述初始虚拟模型表面的对应关系;
基于所述对应关系,将所述纹理图像映射至所述初始虚拟模型表面,生成所述纹理图像对应的第一纹理贴图。
3.根据权利要求1所述的方法,其特征在于,在所述基于所述第一纹理贴图对所述初始虚拟模型进行处理,得到所述目标对象的目标虚拟模型之前,还包括:
获取所述初始虚拟模型的表面材质信息;
基于所述表面材质信息对所述第一纹理贴图的材质参数进行调整,得到调整后的纹理贴图;
所述基于所述第一纹理贴图对所述初始虚拟模型进行处理,得到所述目标对象的目标虚拟模型,包括:
基于所述调整后的纹理贴图对所述初始虚拟模型进行处理,得到所述目标虚拟模型。
4.根据权利要求1所述的方法,其特征在于,在所述基于所述第一纹理贴图对所述初始虚拟模型进行处理,得到所述目标对象的目标虚拟模型之前,还包括:
获取所述目标对象中指定部位的特征信息;
通过预设噪声算法对所述特征信息进行处理,生成所述指定部位对应的第二纹理贴图;
将所述第二纹理贴图与所述第一纹理贴图进行融合处理,得到融合后纹理贴图;
所述基于所述第一纹理贴图对所述初始虚拟模型进行处理,得到所述目标对象的目标虚拟模型,包括:
基于所述融合后的纹理贴图对所述初始虚拟模型进行处理,得到所述目标虚拟模型。
5.根据权利要求1所述的方法,其特征在于,所述方法还包括:
基于所述目标对象的真实图像对所述目标虚拟模型进行优化处理,得到优化处理后的目标虚拟模型。
6.根据权利要求5所述的方法,其特征在于,所述基于所述目标对象的真实图像对所述目标虚拟模型进行优化处理,得到优化处理后的目标虚拟模型,包括:
将所述目标虚拟模型输入训练后网络模型中;
基于所述训练后网络模型生成所述目标虚拟模型对应的虚拟图像;
计算所述虚拟图像与所述真实图像的相似度,并基于所述相似度调整所述目标虚拟模型,得到所述优化处理后的目标虚拟模型。
7.根据权利要求6所述的方法,其特征在于,所述方法还包括:
采集样本对象对应的样本虚拟模型以及样本真实图像;
基于所述样本虚拟模型与所述样本真实图像对预设网络模型进行训练,得到所述训练后网络模型。
8.根据权利要求7所述的方法,其特征在于,所述预设网络模型包括生成器网络和判别器网络;
所述基于所述样本虚拟模型与所述样本真实图像对预设网络模型进行训练,得到所述训练后网络模型,包括:
将所述样本虚拟模型输入所述生成器网络中,通过所述生成器网络生成所述样本虚拟模型对应的样本虚拟图像;
将所述样本虚拟图像与所述样本真实图像输入所述判别器网络中,通过所述判别器网络计算所述样本虚拟图像与所述样本真实图像之间的相似度;
基于所述相似度对所述预设网络模型的模型参数进行调整,直至所述预设网络模型收敛,得到所述训练后网络模型。
9.根据权利要求1所述的方法,其特征在于,所述基于所述形状模型与所述骨架模型,确定所述目标对象的初始虚拟模型,包括:
将所述形状模型与所述骨架模型进行绑定,得到所述初始虚拟模型。
10.根据权利要求1所述的方法,其特征在于,所述根据所述运动数据生成所述目标对象的骨架模型,包括:
对所述运动数据进行预处理,得到处理后运动数据;
对所述处理后运动数据进行标准化处理,得到标准化运动数据;
基于所述标准化运动数据生成所述骨架模型。
11.根据权利要求10所述的方法,其特征在于,所述预处理至少包括:去除噪声、滤波和插值。
12.一种虚拟模型的生成装置,其特征在于,所述装置包括:
第一采集单元,用于采集目标对象的运动数据,根据所述运动数据生成所述目标对象的骨架模型;
第一获取单元,用于获取所述目标对象的形状模型,基于所述形状模型与所述骨架模型,确定所述目标对象的初始虚拟模型;
第二获取单元,用于获取所述目标对象的纹理图像,根据所述纹理图像生成第一纹理贴图;
第一处理单元,用于基于所述第一纹理贴图对所述初始虚拟模型进行处理,得到所述目标对象的目标虚拟模型。
13.一种计算机设备,包括存储器,处理器及存储在存储器上并在处理器上运行的计算机程序,其中,所述处理器执行所述程序时实现如权利要求1至11任一项所述的虚拟模型的生成方法。
14.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有多条指令,所述指令适于处理器进行加载,以执行权利要求1至11任一项所述的虚拟模型的生成方法。
CN202311082941.XA 2023-08-25 2023-08-25 一种虚拟模型的生成方法、装置、计算机设备及存储介质 Pending CN117095126A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311082941.XA CN117095126A (zh) 2023-08-25 2023-08-25 一种虚拟模型的生成方法、装置、计算机设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311082941.XA CN117095126A (zh) 2023-08-25 2023-08-25 一种虚拟模型的生成方法、装置、计算机设备及存储介质

Publications (1)

Publication Number Publication Date
CN117095126A true CN117095126A (zh) 2023-11-21

Family

ID=88781078

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311082941.XA Pending CN117095126A (zh) 2023-08-25 2023-08-25 一种虚拟模型的生成方法、装置、计算机设备及存储介质

Country Status (1)

Country Link
CN (1) CN117095126A (zh)

Similar Documents

Publication Publication Date Title
CN110163054B (zh) 一种人脸三维图像生成方法和装置
CN108961369A (zh) 生成3d动画的方法和装置
Lu et al. Illustrative interactive stipple rendering
CN111028343B (zh) 三维人脸模型的生成方法、装置、设备及介质
EP3381017A1 (en) Face reconstruction from a learned embedding
WO2022205762A1 (zh) 三维人体重建方法、装置、设备及存储介质
CN116091676B (zh) 虚拟对象的面部渲染方法及点云特征提取模型的训练方法
Zhao Application of virtual reality and artificial intelligence technology in fitness clubs
CN116228943B (zh) 虚拟对象面部重建方法、面部重建网络训练方法及装置
CN112489179B (zh) 目标模型的处理方法、装置、存储介质及计算机设备
CN110458924B (zh) 一种三维脸部模型建立方法、装置和电子设备
JP2023029984A (ja) 仮想イメージを生成するための方法、装置、電子機器及び可読記憶媒体
CN113705316A (zh) 获取虚拟图像的方法、装置、设备及存储介质
Marques et al. Deep spherical harmonics light probe estimator for mixed reality games
JP2008140385A (ja) キャラクタアニメーション時の皮膚のしわのリアルタイム表現方法及び装置
CN115082607A (zh) 虚拟角色头发渲染方法、装置、电子设备和存储介质
CN117333637B (zh) 三维场景的建模及渲染方法、装置及设备
CN117218300B (zh) 三维模型的构建方法、三维构建模型的训练方法及装置
CN116934948A (zh) 基于多视角视频的可重光照三维数字人构建方法及装置
CN116363288A (zh) 目标物的渲染方法、装置、存储介质及计算机设备
CN117095126A (zh) 一种虚拟模型的生成方法、装置、计算机设备及存储介质
CN114373034A (zh) 图像处理方法、装置、设备、存储介质及计算机程序
CN117523136B (zh) 人脸点位对应关系处理方法、人脸重建方法、装置及介质
Zeng et al. 3D plants reconstruction based on point cloud
Liu et al. 3D Animation Graphic Enhancing Process Effect Simulation Analysis

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination