CN116132653A - 三维模型的处理方法、装置、存储介质及计算机设备 - Google Patents

三维模型的处理方法、装置、存储介质及计算机设备 Download PDF

Info

Publication number
CN116132653A
CN116132653A CN202211610264.XA CN202211610264A CN116132653A CN 116132653 A CN116132653 A CN 116132653A CN 202211610264 A CN202211610264 A CN 202211610264A CN 116132653 A CN116132653 A CN 116132653A
Authority
CN
China
Prior art keywords
video
model
video frame
frame
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211610264.XA
Other languages
English (en)
Inventor
张煜
李红一
邵志兢
孙伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhuhai Prometheus Vision Technology Co ltd
Original Assignee
Zhuhai Prometheus Vision Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhuhai Prometheus Vision Technology Co ltd filed Critical Zhuhai Prometheus Vision Technology Co ltd
Priority to CN202211610264.XA priority Critical patent/CN116132653A/zh
Publication of CN116132653A publication Critical patent/CN116132653A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0127Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

本申请实施例公开了一种三维模型的处理方法、装置、存储介质及计算机设备,本申请实施例的方案,获取第一体积视频,并从第一体积视频中确定相邻的第一视频帧和第二视频帧;对第一视频帧和第二视频帧进行插值处理,生成第一视频帧和第二视频帧之间的中间视频帧;根据第一体积视频和中间视频帧,生成第二体积视频。相对于原始的第一体积视频,该第二体积视频的视频帧时间的时间间隔明显缩短,能够减少解码后的体积视频中视频帧之间动作不自然的情况,从而提升体积视频的播放效果。

Description

三维模型的处理方法、装置、存储介质及计算机设备
技术领域
本申请涉及通讯技术领域,具体涉及一种三维模型的处理方法、装置、存储介质及计算机设备。
背景技术
随着科技的发展,用户对各种影像资源的要求越来越高,为了给用户营造身临其境的感觉,越来越多的影像资源采用了体积视频的技术,体积视频是一种可以捕获三维空间中信息(如深度信息和色彩信息等)并生成三维模型序列的技术,这些三维模型连起来就形成了可以在任意视角观看的全新视频格式。
常规的体积视频的拍摄帧率最多是22帧/秒,帧与帧之间的时间间隔为45ms,这个时间间隔是比较长的,如果演员的动作很快,45ms内发生的动作变化很大。一般会按照一定的压缩算法存储体积视频,在播放时进行解码播放,如果演员的动作很快,而帧与帧之间的时间间隔比较长的情况下,会导致解码出的视频帧之间可能会出现动作不自然的情况。
发明内容
本申请实施例提供一种三维模型的处理方法、装置、存储介质及计算机设备,能够提升体积视频的播放效果。
本申请实施例提供一种三维模型的处理方法,包括:
获取第一体积视频,并从所述第一体积视频中确定相邻的第一视频帧和第二视频帧;
对所述第一视频帧和所述第二视频帧进行插值处理,生成所述第一视频帧和所述第二视频帧之间的中间视频帧;
根据所述第一体积视频和所述中间视频帧,生成第二体积视频。
相应地,本申请实施例还提供一种三维模型的处理装置,包括:
确定单元,用于获取第一体积视频,并从所述第一体积视频中确定相邻的第一视频帧和第二视频帧;
插值单元,用于对所述第一视频帧和所述第二视频帧进行插值处理,生成所述第一视频帧和所述第二视频帧之间的中间视频帧;
生成单元,用于根据所述第一体积视频和所述中间视频帧,生成第二体积视频。
此外,本申请实施例还提供一种计算机可读存储介质,其上存储有计算机程序,当所述计算机程序在计算机上运行时,使得所述计算机执行如本申请任一实施例提供的三维模型的处理方法。
此外,本申请实施例还提供一种计算机设备,包括处理器和存储器,所述存储器有计算机程序,所述处理器通过调用所述计算机程序,用于执行如本申请任一实施例提供的三维模型的处理方法。
本申请实施例提供的技术方案,获取第一体积视频,并从第一体积视频中确定相邻的第一视频帧和第二视频帧;对第一视频帧和第二视频帧进行插值处理,生成第一视频帧和第二视频帧之间的中间视频帧;根据第一体积视频和中间视频帧,生成第二体积视频。本申请实施例通过原始的第一体积视频中相邻的视频帧进行插值处理,生成中间视频帧,再结合原始的第一体积视频和中间视频帧,生成新的第二体积视频,相对于原始的第一体积视频,该第二体积视频的视频帧时间的时间间隔明显缩短,能够减少解码出的视频帧之间动作不自然的情况,从而提升体积视频的播放效果。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的三维模型的处理方法的应用场景示意图。
图2为本申请实施例提供的三维模型的处理方法的一种流程示意图。
图3为本申请实施例提供的三维模型的处理装置的一种结构示意图。
图4为本申请实施例提供的计算机设备的一种结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有付出创造性劳动前提下所获得的所有其他实施例,都属于本申请的保护范围。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
本申请实施例提供的三维模型的处理方法可以应用于对体积视频对应的三维模型序列进行处理。
其中,体积视频(Volumetric Video,又称容积视频、空间视频、体三维视频或6自由度视频等)是一种通过捕获三维空间中信息(如深度信息和色彩信息等)并生成三维模型序列的技术。相对于传统的视频,体积视频将空间的概念加入到视频中,用三维模型来更好的还原真实三维世界,而不是以二维的平面视频加上运镜来模拟真实三维世界的空间感。由于体积视频实质为三维模型序列,使得用户可以随自己喜好调整到任意视角进行观看,较二维平面视频具有更高的还原度和沉浸感。
可选地,在本申请实施例中,用于构成体积视频的三维模型可以按照如下方式重建得到:
先获取拍摄对象的不同视角的彩色图像和深度图像,以及彩色图像对应的相机参数;然后根据获取到的彩色图像及其对应的深度图像和相机参数,训练隐式表达拍摄对象三维模型的神经网络模型,并基于训练的神经网络模型进行等值面提取,实现对拍摄对象的三维重建,得到拍摄对象的三维模型。
应当说明的是,本申请实施例中对采用何种架构的神经网络模型不作具体限制,可由本领域技术人员根据实际需要选取。比如,可以选取不带归一化层的多层感知机(Multilayer Perceptron,MLP)作为模型训练的基础模型。
下面将对本申请实施例的三维模型的重建方法进行详细描述。
首先,可以同步采用多个彩色相机和深度相机对需要进行三维重建的目标物体(该目标物体即为拍摄对象)进行多视角的拍摄,得到目标物体在多个不同视角的彩色图像及对应的深度图像,即在同一拍摄时刻(实际拍摄时刻的差值小于或等于时间阈值即认为拍摄时刻相同),各视角的彩色相机将拍摄得到目标物体在对应视角的彩色图像,相应的,各视角的深度相机将拍摄得到目标物体在对应视角的深度图像。需要说明的是,目标物体可以是任意物体,包括但不限于人物、动物以及植物等生命物体,或者机械、家具、玩偶等非生命物体。
以此,目标物体在不同视角的彩色图像均具备对应的深度图像,即在拍摄时,彩色相机和深度相机可以采用相机组的配置,同一视角的彩色相机配合深度相机同步对同一目标物体进行拍摄。比如,可以搭建一摄影棚,该摄影棚中心区域为拍摄区域,环绕该拍摄区域,在水平方向和垂直方向每间隔一定角度配对设置有多组彩色相机和深度相机。当目标物体处于这些彩色相机和深度相机所环绕的拍摄区域时,即可通过这些彩色相机和深度相机拍摄得到该目标物体在不同视角的彩色图像及对应的深度图像。
此外,进一步获取每一彩色图像对应的彩色相机的相机参数。其中,相机参数包括彩色相机的内外参,可以通过标定确定,相机内参为与彩色相机自身特性相关的参数,包括但不限于彩色相机的焦距、像素等数据,相机外参为彩色相机在世界坐标系中的参数,包括但不限于彩色相机的位置(坐标)和相机的旋转方向等数据。
如上,在获取到目标物体在同一拍摄时刻的多个不同视角的彩色图像及其对应的深度图像之后,即可根据这些彩色图像及其对应深度图像对目标物体进行三维重建。区别于相关技术中将深度信息转换为点云进行三维重建的方式,本申请训练一神经网络模型用以实现对目标物体的三维模型的隐式表达,从而基于该神经网络模型实现对目标物体的三维重建。
可选地,本申请选用一不包括归一化层的多层感知机(Multilayer Perceptron,MLP)作为基础模型,按照如下方式进行训练:
基于对应的相机参数将每一彩色图像中的像素点转化为射线;
在射线上采样多个采样点,并确定每一采样点的第一坐标信息以及每一采样点距离像素点的SDF值;
将采样点的第一坐标信息输入基础模型,得到基础模型输出的每一采样点的预测SDF值以及预测RGB颜色值;
基于预测SDF值与SDF值之间的第一差异,以及预测RGB颜色值与像素点的RGB颜色值之间的第二差异,对基础模型的参数进行调整,直至满足预设停止条件;
将满足预设停止条件的基础模型作为隐式表达目标物体的三维模型的神经网络模型。
首先,基于彩色图像对应的相机参数将彩色图像中的一像素点转化为一条射线,该射线可以为经过像素点且垂直于彩色图像面的射线;然后,在该射线上采样多个采样点,采样点的采样过程可以分两步执行,可以先均匀采样部分采样点,然后再在基于像素点的深度值在关键处进一步采样多个采样点,以保证在模型表面附近可以采样到尽量多的采样点;然后,根据相机参数和像素点的深度值计算出采样得到的每一采样点在世界坐标系中的第一坐标信息以及每一采样点的有向距离(Signed Distance Field,SDF)值,其中,SDF值可以为像素点的深度值与采样点距离相机成像面的距离之间的差值,该差值为有符号的值,当差值为正值时,表示采样点在三维模型的外部,当差值为负值时,表示采样点在三维模型的内部,当差值为零时,表示采样点在三维模型的表面;然后,在完成采样点的采样并计算得到每一采样点对应的SDF值之后,进一步将采样点在世界坐标系的第一坐标信息输入基础模型(该基础模型被配置为将输入的坐标信息映射为SDF值和RGB颜色值后输出),将基础模型输出的SDF值记为预测SDF值,将基础模型输出的RGB颜色值记为预测RGB颜色值;然后,基于预测SDF值与采样点对应的SDF值之间的第一差异,以及预测RGB颜色值与采样点所对应像素点的RGB颜色值之间的第二差异,对基础模型的参数进行调整。
此外,对于彩色图像中的其它像素点,同样按照上述方式进行采样点采样,然后将采样点在世界坐标系的坐标信息输入至基础模型以得到对应的预测SDF值和预测RGB颜色值,用于对基础模型的参数进行调整,直至满足预设停止条件,比如,可以配置预设停止条件为对基础模型的迭代次数达到预设次数,或者配置预设停止条件为基础模型收敛。在对基础模型的迭代满足预设停止条件时,即得到能够对拍摄对象的三维模型进行准确地隐式表达的神经网络模型。最后,可以采用等值面提取算法对该神经网络模型进行三维模型表面的提取,从而得到拍摄对象的三维模型。
可选地,在一些实施例中,根据相机参数确定彩色图像的成像面;确定经过彩色图像中像素点且垂直于成像面的射线为像素点对应的射线。
其中,可以根据彩色图像对应的彩色相机的相机参数,确定该彩色图像在世界坐标系中的坐标信息,即确定成像面。然后,可以确定经过彩色图像中像素点且垂直于该成像面的射线为该像素点对应的射线。
可选地,在一些实施例中,根据相机参数确定彩色相机在世界坐标系中的第二坐标信息及旋转角度;根据第二坐标信息和旋转角度确定彩色图像的成像面。
可选地,在一些实施例中,在射线上等间距采样第一数量个第一采样点;根据像素点的深度值确定多个关键采样点,并根据关键采样点采样第二数量个第二采样点;将第一数量个的第一采样点与第二数量个的第二采样点确定为在射线上采样得到的多个采样点。
其中,先在射线上均匀采样n(即第一数量)个第一采样点,n为大于2的正整数;然后,再根据前述像素点的深度值,从n个第一采样点中确定出距离前述像素点最近的预设数量个关键采样点,或者从n个第一采样点中确定出距离前述像素点小于距离阈值的关键采样点;然后,根据确定出的关键采样点再采样m个第二采样点,m为大于1的正整数;最后,将采样得到的n+m个采样点确定为在射线上采样得到的多个采样点。其中,在关键采样点处再多采样m个采样点,可以使得模型的训练效果在三维模型表面处更为精确,从而提升三维模型的重建精度。
可选地,在一些实施例中,根据彩色图像对应的深度图像确定像素点对应的深度值;基于深度值计算每一采样点距离像素点的SDF值;根据相机参数与深度值计算每一采样点的坐标信息。
其中,在每一像素点对应的射线上采样了多个采样点后,对于每一采样点,根据相机参数、像素点的深度值确定彩色相机的拍摄位置与目标物体上对应点之间的距离,然后基于该距离逐一计算每一采样点的SDF值以及计算出每一采样点的坐标信息。
需要说明的是,在完成对基础模型的训练之后,对于给定的任意一个点的坐标信息,即可由完成训练的基础模型预测其对应的SDF值,该预测的SDF值即表示了该点与目标物体的三维模型的位置关系(内部、外部或者表面),实现对目标物体的三维模型的隐式表达,得到用于隐式表达目标物体的三维模型的神经网络模型。
最后,对以上神经网络模型进行等值面提取,比如可以采用等值面提取算法(Marching cubes,MC)绘制出三维模型的表面,得到三维模型表面,进而根据该三维模型表面得到目标物体的三维模型。
本申请提供的三维重建方案,通过神经网络去隐式建模目标物体的三维模型,并加入深度信息提高模型训练的速度和精度。采用本申请提供的三维重建方案,在时序上持续的对拍摄对象进行三维重建,即可得到拍摄对象在不同时刻的三维模型,对这些不同时刻的三维模型按时序构成的三维模型序列进行渲染处理,即可得到对拍摄对象拍摄所得到的体积视频。以此,可以针对任意拍摄对象进行“体积视频拍摄”,得到特定内容呈现的体积视频。比如,可以对跳舞的拍摄对象进行体积视频拍摄,得到可以在任意角度观看拍摄对象舞蹈的体积视频,可以对教学的拍摄对象进行体积视频拍摄,得到可以在任意角度观看拍摄对象教学的体积视频,等等。
需要说明的是,本申请以下实施例涉及的体积视频可采用以上体积视频拍摄方式所拍摄得到。
对于该体积视频,可以按照本申请实施例提供的三维模型的处理方法对其进行处理,增加体积视频的帧数,以减少体积视频中两帧视频帧之间的时间间隔过长的现象。
本申请实施例提供一种三维模型的处理方法、装置、计算机设备和计算机可读存储介质。其中,该三维模型的处理装置可以集成在计算机设备中,该计算机设备可以是服务器,也可以是终端等设备。
其中,服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、网络加速服务(Content Delivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。终端可以包括平板电脑、笔记本电脑、以及个人计算机(PC,Personal Computer),但并不局限于此。终端以及服务器可以通过有线或无线通信方式进行直接或间接地连接,本申请在此不做限制。本发明实施例可应用于各种场景,包括但不限于云技术、人工智能等。
例如,参见图1,以本申请实施例提供的三维模型的处理方法集成在计算机设备中为例,计算机设备获取待处理的第一体积视频,并从该第一体积视频中确定相邻的第一视频帧和第二视频帧,接下来,对第一视频帧和第二视频帧进行插值处理,生成第一视频帧和第二视频帧之间的中间视频帧,最后,结合原始的第一体积视频和中间视频帧,生成第二体积视频。
以下进行详细说明。需说明的是,以下实施例的描述顺序不作为对实施例优选顺序的限定。
本申请实施例将会从计算机设备的角度来描述该三维模型的处理方法的具体过程。
请参阅图2,图2为本申请实施例提供的三维模型的处理方法的一种流程示意图。本申请实施例提供的三维模型的处理方法的具体流程可以如下:
101、获取第一体积视频,并从第一体积视频中确定相邻的第一视频帧和第二视频帧。
体积视频简单来说就是将一连串的三维模型连接在一起,并让他们动起来,得到一个可以自由视角观看的体积视频。第一体积视频为拍摄制作得到的原始体积视频,该第一体积视频包括多个连续的视频帧,每一视频帧对应于一个三维模型。这些连续的三维模型序列也可以理解一个或者多个目标物的三维模型的一系列的姿态变换,在相邻帧之间,由于目标物的姿态的变换形成同一物体的不同姿态对应的三维模型。
计算机设备从第一体积视频中确定相邻的第一视频帧和第二视频帧。例如,在一实施例中,从第一体积视频中确定相邻的第一视频帧和第二视频帧,包括:将第一体积视频中每相邻的两个视频帧确定为第一视频帧和第二视频帧。该实施例中,将每相邻的两个视频帧确定为一组第一视频帧和第二视频帧,即该实施例会在每相邻两帧视频帧之间进行插值。
在一实施例中,获取第一体积视频,并从第一体积视频中确定相邻的第一视频帧和第二视频帧可以包括:获取第一体积视频以及第一体积视频的帧率,当帧率小于预设帧率时,从第一体积视频中确定相邻的第一视频帧和第二视频帧。
该实施例的方案中,根据第一体积视频的帧率判断是否对第一体积视频插值处理,当第一体积视频的帧率小于设定的阈值时,对第一体积视频进行插值处理。
102、对第一视频帧和第二视频帧进行插值处理,生成第一视频帧和第二视频帧之间的中间视频帧。
接下来,对第一视频帧和第二视频帧进行插值处理,由于第一视频帧和第二视频帧各自对应于一个三维模型,可以根据三维模型的相关数据来对第一视频帧和第二视频帧进行插值处理。
例如,在一实施例中,对第一视频帧和第二视频帧进行插值处理,生成第一视频帧和第二视频帧之间的中间视频帧,包括:获取第一视频帧对应的第一模型数据,以及第二视频帧对应的第二模型数据,其中,第一模型数据为第一体积视频的模型顶点在第一视频帧中的位置数据,第二模型数据为模型顶点在第二视频帧位置数据;对第一模型数据和第二模型数据进行插值处理,得到中间模型数据;根据中间模型数据,生成第一视频帧和第二视频帧之间的中间视频帧。
其中,三维模型主要包括网格数据和纹理数据,网格数据包括顶点数据、三角面数据、法线数据和纹理坐标,纹理数据为纹理贴图。
对于三维模型序列来说,三维模型发生动态变换,其模型顶点在三维坐标系中的位置也会发生变化。
本申请实施例中使用三维模型的模型数据进行插值处理。首先,获取第一视频帧对应的第一模型数据,以及第二视频帧对应的第二模型数据,第一模型数据为第一体积视频的模型顶点在第一视频帧中的位置数据,第二模型数据为模型顶点在第二视频帧位置数据。其中,位置数据可以是顶点在三维模型的三维坐标系中的位置坐标或者位置向量等。也就是说,本申请实施例使用网格数据中的顶点数据进行插值处理。
以顶点数据为位置坐标为例,位置坐标可以表示为三维坐标的形式,例如可以表示为(x,y,z),其中,x,y,z分别为三个维度上的坐标值。可以根据位置坐标对第一模型数据和第二模型数据插值处理,例如,按照线性插值算法,对第一模型数据和第二模型数据进行插值处理,生成至少一组中间模型数据。
例如,对于三维模型的某一个顶点A,该顶点A在第一视频帧中的位置坐标为(x1,y1,z1),在第二视频帧中的位置坐标为(x2,y2,z2)。对于三个维度的坐标值,分别进行插值计算,得到至少一个中间值。在一实施例中,可以进行插值计算,得到两个中间值,如x维度上,插值计算得到x1与x2之间的两个中间值x11和x12。按照这样的方式,可以在每个维度上插值计算,得到顶点A在第一视频帧和第二视频帧之间的两组中间模型数据,分别记为(x11,y11,z11)、(x12,y12,z12)。按照同样的方式可以得到三维模型的全部顶点在第一视频帧与第二视频帧之间的中间模型数据,根据这些顶点数据生成第一视频帧和第二视频帧之间的中间视频帧,其中,一组中间模型数据可以生成一个中间视频帧。
在一实施例中,可以按照上述方法在每两帧视频帧之间均匀地插入两帧视频帧,若原始的第一体积视频每秒有2帧,则经过上述插值处理后,生成的第二体积视频每秒可以有66帧视频帧。
可以理解的是,在第一体积视频的每相邻两帧视频帧之间插入的中间视频帧的数量可以由用户根据实际需要设置,如果播放的设备能够支持更高的帧率和处理速度,则可以插入更多的中间视频帧,反之,则可以插入较少的视频帧,例如,在每相邻两帧视频帧之间插入一帧视频帧。
在一实施例中,根据中间模型数据,生成第一视频帧和第二视频帧之间的中间视频帧,包括:获取第一视频帧的纹理数据和除第一模型数据之外的剩余网格数据,其中,第一视频帧位于第二视频帧之前;根据中间模型数据、纹理数据和剩余网格数据,生成第一视频帧和第二视频帧之间的中间视频帧。
如前文所言,三维模型的模型数据除了顶点数据之外,还有其他几种类型的数据,如纹理坐标,纹理数据等。在进行视频帧之间的插值时,除了顶点数据进行插值计算之外,其他几种类型的数据都可以采用位于中间视频帧之前的第一视频帧的数据,因此,在得到中间模型数据之后,获取第一视频帧的纹理数据和除第一模型数据之外的剩余网格数据,根据中间模型数据、纹理数据和剩余网格数据生成中间视频帧的完整模型数据。
103、根据第一体积视频和中间视频帧,生成第二体积视频。
在得到全部的中间视频帧的模型数据之后,根据第一体积视频以及每两个相邻的视频帧之间的这些中间视频帧,生成第二体积视频。
具体实施时,本申请不受所描述的各个步骤的执行顺序的限制,在不产生冲突的情况下,某些步骤还可以采用其它顺序进行或者同时进行。
由上可知,本申请实施例提供的三维模型的处理方法,获取第一体积视频,并从第一体积视频中确定相邻的第一视频帧和第二视频帧;对第一视频帧和第二视频帧进行插值处理,生成第一视频帧和第二视频帧之间的中间视频帧;根据第一体积视频和中间视频帧,生成第二体积视频。本申请实施例通过原始的第一体积视频中相邻的视频帧进行插值处理,生成中间视频帧,再结合原始的第一体积视频和中间视频帧,生成新的第二体积视频,相对于原始的第一体积视频,该第二体积视频的视频帧时间的时间间隔明显缩短,能够减少解码出的视频帧之间动作不自然的情况,从而提升体积视频的播放效果。
在生成第二体积视频之后,本申请实施例还可以进一步对第二体积视频压缩存储。例如,在一实施例中,根据第一体积视频和中间视频帧,生成第二体积视频之后,方法还包括:将第二体积视频拆分为多个三维模型序列;从三维模型序列中确定基准帧,将三维模型序列中除基准帧之外的其他帧确定为目标帧;获取基准帧对应的第三模型数据,以及目标帧对应的第四模型数据,其中,第三模型数据为模型顶点在基准帧中的位置数据,第四模型数据为模型顶点在目标帧中的位置数据;根据第三模型数据和第四模型数据,计算目标帧相对于基准帧的变换信息,变换信息包括模型顶点对应的关联骨骼和关联骨骼对应的权重,以及模型骨骼的运动参数;将多个三维模型序列的基准帧的第三模型数据,以及目标帧对应的变换信息存储为第二体积视频的模型文件。
第二体积视频可以拆分为至少一个三维模型序列。例如,当该第二体积视频的时长较长,从而包含的帧数较多时,可以将该第二体积视频的全部三维模型序列拆分为多个帧数较少的三维模型序列,将拆分后的每一个三维模型序列作为待处理的三维模型序列。
三维模型序列中每一帧对应的模型都是对应于同样的目标物体,所以它们对应于同样的骨骼,并且骨骼的数量、模型顶点的数量都是相同的,只是骨骼和模型顶点在不同视频帧中的位置可能不同。
其中,骨骼在视频帧中位置是指该骨骼的中心点在三维模型对应的三维坐标系中的坐标,模型顶点在视频帧中位置是指该模型顶点在该三维坐标系中的坐标,其中,一个三维模型序列对应一个三维坐标系,也就是说,在该三维模型序列中,三维模型对应的坐标原点是固定不变的。
从待处理的三维模型序列中选择一个帧作为基准帧。例如,将三维模型序列中位于中间时刻的帧作为基准帧。又例如,将三维模型序列中的第一帧作为基准帧。又例如,为了提高后续计算变换信息的准确度,选择三维模型序列中模型的各个部位没有发生黏连的帧作为基准帧。在选择基准帧之后,将三维模型序列中除基准模型之外的其他帧确定为目标帧,目标帧的数量可以为1个或者1个以上,对于每一个目标帧,按照下文的变换方式得到其对应的变换信息。
三维模型发生动态变换,其模型顶点在三维坐标系中的位置也会发生变化。而模型顶点的变换是由骨骼的运动决定的,当三维模型由基准帧中的姿态变化到目标帧中的姿态,模型中的骨骼会发生运动,骨骼的运动带动模型顶点的运动,基于这样的原理,建立模型顶点与骨骼之间的绑定关系。当三维模型由基准帧中的姿态变化到目标帧中的姿态,根据基准帧对应的模型数据和目标帧对应的模型数据得到每个骨骼的运动信息。之后,可以根据模型顶点在基准帧中的位置信息以及该运动信息,可以还原得到模型顶点在目标帧中的位置信息。基于这样的原理,在存储该三维模型序列时,对于目标帧来说,可以只存储对应的变换信息,无需存储模型数据,当需要对三维模型序列进行渲染时,只需要获取存储的基准帧的模型数据和其他帧的变换信息,并对变换信息还原处理,即可得到三维模型序列的各个帧对应的模型数据,通过该方案,可以减小第二体积视频占用的存储空间。
对于模型运动来说,已知运动前的位置数据和运动后的位置数据,可以根据这两个位置数据计算出模型运动对应的运动参数。此外,骨骼的运动带动模型顶点的运动,但是对于一个模型顶点来说,其位置会受到哪些骨骼的影响是不确定的,并且不同的骨骼产生的影响的大小也是不同的,因此,本申请还提出了关联骨骼以及关联骨骼的权重。在下文的迭代计算中,可以确定出模型顶点到的关联骨骼,关联骨骼的权重,以及各个模型骨骼的运动参数。
例如,在一实施例中,根据第三模型数据和第四模型数据,计算目标帧相对于基准帧的变换信息的步骤包括:确定三维模型序列的模型骨骼;对模型骨骼对应的权重和运动参数初始化处理;根据第三模型数据和第四模型数据,对模型骨骼对应的权重和运动参数迭代更新,得到目标帧对应的变换信息。
其中,三维模型序列中模型的骨骼数量是已知的,可以根据三维模型序列中目标对象的类型设置对应的骨骼数量。在计算变换信息时,先对各个模型骨骼对应的权重和运动参数初始化处理,其中,各个参数的具体初始化参数值可以根据多次试验设置一个合适的值。在初始化完成后,根据第三模型数据和第四模型数据对对模型骨骼对应的权重和运动参数迭代更新,得到目标帧对应的变换信息。
例如,在一实施例中,确定三维模型序列中的三维模型的骨骼数量;根据骨骼数量对三维模型的模型顶点进行聚类处理,以确定每一模型骨骼对应的模型顶点;根据每一模型骨骼对应的模型顶点,确定模型骨骼在每一帧的中心点坐标;根据第三模型数据和模型骨骼在基准帧的中心点坐标,得到模型顶点在基准帧中的第一相对位置,第一相对位置包括模型顶点相对于每一个模型骨骼的位置信息;根据第四模型数据和模型骨骼在目标帧的中心点坐标,得到模型顶点在目标帧中的第二相对位置,第二相对位置包括模型顶点相对于每一个模型骨骼的位置信息;根据第一相对位置和第二相对位置,对模型骨骼对应的权重和运动参数迭代更新,得到目标帧对应的变换信息。
在一实施例中,运动参数包括旋转矩阵和平移矩阵。对模型骨骼对应的权重和运动参数迭代更新,得到目标帧对应的变换信息的步骤包括:根据模型骨骼对应的权重、旋转矩阵和平移矩阵,以及第一相对位置,计算模型顶点在目标帧中的估算位置数据;计算估算位置数据与第二相对位置之间的误差;基于误差更新关联骨骼对应的权重、旋转矩阵和平移矩阵,并基于更新后的权重、旋转矩阵和平移矩阵返回执行根据模型骨骼对应的权重、旋转矩阵和平移矩阵,以及第一相对位置,计算模型顶点在目标帧中的估算位置数据的步骤,直至满足迭代终止条件,得到目标帧对应的变换信息。
经过上述处理,得到了每一个目标帧对应的变换信息,该变换信息包括模型顶点对应的关联骨骼和关联骨骼对应的权重,以及全部模型骨骼的转换矩阵和平移矩阵。
得到三维模型序列中除基准帧之外的其他帧的变换信息后,在存储该三维模型序列时,可以只存储该三维模型序列中基准帧的第三模型数据以及目标帧对应的变换信息。也就是说,不再存储每一帧的模型数据,而是将基准帧的第三模型数据,以及目标帧对应的变换信息存储为三维模型序列的模型文件。由于变换信息的数据量远小于原始的模型数据的数据量,因此极大地减小了需要存储的数据量,减小了三维模型序列占用的存储空间。
当需要对三维模型序列进行渲染时,只需要获取存储的基准帧的模型数据和其他帧的变换信息,并对变换信息还原处理,即可得到三维模型序列的各个帧对应的模型数据。例如,在一些实施例中,将多个三维模型序列的基准帧的第三模型数据,以及目标帧对应的变换信息存储为第二体积视频的模型文件之后,方法还包括:当需要播放第二体积视频时,确定第二体积视频对应的三维模型序列;读取三维模型序列的模型文件以获取三维模型序列的基准帧的第三模型数据,以及三维模型序列的目标帧的变换信息;根据第三模型数据和变换信息,还原得到目标帧对应的第四模型数据;根据第三模型数据和第四模型数据,得到三维模型序列对应的模型序列数据;对三维模型序列的模型序列数据进行渲染处理,并播放渲染处理后的三维模型序列。
该实施例中,当需要对三维模型序列渲染处理得到目标体积视频时,确定目标体积视频对应的至少一个三维模型序列,对于每一个三维模型序列读取三维模型序列的模型文件以获取三维模型序列的基准帧的第三模型数据,以及三维模型序列的目标帧的变换信息,按照上文中的公式一计算得到目标帧对应的第四模型数据,根据基准帧的第三模型数据和全部目标帧的第四模型数据,得到三维模型序列对应的模型序列数据,最后对至少一个三维模型序列的模型序列数据进行渲染数据,得到目标体积视频。例如,通过渲染引擎读取该三维模型序列的模型文件以获取三维模型序列的基准帧的第三模型数据,以及三维模型序列的目标帧的变换信息,并根据这些还原得到三维模型序列对应的模型序列数据,由于变换信息的数据量较小,因此可以减少渲染引擎读取文件时的码流,并且该还原过程占用的时间小于加压缩模型数据占用的时间,可以减少解码模型文件占用的时间和资源消耗。
为了更好地实施以上方法,本申请实施例还提供一种三维模型的处理装置。该三维模型的处理装置可以集成在计算机设备,比如服务器或终端等设备中,该终端可以包括平板电脑、笔记本电脑和/或个人计算机等。
如图3所示,该三维模型的处理装置可以包括:
确定单元301,用于获取第一体积视频,并从所述第一体积视频中确定相邻的第一视频帧和第二视频帧;
插值单元302,用于对所述第一视频帧和所述第二视频帧进行插值处理,生成所述第一视频帧和所述第二视频帧之间的中间视频帧;
生成单元303,用于根据所述第一体积视频和所述中间视频帧,生成第二体积视频。
在一些实施例中,确定单元301,用于将所述第一体积视频中每相邻的两个视频帧确定为所述第一视频帧和所述第二视频帧。
在一些实施例中,插值单元302,用于获取所述第一视频帧对应的第一模型数据,以及所述第二视频帧对应的第二模型数据,其中,所述第一模型数据为所述第一体积视频的模型顶点在所述第一视频帧中的位置数据,所述第二模型数据为所述模型顶点在所述第二视频帧位置数据;对所述第一模型数据和所述第二模型数据进行插值处理,得到中间模型数据;根据所述中间模型数据,生成所述第一视频帧和所述第二视频帧之间的中间视频帧。
在一些实施例中,插值单元302,用于按照线性插值算法,对所述第一模型数据和所述第二模型数据进行插值处理,生成至少一组所述中间模型数据。
在一些实施例中,插值单元302,用于获取所述第一视频帧的纹理数据和除所述第一模型数据之外的剩余网格数据,其中,所述第一视频帧位于所述第二视频帧之前;
根据所述中间模型数据、所述纹理数据和所述剩余网格数据,生成所述第一视频帧和所述第二视频帧之间的中间视频帧。
在一些实施例中,该装置还包括:
压缩单元,用于将所述第二体积视频拆分为多个三维模型序列;从所述三维模型序列中确定基准帧,将所述三维模型序列中除所述基准帧之外的其他帧确定为目标帧;获取所述基准帧对应的第三模型数据,以及所述目标帧对应的第四模型数据,其中,所述第三模型数据为模型顶点在所述基准帧中的位置数据,所述第四模型数据为所述模型顶点在所述目标帧中的位置数据;根据所述第三模型数据和所述第四模型数据,计算所述目标帧相对于所述基准帧的变换信息,所述变换信息包括所述模型顶点对应的关联骨骼和所述关联骨骼对应的权重,以及模型骨骼的运动参数;将多个所述三维模型序列的所述基准帧的第三模型数据,以及所述目标帧对应的变换信息存储为所述第二体积视频的模型文件。
在一些实施例中,该装置还包括:
解压单元,用于当需要播放所述第二体积视频时,确定第二体积视频对应的至少一个三维模型序列;对于所述至少一个三维模型序列中的每一个所述三维模型序列,读取所述三维模型序列的模型文件以获取所述三维模型序列的基准帧的第三模型数据,以及所述三维模型序列的所述目标帧的所述变换信息;根据所述第三模型数据和所述变换信息,还原得到所述目标帧对应的第四模型数据;根据所述第三模型数据和所述第四模型数据,得到所述三维模型序列对应的模型序列数据;对所述至少一个三维模型序列的模型序列数据进行渲染处理,并播放渲染处理后的第二体积视频。
应当说明的是,本申请实施例提供的三维模型的处理装置与上文实施例中的三维模型的处理方法属于同一构思,通过该三维模型的处理装置可以实现三维模型的处理方法实施例中提供的任一方法,其具体实现过程详见三维模型的处理方法实施例,此处不再赘述。
由上可知,本申请实施例提出的三维模型的处理装置,获取第一体积视频,并从第一体积视频中确定相邻的第一视频帧和第二视频帧;对第一视频帧和第二视频帧进行插值处理,生成第一视频帧和第二视频帧之间的中间视频帧;根据第一体积视频和中间视频帧,生成第二体积视频。本申请实施例通过原始的第一体积视频中相邻的视频帧进行插值处理,生成中间视频帧,再结合原始的第一体积视频和中间视频帧,生成新的第二体积视频,相对于原始的第一体积视频,该第二体积视频的视频帧时间的时间间隔明显缩短,能够减少解码出的视频帧之间动作不自然的情况,从而提升体积视频的播放效果。
本申请实施例还提供一种计算机设备,如图4所示,其示出了本申请实施例所涉及的计算机设备的一种结构示意图,具体来讲:
该计算机设备可以包括一个或者一个以上处理核心的处理器401、一个或一个以上计算机可读存储介质的存储器402、电源403和输入单元404等部件。本领域技术人员可以理解,图4中示出的计算机设备结构并不构成对计算机设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。其中:
处理器401是该计算机设备的控制中心,利用各种接口和线路连接整个计算机设备的各个部分,通过运行或执行存储在存储器402内的软件程序和/或模块,以及调用存储在存储器402内的数据,执行计算机设备的各种功能和处理数据。可选的,处理器401可包括一个或多个处理核心;优选的,处理器401可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和计算机程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器401中。
存储器402可用于存储软件程序以及模块,处理器401通过运行存储在存储器402的软件程序以及模块,从而执行各种功能应用以及数据处理。存储器402可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的计算机程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据计算机设备的使用所创建的数据等。此外,存储器402可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。相应地,存储器402还可以包括存储器控制器,以提供处理器401对存储器402的访问。
计算机设备还包括给各个部件供电的电源403,优选的,电源403可以通过电源管理系统与处理器401逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。电源403还可以包括一个或一个以上的直流或交流电源、再充电系统、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。
该计算机设备还可包括输入单元404,该输入单元404可用于接收输入的数字或字符信息通讯,以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。
尽管未示出,计算机设备还可以包括显示单元等,在此不再赘述。具体在本实施例中,计算机设备中的处理器401会按照如下的指令,将一个或一个以上的计算机程序的进程对应的可执行文件加载到存储器402中,并由处理器401来运行存储在存储器402中的计算机程序,从而实现各种功能,如下:
获取第一体积视频,并从所述第一体积视频中确定相邻的第一视频帧和第二视频帧;
对所述第一视频帧和所述第二视频帧进行插值处理,生成所述第一视频帧和所述第二视频帧之间的中间视频帧;
根据所述第一体积视频和所述中间视频帧,生成第二体积视频。
本领域普通技术人员可以理解,上述实施例的各种方法中的全部或部分步骤可以通过计算机程序来完成,或通过计算机程序控制相关的硬件来完成,该计算机程序可以存储于一计算机可读存储介质中,并由处理器进行加载和执行。
为此,本申请实施例提供一种计算机可读存储介质,其中存储有计算机程序,该计算机程序能够被处理器进行加载,以执行本申请实施例所提供的任意一种三维模型的处理方法。
以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
其中,该计算机可读存储介质可以包括但不限于:只读存储器(ROM,Read OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁盘或光盘等。
由于该计算机可读存储介质中所存储的指令,可以执行本申请实施例所提供的任一种三维模型的处理中的步骤,因此,可以实现本申请实施例所提供的任一种三维模型的处理所能实现的有益效果,详见前面的实施例,在此不再赘述。
此外,本申请中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或模块的过程、方法、系统、产品或设备没有限定于已列出的步骤或模块,而是某些实施例还包括没有列出的步骤或模块,或某些实施例还包括对于这些过程、方法、产品或设备固有的其它步骤或模块。
以上对本申请实施例所提供的三维模型的处理方法、装置、存储介质及计算机设备进行了详细介绍。本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。

Claims (10)

1.一种三维模型的处理方法,其特征在于,包括:
获取第一体积视频,并从所述第一体积视频中确定相邻的第一视频帧和第二视频帧;
对所述第一视频帧和所述第二视频帧进行插值处理,生成所述第一视频帧和所述第二视频帧之间的中间视频帧;
根据所述第一体积视频和所述中间视频帧,生成第二体积视频。
2.如权利要求1所述的方法,其特征在于,所述从所述第一体积视频中确定相邻的第一视频帧和第二视频帧,包括:
将所述第一体积视频中每相邻的两个视频帧确定为所述第一视频帧和所述第二视频帧。
3.如权利要求1所述的方法,其特征在于,所述对所述第一视频帧和所述第二视频帧进行插值处理,生成所述第一视频帧和所述第二视频帧之间的中间视频帧,包括:
获取所述第一视频帧对应的第一模型数据,以及所述第二视频帧对应的第二模型数据,其中,所述第一模型数据为所述第一体积视频的模型顶点在所述第一视频帧中的位置数据,所述第二模型数据为所述模型顶点在所述第二视频帧位置数据;
对所述第一模型数据和所述第二模型数据进行插值处理,得到中间模型数据;
根据所述中间模型数据,生成所述第一视频帧和所述第二视频帧之间的中间视频帧。
4.如权利要求3所述的方法,其特征在于,所述对所述第一模型数据和所述第二模型数据进行插值处理,得到中间模型数据,包括:
按照线性插值算法,对所述第一模型数据和所述第二模型数据进行插值处理,生成至少一组所述中间模型数据。
5.如权利要求3所述的方法,其特征在于,所述根据所述中间模型数据,生成所述第一视频帧和所述第二视频帧之间的中间视频帧,包括:
获取所述第一视频帧的纹理数据和除所述第一模型数据之外的剩余网格数据,其中,所述第一视频帧位于所述第二视频帧之前;
根据所述中间模型数据、所述纹理数据和所述剩余网格数据,生成所述第一视频帧和所述第二视频帧之间的中间视频帧。
6.如权利要求1至5任一项所述的方法,其特征在于,所述根据所述第一体积视频和所述中间视频帧,生成第二体积视频之后,所述方法还包括:
将所述第二体积视频拆分为多个三维模型序列;
从所述三维模型序列中确定基准帧,将所述三维模型序列中除所述基准帧之外的其他帧确定为目标帧;
获取所述基准帧对应的第三模型数据,以及所述目标帧对应的第四模型数据,其中,所述第三模型数据为模型顶点在所述基准帧中的位置数据,所述第四模型数据为所述模型顶点在所述目标帧中的位置数据;
根据所述第三模型数据和所述第四模型数据,计算所述目标帧相对于所述基准帧的变换信息,所述变换信息包括所述模型顶点对应的关联骨骼和所述关联骨骼对应的权重,以及模型骨骼的运动参数;
将多个所述三维模型序列的所述基准帧的第三模型数据,以及所述目标帧对应的变换信息存储为所述第二体积视频的模型文件。
7.如权利要求6所述的方法,其特征在于,所述将多个所述三维模型序列的所述基准帧的第三模型数据,以及所述目标帧对应的变换信息存储为所述第二体积视频的模型文件之后,所述方法还包括:
当需要播放所述第二体积视频时,确定第二体积视频对应的三维模型序列;
读取所述三维模型序列的模型文件以获取所述三维模型序列的基准帧的第三模型数据,以及所述三维模型序列的所述目标帧的所述变换信息;
根据所述第三模型数据和所述变换信息,还原得到所述目标帧对应的第四模型数据;
根据所述第三模型数据和所述第四模型数据,得到所述三维模型序列对应的模型序列数据;
对所述三维模型序列的模型序列数据进行渲染处理,并播放渲染处理后的三维模型序列。
8.一种三维模型的处理装置,其特征在于,包括:
确定单元,用于获取第一体积视频,并从所述第一体积视频中确定相邻的第一视频帧和第二视频帧;
插值单元,用于对所述第一视频帧和所述第二视频帧进行插值处理,生成所述第一视频帧和所述第二视频帧之间的中间视频帧;
生成单元,用于根据所述第一体积视频和所述中间视频帧,生成第二体积视频。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,当所述计算机程序在计算机上运行时,使得所述计算机执行如权利要求1至7任一项所述的三维模型的处理方法。
10.一种计算机设备,包括处理器和存储器,所述存储器存储有计算机程序,其特征在于,所述处理器通过调用所述计算机程序,用于执行如权利要求1至7任一项所述的三维模型的处理方法。
CN202211610264.XA 2022-12-14 2022-12-14 三维模型的处理方法、装置、存储介质及计算机设备 Pending CN116132653A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211610264.XA CN116132653A (zh) 2022-12-14 2022-12-14 三维模型的处理方法、装置、存储介质及计算机设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211610264.XA CN116132653A (zh) 2022-12-14 2022-12-14 三维模型的处理方法、装置、存储介质及计算机设备

Publications (1)

Publication Number Publication Date
CN116132653A true CN116132653A (zh) 2023-05-16

Family

ID=86309119

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211610264.XA Pending CN116132653A (zh) 2022-12-14 2022-12-14 三维模型的处理方法、装置、存储介质及计算机设备

Country Status (1)

Country Link
CN (1) CN116132653A (zh)

Similar Documents

Publication Publication Date Title
WO2020192568A1 (zh) 人脸图像生成方法、装置、设备及存储介质
WO2022205760A1 (zh) 三维人体重建方法、装置、设备及存储介质
CN113272870A (zh) 用于逼真的实时人像动画的系统和方法
EP3341919A1 (en) Image regularization and retargeting system
WO2020247174A1 (en) Single image-based real-time body animation
US11354774B2 (en) Facial model mapping with a neural network trained on varying levels of detail of facial scans
US20240046557A1 (en) Method, device, and non-transitory computer-readable storage medium for reconstructing a three-dimensional model
US11640687B2 (en) Volumetric capture and mesh-tracking based machine learning 4D face/body deformation training
CN115984447B (zh) 图像渲染方法、装置、设备和介质
CN114202615A (zh) 人脸表情的重建方法、装置、设备和存储介质
CN116342782A (zh) 生成虚拟形象渲染模型的方法和装置
CN110415322B (zh) 虚拟对象模型的动作指令的生成方法和装置
CN116095353A (zh) 基于体积视频的直播方法、装置、电子设备及存储介质
CN115442658B (zh) 直播方法、装置、存储介质、电子设备及产品
CN116245989A (zh) 体积视频的处理方法、装置、存储介质及计算机设备
CN115546408A (zh) 模型简化方法、装置、存储介质、电子设备及产品
CA3177593A1 (en) Transformer-based shape models
CN116132653A (zh) 三维模型的处理方法、装置、存储介质及计算机设备
WO2022248042A1 (en) Neural radiance field rig for human 3d shape and appearance modelling
CN115984943B (zh) 面部表情捕捉及模型训练方法、装置、设备、介质及产品
CN115578542A (zh) 三维模型的处理方法、装置、设备及计算机可读存储介质
US20240135616A1 (en) Automated system for generation of facial animation rigs
CN115442634A (zh) 图像压缩方法、装置、存储介质、电子设备及产品
US20240212252A1 (en) Method and apparatus for training video generation model, storage medium, and computer device
CN116310245A (zh) 体积视频上挂载道具的方法、装置、介质、设备及产品

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination