CN117541703A - 一种数据渲染方法、装置、设备及计算机可读存储介质 - Google Patents
一种数据渲染方法、装置、设备及计算机可读存储介质 Download PDFInfo
- Publication number
- CN117541703A CN117541703A CN202410029685.6A CN202410029685A CN117541703A CN 117541703 A CN117541703 A CN 117541703A CN 202410029685 A CN202410029685 A CN 202410029685A CN 117541703 A CN117541703 A CN 117541703A
- Authority
- CN
- China
- Prior art keywords
- model
- rendered
- dimensional
- sequence
- view
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000009877 rendering Methods 0.000 title claims abstract description 260
- 238000000034 method Methods 0.000 title claims abstract description 85
- 230000000007 visual effect Effects 0.000 claims abstract description 85
- 239000000463 material Substances 0.000 claims abstract description 81
- 238000012545 processing Methods 0.000 claims description 27
- 230000015654 memory Effects 0.000 claims description 24
- 238000004590 computer program Methods 0.000 claims description 20
- 238000000605 extraction Methods 0.000 claims description 11
- 230000001186 cumulative effect Effects 0.000 claims description 10
- 238000003062 neural network model Methods 0.000 claims description 10
- 238000002834 transmittance Methods 0.000 claims description 10
- 238000012549 training Methods 0.000 claims description 9
- 230000010354 integration Effects 0.000 claims description 5
- 230000000694 effects Effects 0.000 abstract description 9
- 238000013473 artificial intelligence Methods 0.000 abstract description 7
- 238000005516 engineering process Methods 0.000 abstract description 5
- 230000008569 process Effects 0.000 description 29
- 238000009792 diffusion process Methods 0.000 description 20
- 238000013528 artificial neural network Methods 0.000 description 14
- 238000005286 illumination Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 235000019587 texture Nutrition 0.000 description 9
- 239000003086 colorant Substances 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000033228 biological regulation Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 239000004744 fabric Substances 0.000 description 2
- 235000019580 granularity Nutrition 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013529 biological neural network Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Image Generation (AREA)
Abstract
本申请提供了一种数据渲染方法、装置、设备及计算机可读存储介质,应用于云技术、人工智能、智慧交通、地图、游戏和车载等各种数据渲染场景;该数据渲染方法包括:对待处理渲染素材进行模型重构,得到待渲染三维模型;对待渲染三维模型进行特征提取,得到待渲染三维特征;基于待渲染三维特征,在视角方向序列上进行颜色预测,得到视角图像序列,其中,视角方向序列中的视角方向表示三维空间中的模型呈现视角,视角图像序列中的视角图像为视角方向上的模型图像;基于待渲染三维模型和视角图像序列,确定目标三维模型;基于目标三维模型渲染虚拟对象。通过本申请,能够提升数据渲染效果。
Description
技术领域
本申请涉及计算机应用领域中的数据处理技术,尤其涉及一种数据渲染方法、装置、设备及计算机可读存储介质。
背景技术
在虚拟场景中,常常存在渲染虚拟对象的处理。一般来说,为了渲染虚拟对象,通常基于二维图像进行虚拟对象的渲染。然而,由于上述渲染虚拟对象的过程是基于单一的二维图像实现的,影响了虚拟对象的渲染质量,进而影响了数据渲染效果。
发明内容
本申请实施例提供一种数据渲染方法、装置、设备、计算机可读存储介质及计算机程序产品,能够提升数据渲染效果。
本申请实施例的技术方案是这样实现的:
本申请实施例提供一种数据渲染方法,所述方法包括:
对待处理渲染素材进行模型重构,得到待渲染三维模型;
对所述待渲染三维模型进行特征提取,得到待渲染三维特征;
基于所述待渲染三维特征,在视角方向序列上进行颜色预测,得到视角图像序列,其中,所述视角方向序列中的视角方向表示三维空间中的模型呈现视角,所述视角图像序列中的视角图像为所述视角方向上的模型图像;
基于所述待渲染三维模型和所述视角图像序列,确定目标三维模型;
基于所述目标三维模型渲染虚拟对象。
本申请实施例提供一种数据渲染装置,所述数据渲染装置包括:
模型重构模块,用于对待处理渲染素材进行模型重构,得到待渲染三维模型;
特征提取模块,用于对所述待渲染三维模型进行特征提取,得到待渲染三维特征;
图像确定模块,用于基于所述待渲染三维特征,在视角方向序列上进行颜色预测,得到视角图像序列,其中,所述视角方向序列中的视角方向表示三维空间中的模型呈现视角,所述视角图像序列中的视角图像为所述视角方向上的模型图像;
模型确定模块,用于将所述视角图像序列整合为目标三维模型;
对象渲染模块,用于基于所述目标三维模型渲染虚拟对象。
在本申请实施例中,所述模型确定模块,还用于遍历所述视角图像序列,对遍历到
的第i个所述视角图像执行以下处理,其中,,N为所述视角图像序列中所述视角图像
的数量,i和N为正整数:结合第i个条件三维模型和第i个所述视角图像,预测第i+1个目标
视角图像,其中,当时,第i个所述条件三维模型为所述待渲染三维模型,当时,第
i个所述条件三维模型为第i-1个所述条件三维模型和第i个所述目标视角图像的结合结
果;结合第i个所述条件三维模型和第i+1个所述目标视角图像,得到第i+1个所述条件三维
模型;当遍历完成时,将遍历获得的第N个所述条件三维模型确定为所述目标三维模型。
在本申请实施例中,所述特征提取模块,还用于遍历所述待渲染三维模型中的各个待渲染顶点,针对遍历到的每个待渲染顶点执行以下处理:获取所述待渲染顶点在第一维度平面的第一顶点特征、在第二维度平面的第二顶点特征、以及在第三维度平面的第三顶点特征;结合所述第一顶点特征、所述第二顶点特征和所述第三顶点特征,获得顶点三维特征;基于遍历获得的与各个所述待渲染顶点对应的各个所述顶点三维特征,确定所述待渲染三维特征。
在本申请实施例中,所述特征提取模块,还用于将遍历获得的与各个所述待渲染顶点对应的各个所述顶点三维特征,划分为三维特征序列;通过迭代j遍历所述三维特征序列,将遍历到的第j个三维特征和第j+1个三维特征,结合为第j+1个目标三维特征,其中,j为正整数;当遍历完所述三维特征序列时,基于遍历j获得的各个所述目标三维特征,得到与所述三维特征序列对应的目标三维特征序列;将所述目标三维特征序列组合为所述待渲染三维特征。
在本申请实施例中,所述图像确定模块,还用于遍历所述视角方向序列,对每个遍历到的所述视角方向执行以下处理:在所述视角方向上对所述待渲染三维特征进行位置编码,得到颜色参数和体密度参数;结合所述颜色参数和所述体密度参数进行颜色预测,得到所述视角图像;当遍历完所述视角方向序列时,由每个所述视角方向对应的所述视角图像,获得与所述视角方向序列对应的所述视角图像序列。
在本申请实施例中,所述图像确定模块,还用于确定所述待渲染三维模型在所述视角方向上的模型视角位置;沿所述视角方向,获取从相机近边界到所述模型视角位置的累积透射率;将所述累积透射率、所述颜色参数和所述体密度参数,组合为待积分对象;将所述待积分对象在所述相机近边界和相机远边界之间的积分结果,确定为所述视角图像。
在本申请实施例中,所述模型重构通过素材重构模型实现,所述数据渲染装置还包括模型训练模块,用于获取渲染素材样本、以及所述渲染素材样本的三维模型标签;采用待训练模型对所述渲染素材样本进行模型重构,得到三维预测模型,其中,所述待训练模型为待训练的用于对渲染素材进行模型重构的神经网络模型;基于所述三维模型标签和所述三维预测模型之间的差异,训练所述待训练模型,得到所述素材重构模型。
在本申请实施例中,所述模型重构模块,用于对所述待处理渲染素材进行模型重构,得到待检测三维模型;将所述待检测三维模型转换至视觉空间,得到待呈现模型;基于所述待呈现模型确定待修正信息;基于所述待修正信息修正所述待检测三维模型,得到所述待渲染三维模型。
在本申请实施例中,所述数据渲染装置还包括图像复用模块,用于将所述视角图像序列与所述视角方向序列进行对应存储,得到视角图像库;获取待渲染视角方向序列;当所述视角方向序列包括所述待渲染视角方向序列时,从所述视角图像库的所述视角图像序列中,选择与所述待渲染视角方向序列对应的视角图像子序列;基于所述视角图像子序列渲染虚拟对象。
在本申请实施例中,所述图像复用模块,还用于当所述待渲染视角方向序列包括所述视角方向序列时,从所述视角图像库中获取所述视角图像序列;基于所述待渲染视角方向序列与所述视角方向序列之间的视角方向差序列,对所述视角图像序列进行预测,得到新视角图像序列;基于所述新视角图像序列渲染虚拟对象。
在本申请实施例中,所述模型确定模块,还用于通过迭代m遍历所述视角方向序列,针对遍历到的第m个所述视角方向执行以下处理,其中,m为正整数:从所述视角图像序列中,获取与第m个所述视角方向对应的第m个所述视角图像;在第m-1个待叠加三维模型的第m个所述视角方向上,叠加第m个所述视角图像,得到第m个所述待叠加三维模型,其中,当m为1时,第m-1个待叠加三维模型为所述待渲染三维模型;将所述视角方向序列遍历完成时所获得的第m个所述待叠加三维模型,确定为所述目标三维模型。
本申请实施例提供一种用于数据渲染的电子设备,所述电子设备包括:
存储器,用于存储计算机可执行指令或者计算机程序;
处理器,用于执行所述存储器中存储的计算机可执行指令或者计算机程序时,实现本申请实施例提供的数据渲染方法。
本申请实施例提供一种计算机可读存储介质,存储有计算机可执行指令或者计算机程序,所述计算机可执行指令或者计算机程序用于被处理器执行时,实现本申请实施例提供的数据渲染方法。
本申请实施例提供一种计算机程序产品,包括计算机可执行指令或者计算机程序,所述计算机可执行指令或者计算机程序被处理器执行时,实现本申请实施例提供的数据渲染方法。
本申请实施例至少具有以下有益效果:在渲染虚拟对象时,以待处理渲染素材为基础进行数据渲染,能够渲染出不同材质的虚拟对象;以及在对待处理渲染素材进行模型重构获得了初始的待渲染三维模型之后,从视觉方向序列上预测待渲染三维模型在各个视觉方向上分别对应的模型图像,实现了在视觉方向序列上的逐角度渲染,能够提升虚拟对象的渲染精度;因此,能够提升数据渲染效果。
附图说明
图1是本申请实施例提供的数据渲染系统的架构示意图;
图2是本申请实施例提供的一种图1中的服务器的结构示意图;
图3是本申请实施例提供的数据渲染方法的流程示意图一;
图4是本申请实施例提供的数据渲染方法的流程示意图二;
图5是本申请实施例提供的数据渲染方法的流程示意图三;
图6是本申请实施例提供的颜色预测流程的示意图;
图7是本申请实施例提供的一种示例性的模型处理示意图;
图8是本申请实施例提供的一种示例性的渲染流程示意图。
具体实施方式
为了使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请作进一步地详细描述,所描述的实施例不应视为对本申请的限制,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
在以下的描述中,涉及到“一些实施例”,其描述了所有可能实施例的子集,但是可以理解,“一些实施例”可以是所有可能实施例的相同子集或不同子集,并且可以在不冲突的情况下相互结合。
在以下的描述中,所涉及的术语“第一\第二\第三”用于区别类似的对象,不代表针对对象的特定排序,可以理解地,“第一\第二\第三”在允许的情况下可以互换特定的顺序或先后次序,以使这里描述的本申请实施例能够以除了在这里图示或描述的以外的顺序实施。
除非另有定义,本申请实施例所使用的所有的技术和科学术语与所属技术领域的技术人员通常理解的含义相同。本申请实施例中所使用的术语只是为了描述本申请实施例的目的,不是旨在限制本申请。
对本申请实施例进行进一步详细说明之前,对本申请实施例中涉及的名词和术语进行说明,本申请实施例中涉及的名词和术语适用于如下的解释。
1)人工智能(Artificial Intelligence,AI),是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。本申请实施例提供的数据渲染方法,可以基于AI实现。
2)机器学习(Machine Learning,ML),是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析和算法复杂度理论等多门学科。用于研究计算机模拟或实现人类的学习行为,以获取新的知识或技能;重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,机器学习应用遍及人工智能的各个领域。机器学习通常包括人工神经网络、置信网络、强化学习、迁移学习和归纳学习等技术。在本申请实施例中,可以通过机器学习中的人工神经网络实现模型重构和颜色预测。
3)人工神经网络,是一种模仿生物神经网络结构和功能的数学模型,本申请实施例中人工神经网络的示例性结构包括图卷积网络(Graph Convolutional Network,GCN,一种用于处理图结构的数据的神经网络)、深度神经网络(Deep Neural Networks,DNN)、卷积神经网络(Convolutional Neural Network,CNN)和循环神经网络(Recurrent NeuralNetwork,RNN)、神经状态机(Neural State Machine,NSM)和相位函数神经网络(Phase-Functioned Neural Network,PFNN)等。本申请实施例中所涉及的素材重构模型等为人工神经网络对应的模型(称为神经网络模型)。
4)虚拟场景,是指虚拟对象所处的环境,或者所呈现的视野场景;可以是对真实世界的仿真环境,也可以是半仿真半虚构的虚拟环境,还可以是纯虚构的虚拟环境,又可以是上述的结合。虚拟场景可以是二维虚拟场景、2.5维虚拟场景或者三维虚拟场景中的任意一种,本申请实施例对虚拟场景的维度不加以限定。例如,虚拟场景可以包括天空、陆地和海洋等,而陆地可以包括沙漠和城市等环境元素,用户或智能控制逻辑可以控制虚拟对象在该虚拟场景中进行移动、增减、缩放和镜像等处理。
5)虚拟对象,虚拟场景中存在的虚拟实体,比如,可以进行交互的各种虚拟人物和虚拟物体的形象,或在虚拟场景中的其他可移动对象,又或者虚拟场景中的不可移动对象,等等。虚拟场景中可以包括多个虚拟对象,每个虚拟对象在虚拟场景中具有自身的形状和体积,占据虚拟场景中的一部分空间。在本申请实施例中,虚拟对象可以为虚拟角色。
需要说明的是,在虚拟场景中,常常存在渲染虚拟对象的处理。一般来说,为了渲染虚拟对象,通常基于二维图像进行三维虚拟对象的渲染。然而,由于上述渲染虚拟对象的过程是基于单一的二维图像实现的,影响了虚拟对象的渲染质量,进而影响了数据渲染效果。另外,在基于二维图像进行三维虚拟对象的渲染时,基于二维图像获得的三维虚拟对象的模型的材质层次单一,无法适用于虚拟对象材质多变的数据渲染场景中;并且,对二维图像在三维空间进行重建,计算量较大(大于指定计算量),影响了计算效率。
基于此,本申请实施例提供一种数据渲染方法、装置、设备、计算机可读存储介质及计算机程序产品,能够提升数据渲染效果和效率。下面说明本申请实施例提供的数据渲染设备的示例性应用,本申请实施例提供的数据渲染设备可以实施为智能手机、智能手表、笔记本电脑、平板电脑、台式计算机、智能家电、机顶盒、智能车载设备、便携式音乐播放器、个人数字助理、专用消息设备、智能语音交互设备、便携式游戏设备和智能音箱等各种类型的终端,也可以实施为服务器,还可以实施为上述两者的结合。下面,将说明数据渲染设备实施为服务器时的示例性应用。
参见图1,图1是本申请实施例提供的数据渲染系统的架构示意图;如图1所示,为支撑一个数据渲染应用,在数据渲染系统100中,终端200(示例性示出了终端200-1和终端200-2)通过网络300连接服务器400,网络300可以是广域网或者局域网,又或者是二者的组合。另外,该数据渲染系统100中还包括数据库500,用于向服务器400提供数据支持;并且,图1中示出的为数据库500独立于服务器400的一种情况,此外,数据库500还可以集成在服务器400中,本申请实施例对此不作限定。
终端200,用于通过界面接收渲染触发操作,响应于渲染触发操作,通过网络300向服务器400发送渲染请求;还用于通过网络300接收服务器400发送的目标三维模型,基于目标三维模型渲染虚拟对象(示例性示出了图形界面210-1和图形界面210-2)。
服务器400,用于对待处理渲染素材进行模型重构,得到待渲染三维模型;对待渲染三维模型进行特征提取,得到待渲染三维特征;基于待渲染三维特征,在视角方向序列上进行颜色预测,得到视角图像序列,其中,视角方向序列中的视角方向表示三维空间中的模型呈现视角,视角图像序列中的视角图像为视角方向上的模型图像;将视角图像序列整合为目标三维模型;还用于通过网络300接收终端200发送的渲染请求,响应于渲染请求,通过网络300向终端200发送目标三维模型。
在一些实施例中,服务器400可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(Content DeliveryNetwork,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。终端以及服务器可以通过有线或无线通信方式进行直接或间接地连接,本申请实施例中不作限制。
参见图2,图2是本申请实施例提供的一种图1中的服务器的结构示意图;如图2所示,服务器400包括:至少一个处理器410、存储器450、至少一个网络接口420和用户接口430。服务器400中的各个组件通过总线系统440耦合在一起。可理解,总线系统440用于实现这些组件之间的连接通信。总线系统440除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。但是为了清楚说明起见,在图2中将各种总线都标为总线系统440。
处理器410可以是一种集成电路芯片,具有信号的处理能力,例如通用处理器、数字信号处理器(Digital Signal Processor,DSP),或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等,其中,通用处理器可以是微处理器或者任何常规的处理器等。
用户接口430包括使得能够呈现媒体内容的一个或多个输出装置431,包括一个或多个扬声器和/或一个或多个视觉显示屏。用户接口430还包括一个或多个输入装置432,包括有助于用户输入的用户接口部件,比如键盘、鼠标、麦克风、触屏显示屏、摄像头、其他输入按钮和控件。
存储器450可以是可移除的,不可移除的或其组合。示例性的硬件设备包括固态存储器,硬盘驱动器,光盘驱动器等。存储器450可选地包括在物理位置上远离处理器410的一个或多个存储设备。
存储器450包括易失性存储器或非易失性存储器,也可包括易失性和非易失性存储器两者。非易失性存储器可以是只读存储器(Read Only Memory,ROM),易失性存储器可以是随机存取存储器(Random Access Memory,RAM)。本申请实施例描述的存储器450旨在包括任意适合类型的存储器。
在一些实施例中,存储器450能够存储数据以支持各种操作,这些数据的示例包括程序、模块和数据结构或者其子集或超集,下面示例性说明。
操作系统451,包括用于处理各种基本系统服务和执行硬件相关任务的系统程序,例如框架层、核心库层、驱动层等,用于实现各种基础业务以及处理基于硬件的任务;
网络通信模块452,用于经由一个或多个(有线或无线)网络接口420到达其他电子设备,示例性的网络接口420包括:蓝牙、无线相容性认证(Wi-Fi)、和通用串行总线(Universal Serial Bus,USB)等;
呈现模块453,用于经由一个或多个与用户接口430相关联的输出装置431(例如,显示屏、扬声器等)使得能够呈现信息(例如,用于操作外围设备和显示内容和信息的用户接口);
输入处理模块454,用于对来自一个或多个输入装置432之一的一个或多个用户输入或互动进行检测以及翻译所检测的输入或互动。
在一些实施例中,本申请实施例提供的数据渲染装置可以采用软件方式实现,图2示出了存储在存储器450中的数据渲染装置455,其可以是程序和插件等形式的软件,包括以下软件模块:模型重构模块4551、特征提取模块4552、图像确定模块4553、模型确定模块4554、对象渲染模块4555、模型训练模块4556和图像复用模块4557,这些模块是逻辑上的,因此根据所实现的功能可以进行任意的组合或进一步拆分。将在下文中说明各个模块的功能。
在一些实施例中,本申请实施例提供的数据渲染装置可以采用硬件方式实现,作为示例,本申请实施例提供的数据渲染装置可以是采用硬件译码处理器形式的处理器,其被编程以执行本申请实施例提供的数据渲染方法,例如,硬件译码处理器形式的处理器可以采用一个或多个应用专用集成电路(Application Specific Integrated Circuit,ASIC)、DSP、可编程逻辑器件(Programmable Logic Device,PLD)、复杂可编程逻辑器件(Complex Programmable Logic Device,CPLD)、现场可编程门阵列(Field-ProgrammableGate Array,FPGA)或其他电子元件。
在一些实施例中,终端或服务器可以通过运行各种计算机可执行指令或者计算机程序来实现本申请实施例提供的数据渲染方法。举例来说,计算机可执行指令可以是微程序级的命令、机器指令或软件指令。计算机程序可以是操作系统中的原生程序或软件模块;可以是本地(Native)应用程序(APPlication,APP),即需要在操作系统中安装才能运行的程序,如三维模型制作APP;也可以是能够嵌入至任意APP中的小程序,即只需要下载到浏览器环境中就可以运行的程序。总而言之,上述的计算机可执行指令可以是任意形式的指令,上述计算机程序可以是任意形式的应用程序、模块或插件。
下面,将结合本申请实施例提供的数据渲染设备的示例性应用和实施,说明本申请实施例提供的数据渲染方法。另外,本申请实施例提供的数据渲染方法应用于云技术、人工智能、智慧交通、地图、游戏和车载等各种数据渲染场景。
参见图3,图3是本申请实施例提供的数据渲染方法的流程示意图一,其中,图3中各步骤的执行主体是数据渲染设备;下面将结合图3示出的步骤进行说明。
步骤101、对待处理渲染素材进行模型重构,得到待渲染三维模型。
在本申请实施例中,数据渲染设备在接收到渲染请求之后,响应于该渲染请求,开始数据渲染处理。由于渲染请求用于请求对待处理渲染素材进行三维模型渲染,故数据渲染设备在执行数据渲染处理时,先获取不同视角下的素材,并将获得的不同视角下的素材作为待处理渲染素材;然后,为了将待处理渲染素材的信息对齐至三维空间(又称为规范空间)上,数据渲染设备对待处理渲染素材进行模型重构,并将获得的模型重构结果确定为待渲染三维模型。
需要说明的是,待处理渲染素材为待处理的渲染素材,用于获取待渲染的三维模型;这里,待处理渲染素材对应不同的状态(包括形状和位姿等),以及,待处理渲染素材对应不同纹理,比如,穿戴不同层虚拟服装(虚拟外套和虚拟衬衣等)的虚拟角色的分片,处于不同位姿的虚拟角色等。模型重构用于将待处理渲染素材重构为三维模型;从而,待渲染三维模型为基于待处理渲染素材重构出的三维模型,为基础三维模型,可以用三平面表示来描述。
在本申请实施例的步骤101中,数据渲染设备对待处理渲染素材进行模型重构,得到待渲染三维模型,包括:数据渲染设备先对待处理渲染素材进行模型重构,得到待检测三维模型;再将待检测三维模型转换至视觉空间,得到待呈现模型;并基于待呈现模型确定待修正信息;最后,基于待修正信息修正待检测三维模型,得到待渲染三维模型。
需要说明的是,数据渲染设备在每次获得了模型重构结果之后,将该模型重构结果转换至视觉空间(又称为观察空间,一种由位姿定义的空间)进行呈现,以针对呈现的待呈现模型对待渲染三维模型进行修正,获得待渲染三维模型。其中,待渲染三维模型为直接对待处理渲染素材进行模型重构获得的三维模型,为三维空间的模型;待呈现模型为视觉空间的模型;由三维空间转换至视觉空间的处理,可以结合预设的转换参数(比如,联合数,基于位姿和形状的变换矩阵,混合重量等)实现;由于待呈现模型能够可视化,故能够通过待呈现模型确定出待修正信息。
可以理解的是,在模型重构过程中,数据渲染设备实时修正模型重构结果,并将修正后的模型重构结果确定为待渲染三维模型;如此,能够提升最终获得的待渲染三维模型的准确度。
在本申请实施例中,数据渲染设备可通过神经网络模型实现模型重构,该用于模型重构的神经网络模型即为素材重构模型,是一种解码器。其中,素材重构模型通过以下方式获得:数据渲染设备先获取渲染素材样本、以及渲染素材样本的三维模型标签;再采用待训练模型对渲染素材样本进行模型重构,得到三维预测模型;最后,基于三维模型标签和三维预测模型之间的差异,训练待训练模型,得到素材重构模型。
需要说明的是,待训练模型为待训练的用于对渲染素材进行模型重构的神经网络模型。这里,数据渲染设备采用渲染素材样本和三维模型标签对待训练模型进行训练,并将训练好的待训练模型确定为素材重构模型。其中,渲染素材样本可以是以模型的主体(比如,虚拟角色的虚拟部位等)为粒度的素材样本。
步骤102、对待渲染三维模型进行特征提取,得到待渲染三维特征。
在本申请实施例中,数据渲染设备在获得了待渲染三维模型之后,对待渲染三维模型进行特征提取,所提取到的特征即为待渲染三维特征;待渲染三维特征为待渲染三维模型的特征,用于对待渲染三维模型的渲染效果进行增强。
参见图4,图4是本申请实施例提供的数据渲染方法的流程示意图二,其中,图4中各步骤的执行主体是数据渲染设备;如图4所示,在本申请实施例中,步骤102可通过步骤1021至步骤1023实现;也就是说,数据渲染设备对待渲染三维模型进行特征提取,得到待渲染三维特征,包括步骤1021至步骤1023,下面对各步骤分别进行说明。
在本申请实施例中,数据渲染设备遍历待渲染三维模型中的各个待渲染顶点,针对遍历到的每个待渲染顶点执行以下处理(步骤1021和步骤1022)。
需要说明的是,待渲染三维模型中包括各个待渲染顶点,也就是说,各个待渲染顶点为待渲染三维模型中的全量待渲染顶点;其中,每个待渲染顶点为待渲染三维模型中的一个模型顶点,且为三维空间的模型顶点。
步骤1021、获取待渲染顶点在第一维度平面的第一顶点特征、在第二维度平面的第二顶点特征、以及在第三维度平面的第三顶点特征。
在本申请实施例中,由于待渲染顶点为三维空间的模型顶点,三维空间包括第一维度平面、第二维度平面和第三维度平面;因此,数据渲染设备在提取待渲染顶点的特征时,可通过正交投影实现;也就是说,数据渲染设备获取待渲染顶点在第一维度平面的映射特征,也就获得了第一顶点特征;数据渲染设备获取待渲染顶点在第二维度平面的映射特征,也就获得了第二顶点特征;数据渲染设备获取待渲染顶点在第三维度平面的映射特征,也就获得了第三顶点特征。其中,第一维度平面、第二维度平面和第三维度平面是三维空间中两两互相正交的三个平面。
步骤1022、结合第一顶点特征、第二顶点特征和第三顶点特征,获得顶点三维特征。
在本申请实施例中,数据渲染设备将第一顶点特征、第二顶点特征和第三顶点特征结合起来,也就获得了顶点三维特征;这里,结合的过程可以是拼接第一顶点特征、第二顶点特征和第三顶点特征的处理,还可以是融合第一顶点特征、第二顶点特征和第三顶点特征的处理,又可以是对第一顶点特征、第二顶点特征和第三顶点特征进行加权求和的处理,等等,本申请实施例对此不作限定。
步骤1023、基于遍历获得的与各个待渲染顶点对应的各个顶点三维特征,确定待渲染三维特征。
在本申请实施例中,当数据渲染设备遍历完各个待渲染顶点时,能够获得与每个待渲染顶点对应的顶点三维特征,从而,能够获得与各个待渲染顶点一一对应的各个顶点三维特征。这里,数据渲染设备可以直接将各个顶点三维特征确定为待渲染三维特征,从而,待渲染三维特征为待渲染三维模型的各个待渲染顶点对应的各个顶点三维特征;还可以将对各个顶点三维特征进行增强处理之后的结果确定为待渲染三维特征;本申请实施例对此不作限定。
在本申请实施例中,数据渲染设备基于遍历获得的与各个待渲染顶点对应的各个
顶点三维特征,确定待渲染三维特征,包括:数据渲染设备先将遍历获得的与各个待渲染顶
点对应的各个顶点三维特征,划分为三维特征序列;通过迭代j遍历三维特征序列,将遍历
到的第j个三维特征和第j+1个三维特征,结合为第j+1个目标三维特征;当遍历完三维特征
序列时,基于遍历j获得的各个目标三维特征,得到与三维特征序列对应的目标三维特征序
列;将目标三维特征序列组合为待渲染三维特征。其中,j为正整数,且,为三维特
征序列中三维特征的数量。
需要说明的是,由于三维模型中纹理相同的区域的特征相同,以及相邻视角对应的区域通常为纹理相同的区域,从而,数据渲染设备基于视角方向序列对各个顶点三维特征进行划分,以将各个顶点三维特征划分至每个视角方向对应的范围内,每个视角方向对应范围内的多个顶点三维特征即为三维特征序列中的一个三维特征。这里,数据处理设备通过变量j从三维特征序列中的首个三维特征开始,以遍历三维特征序列;将当前三维特征(称为第j个三维特征)作为下一个的初始特征,从而将当前三维特征和下一三维特征(称为第j+1个三维特征)的结合结果作为下一个的最终三维特征,即为第j+1个目标三维特征;如此,当遍历完三维特征序列时,数据渲染设备能够获得多个目标三维特征,并将首个三维特征和获得的多个目标三维特征组合为目标三维特征序列,目标三维特征序列与三维特征序列一一对应。其中,视角方向序列是指基于最小划分度数对三维模型的待渲染空间视角进行划分的划分结果;比如,若待渲染空间视角为180度,最小划分度数为2度,则获得的视角方向序列为“0度-2度,2度-4度,…,178度-180度”;另外,视角方向序列可以携带在渲染请求中,也可以通过携带在渲染请求中的待渲染空间视角获得,等等,本申请实施例对此不作限定。
还需要说明的是,数据渲染设备在将目标三维特征序列组合为待渲染三维特征时,可以是将目标三维特征序列中的各个元素拼接为待渲染三维特征,还可以基于指定标记(比如,起始标记和间隔标记等)将目标三维特征序列中的各个元素连接起来以获得待渲染三维特征,等等,本申请实施例对此不作限定。
可以理解的是,由于相邻视角对应的区域通常为纹理相同的区域,以及三维模型中纹理相同的区域的特征相同,从而,通过将当前三维特征作为下一个的初始特征,提升了每个视角方向的目标三维特征的准确度,进而能够提升待渲染三维特征的准确度,提升数据渲染质量。
步骤103、基于待渲染三维特征,在视角方向序列上进行颜色预测,得到视角图像序列。
在本申请实施例中,数据渲染设备在视角方向序列中的每个视角方向分别进行图像的颜色预测,并基于预测出的图像颜色获得对应的图像,也就获得了视角图像;从而,针对每个视角方向上预测出的视角图像,能够获得与视角方向序列对应的视角图像序列。
需要说明的是,视角方向序列中的视角方向表示三维空间中的模型呈现视角,视角图像序列中的视角图像为视角方向上的模型图像;颜色预测用于获取视角方向上的光照图像,易知,视角图像即为该视角方向上的光照图像。另外,待处理渲染素材对应的各个视角即为视角方向序列。
参见图5,图5是本申请实施例提供的数据渲染方法的流程示意图三,其中,图5中各步骤的执行主体是数据渲染设备;如图5所示,在本申请实施例中,步骤103可通过步骤1031至步骤1033实现;也就是说,数据渲染设备基于待渲染三维特征,在视角方向序列上进行颜色预测,得到视角图像序列,包括步骤1031至步骤1033,下面对各步骤分别进行说明。
在本申请实施例中,数据渲染设备遍历视角方向序列,对每个遍历到的视角方向执行以下处理(步骤1031和步骤1032)。
步骤1031、在视角方向上对待渲染三维特征进行位置编码,得到颜色参数和体密度参数。
在本申请实施例中,数据渲染设备在遍历到的视角方向上对待渲染三维特征进行位置编码,以预测颜色参数和体密度参数;也就是说,位置编码用于结合遍历到的视角方向和待渲染三维特征预测颜色参数和体密度参数。
需要说明的是,数据渲染设备可以通过神经网络模型实现位置编码,此时,将该用于实现位置编码的神经网络模型称为位置编码模型,用于确定颜色参数和体密度参数。其中,颜色参数用于获取指定位置处对应的颜色,体密度参数用于获取指定位置处的体密度;位置编码模型可采用监督训练方式获得,也可以采用半监督方式获得,本申请实施例对此不作限定。
步骤1032、结合颜色参数和体密度参数进行颜色预测,得到视角图像。
在本申请实施例中,数据渲染设备针对每个遍历到的视角方向获得了对应的颜色参数和体密度参数之后,结合颜色参数和体密度参数进行颜色预测,以获取该遍历到的视角方向上的光照图像,并将获得的光照图像称为视角图像。
需要说明的是,光线从相机原点沿遍历到的视角方向照射到模型上,生成光照颜色;颜色预测是指通过获取光照颜色来获得光照图像的处理。另外,由于颜色参数用于获取指定位置处对应的颜色,从而,数据渲染设备能够基于颜色参数获得对应位置处的原始颜色;又由于体密度参数用于获取指定位置处的体密度,从而,数据渲染设备能够基于体密度参数获得对应位置处的体密度;接着,数据渲染设备以原始颜色为基础颜色预测对应体密度下的光照颜色;这里,数据渲染设备可以通过对原始颜色和体密度在光照距离上进行积分,来获取对应的光照颜色。
参见图6,图6是本申请实施例提供的颜色预测流程的示意图,其中,图6中各步骤的执行主体是数据渲染设备;如图6所示,在本申请实施例中,步骤1032可通过步骤10321至步骤10324实现;也就是说中数据渲染设备结合颜色参数和体密度参数进行颜色预测,得到视角图像,包括步骤10321至步骤10324,下面对各步骤分别进行说明。
步骤10321、确定待渲染三维模型在视角方向上的模型视角位置。
在本申请实施例中,数据渲染设备获取待渲染三维模型上与遍历到的视角方向对应的区域,并获取该区域相对于相机原点的位置,也就获得了模型视角位置。
步骤10322、沿视角方向,获取从相机近边界到模型视角位置的累积透射率。
需要说明的是,相机参数中包括相机近边界和相机远边界;这里,数据渲染设备先获取相机近边界与模型视角位置之间的每个位置对应的相机射线,并基于体密度参数获取该相机射线对应的体密度表示,最后获取该体密度表示在相机近边界到模型视角位置上的积分结果,也就获得了视角方向上从相机近边界到模型视角位置的累积透射率。
步骤10323、将累积透射率、颜色参数和体密度参数,组合为待积分对象。
在本申请实施例中,数据渲染设备基于颜色参数获取相机近边界和相机远边界之间的颜色表示,并基于体密度参数获取相机近边界和相机远边界之间的体密度表示,最后,将累积透射率、颜色表示和体密度表示进行组合,所获得的组合结果即为待积分对象;其中,组合可以是相乘,还可以是相加,等等,本申请实施例对此不作限定。
步骤10324、将待积分对象在相机近边界和相机远边界之间的积分结果,确定为视角图像。
在本申请实施例中,数据渲染设备通过在相机近边界和相机远边界上对待积分对象进行积分来获得视角图像;从而,视角图像即为待积分对象在相机近边界和相机远边界之间的积分结果。
步骤1033、当遍历完视角方向序列时,由每个视角方向对应的视角图像,获得与视角方向序列对应的视角图像序列。
需要说明的是,当数据渲染设备完成了对视角方向序列的遍历之后,针对视角方向序列中的每个视角方向均能够获得对应的视角图像;从而,能够获得与视角方向序列对应的视角图像序列。
步骤104、基于待渲染三维模型和视角图像序列,确定目标三维模型。
在本申请实施例中,数据渲染设备可以在待渲染三维模型的视角方向序列上,叠加视角图像序列,得到目标三维模型。也就是说,数据渲染设备在待渲染三维模型上,按照视角图像序列叠加视角图像序列,当叠加完成时,也就获得了目标三维模型。从而,数据渲染设备基于待渲染三维模型和视角图像序列,确定目标三维模型,包括:数据渲染设备通过迭代m遍历视角方向序列,针对遍历到的第m个视角方向执行以下处理:从视角图像序列中,获取与第m个视角方向对应的第m个视角图像;在第m-1个待叠加三维模型的第m个视角方向上,叠加第m个视角图像,得到第m个待叠加三维模型;将视角方向序列遍历完成时所获得的第m个待叠加三维模型,确定为目标三维模型。
需要说明的是,m为正整数,且,为视角方向序列中视角方向的数量;
当m为1时,第m-1个待叠加三维模型为待渲染三维模型;当m大于1时,第m-1个待叠加三维模
型为以待渲染三维模型为基础叠加了第m-1个视角图像之后的三维模型。这里,当数据渲染
设备遍历完视角方向序列时,所获得的待叠加三维模型即为目标三维模型。
在本申请实施例中,数据渲染设备还可以采用扩散过程和逆扩散过程将视角图像
序列整合为目标三维模型。此时,步骤104中数据渲染设备将视角图像序列整合为目标三维
模型,包括:数据渲染设备遍历视角图像序列,对遍历到的第i个视角图像执行以下处理:结
合第i个条件三维模型和第i个视角图像,预测第i+1个目标视角图像;结合第i个条件三维
模型和第i+1个目标视角图像,得到第i+1个条件三维模型;当遍历完成时,将遍历获得的第
N个条件三维模型确定为目标三维模型。其中,,N为视角图像序列中视角图像的数量,
i和N为正整数。
需要说明的是,视角图像序列中包括N个视角图像,数据渲染设备从1至N依次遍历
视角图像序列中的每个视角图像。在遍历到第1个视角图像时,将待渲染三维模型作为条件
三维模型,即为第1个条件三维模型,并获取第1个条件三维模型的编码结果,以及结合获得
的编码结果和第1个视角图像预测第2个目标视角图像;其中,目标视角图像为当前视角方
向对应的最终视角图像;接着,将第1个条件三维模型和第2个目标视角图像整合为第2个条
件三维模型;然后遍历到第2个视角图像,并基于遍历到的第2个视角图像获得第3个目标视
角图像和第3个条件三维模型;依次类推,直至获得第N个条件三维模型,此时,数据渲染设
备也完成了对视角图像序列的遍历。其中,当时,第i个条件三维模型为待渲染三维模
型,当时,第i个条件三维模型为第i-1个条件三维模型和第i个目标视角图像的结合
结果。
在本申请实施例中,数据渲染设备可以结合第i个条件三维模型和第i个视角图像,预测第i+1个初始视角图像,将第i+1个初始视角图像和第i+1个视角图像融合为第i+1个目标视角图像。
步骤105、基于目标三维模型渲染虚拟对象。
在本申请实施例中,当数据渲染设备中包括用于渲染虚拟对象的输出装置时,数据渲染设备可以在该输出装置中对目标三维模型进行渲染,也就能够渲染出虚拟对象。这里,数据渲染设备还可以将目标三维模型发送至独立于数据渲染设备的输出设备(比如,运行客户端的终端等)中进行虚拟对象的渲染。
可以理解的是,在渲染虚拟对象时,以待处理渲染素材为基础进行数据渲染,能够渲染出不同材质的虚拟对象;以及在对待处理渲染素材进行模型重构获得了初始的待渲染三维模型之后,从视觉方向序列上预测待渲染三维模型在各个视觉方向上分别对应的模型图像,实现了在视觉方向序列上的逐角度渲染,能够提升虚拟对象的渲染精度;因此,能够提升数据渲染效果。另外,由于上述渲染过程所采用的视角方向序列为一种时间序列,因此,实现了一种在时间序列上获取目标三维模型的过程,提升了数据渲染效率。
在本申请实施例的步骤103之后,也就是说,数据渲染设备基于待渲染三维特征,在视角方向序列上进行颜色预测,得到视角图像序列之后,该数据渲染方法还包括:数据渲染设备将视角图像序列与视角方向序列进行对应存储,得到视角图像库;并获取待渲染视角方向序列;以及当视角方向序列包括待渲染视角方向序列时,从视角图像库的视角图像序列中,选择与待渲染视角方向序列对应的视角图像子序列;最后,基于视角图像子序列渲染虚拟对象。而当待渲染视角方向序列包括视角方向序列时,从视角图像库中获取视角图像序列;并基于待渲染视角方向序列与视角方向序列之间的视角方向差序列,对视角图像序列进行预测,得到新视角图像序列;最后,基于新视角图像序列渲染虚拟对象。
需要说明的是,待渲染视角方向序列是数据渲染设备响应于新的渲染请求所确定的各个新视角方向;当待渲染视角方向序列属于视角方向序列时,数据渲染设备可以从视角图像序列中选择视角图像子序列,并复用视角图像子序列进行虚拟对象的渲染;而当视角图像序列属于待渲染视角方向序列时,数据渲染设备以视角图像序列为基础,继续对两序列相差的角度方向进行预测,并获得与相差的角度方向对应的至少一个视角图像,以及将视角图像序列与至少一个视角图像作为新视角图像序列;其中,视角方向差序列即为相差的角度方向。
可以理解的是,数据渲染设备将获得的视角图像序列与视角方向序列对应存储起来,使得再次针对同一虚拟角色类别进行渲染时,以视角图像序列与视角方向序列为基础进行虚拟对象的渲染,如此,能够实现渲染资源的复用,进而能够提升数据渲染效率。
下面,将说明本申请实施例在一个实际的应用场景中的示例性应用。该示例性应用描述了渲染游戏场景中的游戏角色的过程。易知,本申请实施例提供的数据渲染方法适用于任一虚拟场景中虚拟角色的渲染,这里,以渲染游戏场景中的游戏角色为例进行说明。
参见图7,图7是本申请实施例提供的一种示例性的模型处理示意图;如图7所示,
先通过共享解码器7-1(称为素材重构模型)对多个视图图像7-21(称为待处理渲染素材)进
行重构,得到三平面表示7-22(称为待渲染三维模型);再对三平面表示7-22进行编码,得到
三平面特征7-23(称为待渲染三维特征);之后,将三平面特征7-23输入至三层网络解码器
7-3中,以沿每个视角方向预测对应的颜色和体密度信息7-24(称为颜色参数和体密度参
数);然后,基于预测出的每个初始颜色和体密度信息7-24进行体渲染,得到多层预测图像
7-25(称为视角图像序列)。接着,先对三平面表示7-22进行条件编码,结合条件编码结果和
多层预测图像7-25中的第1层预测图像预测出第2层目标视角图像;再将三平面表示7-22、
第1层预测图像和第2层视角图像结合,对该结合结果进行条件编码,并结合条件编码结果
和多层预测图像7-25中的第2层预测图像预测出第3层目标视角图像;再将上一结合结果和
第3层目标视角图像结合,对该结合结果进行条件编码,并结合条件编码结果和多层预测图
像7-25中的第3层预测图像,通过卷积网络预测出第4层目标视角图像;依次类推,直至预测
出最后一层目标视角图像时结束,此时,将最新的结合结果和最后一层目标视角图像结合,
得到最终的虚拟角色模型。其中,在图7中,结合结果(称为条件三维模型)表示为前i-1次三
平面7-41(即为前一结合结果或三平面表示7-22)和第i层目标视角图像7-421(称为目标视
角图像)的结合(“+”),多层预测图像7-25中的预测图像表示为第i层预测图像7-251,预测
出的目标视角图像表示为第i+1层目标视角图像7-422。
需要说明的是,本申请实施例通过从游戏引擎中提取待建模的不同状态和不同角度的纹理素材(称为多个视图图像),并基于这些素材重构为基础的三平面表示,再结合人工神经网络模型将三平面表示构建为最终的游戏角色模型。参见图8,图8是本申请实施例提供的一种示例性的渲染流程示意图;如图8所示,三平面表示8-1是基于游戏引擎中的素材重构出的,通过神经网络模型对三平面表示8-1进行渲染增强,得到最终的游戏角色模型8-2。
在基于素材进行渲染增强获得最终的虚拟角色模型的过程中,包括两个阶段;第一阶段是指基于素材获得多层预测图像的过程,第二阶段是指基于多层预测图像获得最终的游戏角色模型的过程。下面对该两个阶段分别进行说明。
需要说明的是,在第一阶段中,为了将不同素材在空间上与三维特征对齐,将不同素材重构到规范空间进行处理。首先,针对不同素材对应的视图图像序列,先拟合出三平面特征。
由于三平面表示适用于扩散模型等生成模型来构造损失函数,并且能够提升内存效率和收敛速度,还能提升游戏角色的渲染逼真度,又由于针对相同布料或纹理的区域对应相似的特征;因此,将不同素材重构为三平面表示。这里,为了提升共享解码器的泛化能力,随机采样虚拟角色的部分主体的相关信息,以优化共享解码器和三平面表示;之后,以并行优化的方式对每个主体进行优化。
需要说明的是,三平面表示通过重构目标空间中的多视图图像获得,用于拟合三
维游戏角色模型;其中,三平面表示是指由三个互相垂直的平面(,,)
组成的空间关系,其中,H和W表示空间分辨率,C1表示通道数量。
还需要说明的是,多视图图像为参数化游戏角色模型,记为;其中,用
于控制游戏角色的形状,用于控制游戏角色的虚拟姿势。这里,可以采用线性混合蒙皮算
法将点从规范空间的三平面表示转换至观察空间(称为视觉空间),以基于观察空间的数据
对三平面表示进行修正。比如,规范空间中的点,可通过获得对应的点;其
中,为联合数,为混合重量,为和对应的变换矩阵。
这里,在获得了规范空间中的三平面表示之后,对三平面表示进行编码,也就获得
了三平面特征。其中,编码是指获取三平面表示中的各个点的特征,以得到三平面特征的过
程。这里,以获取点的特征的过程为例进行说明,如式(1)表示。
(1);
其中,表示连接运算;表示三维到二维的投影算子,这里通过正交投影
提取三平面特征。
另外,由于同一游戏角色模型包括的相同布料或纹理区域中存在相似的特征,从而,可以先拟合第j层的三平面特征,并将拟合出的第j层的三平面特征作为第j+1层的三平面特征的初始化特征;如此,能够提升三平面特征的准确度,进而能够提升最终的虚拟角色模型的渲染质量。
这里,将三平面特征输入至三层网络解码器,以沿着视角方向预测对应的颜色
和体密度信息;如式(2)所示,示出了预测特征对应的颜色和体密度信息(,)的过程。
(2);
其中,为特征和视角方向的位置编码函数。
接着,基于预测出的颜色和体密度信息进行体渲染,以获得预测图像,其中,为三平面表示中的点的射线,如式(3)所示。
(3);
其中,表示相机原点的位置,表示该点相对于相机原点的位置(称为模型视角
位置)。
需要说明的是,光线从相机原点沿视角方向投射穿过像素,从而,在基于预测出
的颜色和体密度信息获得预测图像(称为视角图像)的过程中,可以通过预测预期颜
色实现;其中,预期颜色通过式(4)实现,式(4)如下所示。
(4);
其中,表示与射线对应的体密度(称为体密度表示);表示
与特征、以及视角方向对应的颜色(称为颜色表示);表示沿视角方向从到
的累积透射率,可通过式(5)获得。
(5);
下面对第二阶段进行说明。在第二阶段中,基于多层预测图像的顺序条件,分层合并三平面表示和预测图像,并将合并出的扩散信息输入至扩散模型中进行去噪,来预测下一层的目标视角图像。
需要说明的是,扩散模型包括两个过程,分别为扩散过程和逆扩散过程。
扩散过程为的过程,表示对图像逐步加噪。且是在上加噪声得到
的,受的影响,因此,扩散过程是一个马尔科夫过程。表示从真实数据集中采样得到的
一张图像,对添加T次噪声,图像逐渐变得模糊,当T足够大时,为标准正态分布。在训
练过程中,每次添加的噪声是已知的,即是已知的,根据马尔科夫过程的性质,可
以递归得到,即是已知的。
其中,如式(6)所示,即为在给定的条件下,服从均值为、方差为的正态分布N()。
(6);
逆扩散过程为的过程,表示从噪声中逐渐复原出原图像。如果能够在给定的条件下得到的分布,即为,那么就能够从任意一张噪声图像中经过一
次次的采样得到一张图像,从而生成原始图像。这里,可以用来近似,为扩散模型。
需要说明的是,在游戏角色模型的扩散过程中,逐层加噪,对于任意时间步长t,利
用高斯分布特性可以得出分布,为(即为在给定的条件下,服从方
差为的正态分布),如式(7)所示。
(7);
而在逆扩散过程中,对加噪出的扩散信息逐层去噪,对于任意时间步长t,由能够获得的分布,如式(8)所示。
(8);
需要说明的是,第二阶段用于基于顺序条件对三平面表示和预测图像进行交叉注意力处理,以在分层融合预测图像的过程中提取多级三维条件特征;另外,通过融合多级三维条件特征,能够控制每一层的输出,提升输出准确度。此外,基于顺序条件将三平面表示和预测图像分层合并到扩散模型中,使得在不同粒度的扩散过程中,能够保留上一层相应的游戏角色的模型信息。
可以理解的是,本申请实施例采用三平面表示获取游戏角色模型,与体素网格特征相比,计算资源消耗较低。另外,本申请实施例结合人工神经网络和不同素材协同确定最终的游戏角色模型,能够提升游戏角色模型的渲染质量。再者,本申请实施例通过将不同状态和不同角度的纹理转换至时间线序列上进行依次渲染,把原始模型在空间的重建,转换为时间线序列的重建,能够减少计算量,提升游戏角色模型的分层性质。这里,通过扩散过程和逆扩散过程分层融合各视角方向的图像,能够提升最终获得的游戏角色模型的准确度。此外,通过复用已有视角方向上的视角图像,能够减少模型渲染的资源消耗,提升模型渲染的适用范围。
下面继续说明本申请实施例提供的数据渲染装置455的实施为软件模块的示例性结构,在一些实施例中,如图2所示,存储在存储器450的数据渲染装置455中的软件模块可以包括:
模型重构模块4551,用于对待处理渲染素材进行模型重构,得到待渲染三维模型;
特征提取模块4552,用于对所述待渲染三维模型进行特征提取,得到待渲染三维特征;
图像确定模块4553,用于基于所述待渲染三维特征,在视角方向序列上进行颜色预测,得到视角图像序列,其中,所述视角方向序列中的视角方向表示三维空间中的模型呈现视角,所述视角图像序列中的视角图像为所述视角方向上的模型图像;
模型确定模块4554,用于基于所述待渲染三维模型和所述视角图像序列,确定目标三维模型;
对象渲染模块4555,用于基于所述目标三维模型渲染虚拟对象。
在本申请实施例中,所述模型确定模块4554,还用于遍历所述视角图像序列,对遍
历到的第i个所述视角图像执行以下处理,其中,,N为所述视角图像序列中所述视角
图像的数量,i和N为正整数:结合第i个条件三维模型和第i个所述视角图像,预测第i+1个
目标视角图像,其中,当时,第i个所述条件三维模型为所述待渲染三维模型,当
时,第i个所述条件三维模型为第i-1个所述条件三维模型和第i个所述目标视角图像的结
合结果;结合第i个所述条件三维模型和第i+1个所述目标视角图像,得到第i+1个所述条件
三维模型;当遍历完成时,将遍历获得的第N个所述条件三维模型确定为所述目标三维模
型。
在本申请实施例中,所述特征提取模块4552,还用于遍历所述待渲染三维模型中的各个待渲染顶点,针对遍历到的每个待渲染顶点执行以下处理:获取所述待渲染顶点在第一维度平面的第一顶点特征、在第二维度平面的第二顶点特征、以及在第三维度平面的第三顶点特征;结合所述第一顶点特征、所述第二顶点特征和所述第三顶点特征,获得顶点三维特征;基于遍历获得的与各个所述待渲染顶点对应的各个所述顶点三维特征,确定所述待渲染三维特征。
在本申请实施例中,所述特征提取模块4552,还用于将遍历获得的与各个所述待渲染顶点对应的各个所述顶点三维特征,划分为三维特征序列;通过迭代j遍历所述三维特征序列,将遍历到的第j个三维特征和第j+1个三维特征,结合为第j+1个目标三维特征,其中,j为正整数;当遍历完所述三维特征序列时,基于遍历j获得的各个所述目标三维特征,得到与所述三维特征序列对应的目标三维特征序列;将所述目标三维特征序列组合为所述待渲染三维特征。
在本申请实施例中,所述图像确定模块4553,还用于遍历所述视角方向序列,对每个遍历到的所述视角方向执行以下处理:在所述视角方向上对所述待渲染三维特征进行位置编码,得到颜色参数和体密度参数;结合所述颜色参数和所述体密度参数进行颜色预测,得到所述视角图像;当遍历完所述视角方向序列时,由每个所述视角方向对应的所述视角图像,获得与所述视角方向序列对应的所述视角图像序列。
在本申请实施例中,所述图像确定模块4553,还用于确定所述待渲染三维模型在所述视角方向上的模型视角位置;沿所述视角方向,获取从相机近边界到所述模型视角位置的累积透射率;将所述累积透射率、所述颜色参数和所述体密度参数,组合为待积分对象;将所述待积分对象在所述相机近边界和相机远边界之间的积分结果,确定为所述视角图像。
在本申请实施例中,所述模型重构通过素材重构模型实现,所述数据渲染装置455还包括模型训练模块4556,用于获取渲染素材样本、以及所述渲染素材样本的三维模型标签;采用待训练模型对所述渲染素材样本进行模型重构,得到三维预测模型,其中,所述待训练模型为待训练的用于对渲染素材进行模型重构的神经网络模型;基于所述三维模型标签和所述三维预测模型之间的差异,训练所述待训练模型,得到所述素材重构模型。
在本申请实施例中,所述模型重构模块4551,用于对所述待处理渲染素材进行模型重构,得到待检测三维模型;将所述待检测三维模型转换至视觉空间,得到待呈现模型;基于所述待呈现模型确定待修正信息;基于所述待修正信息修正所述待检测三维模型,得到所述待渲染三维模型。
在本申请实施例中,所述数据渲染装置455还包括图像复用模块4557,用于将所述视角图像序列与所述视角方向序列进行对应存储,得到视角图像库;获取待渲染视角方向序列;当所述视角方向序列包括所述待渲染视角方向序列时,从所述视角图像库的所述视角图像序列中,选择与所述待渲染视角方向序列对应的视角图像子序列;基于所述视角图像子序列渲染虚拟对象。
在本申请实施例中,所述图像复用模块4557,还用于当所述待渲染视角方向序列包括所述视角方向序列时,从所述视角图像库中获取所述视角图像序列;基于所述待渲染视角方向序列与所述视角方向序列之间的视角方向差序列,对所述视角图像序列进行预测,得到新视角图像序列;基于所述新视角图像序列渲染虚拟对象。
在本申请实施例中,所述模型确定模块4554,还用于通过迭代m遍历所述视角方向序列,针对遍历到的第m个所述视角方向执行以下处理,其中,m为正整数:从所述视角图像序列中,获取与第m个所述视角方向对应的第m个所述视角图像;在第m-1个待叠加三维模型的第m个所述视角方向上,叠加第m个所述视角图像,得到第m个所述待叠加三维模型,其中,当m为1时,第m-1个待叠加三维模型为所述待渲染三维模型;将所述视角方向序列遍历完成时所获得的第m个所述待叠加三维模型,确定为所述目标三维模型。
本申请实施例提供了一种计算机程序产品,该计算机程序产品包括计算机可执行指令或者计算机程序,该计算机可执行指令或者计算机程序存储在计算机可读存储介质中。数据渲染设备的处理器从计算机可读存储介质读取该计算机可执行指令或者计算机程序,处理器执行该计算机可执行指令或者计算机程序,使得该数据渲染设备执行本申请实施例上述的数据渲染方法。
本申请实施例提供一种计算机可读存储介质,其中存储有计算机可执行指令或者计算机程序,当计算机可执行指令或者计算机程序被处理器执行时,将引起处理器执行本申请实施例提供的数据渲染方法,例如,如图3示出的数据渲染方法。
在一些实施例中,计算机可读存储介质可以是FRAM、ROM、闪存、磁表面存储器、光盘、或CD-ROM等存储器;也可以是包括上述存储器之一或任意组合的各种设备。
在一些实施例中,计算机可执行指令可以采用程序、软件、软件模块、脚本或代码的形式,按任意形式的编程语言(包括编译或解释语言,或者声明性或过程性语言)来编写,并且其可按任意形式部署,包括被部署为独立的程序或者被部署为模块、组件、子例程或者适合在计算环境中使用的其它单元。
作为示例,计算机可执行指令可以但不一定对应于文件系统中的文件,可以可被存储在保存其它程序或数据的文件的一部分,例如,存储在超文本标记语言(Hyper TextMarkup Language,HTML)文档中的一个或多个脚本中,存储在专用于所讨论的程序的单个文件中,或者,存储在多个协同文件(例如,存储一个或多个模块、子程序或代码部分的文件)中。
作为示例,计算机可执行指令可被部署为在一个电子设备上执行(此时,这一个电子设备即为数据渲染设备),或者在位于一个地点的多个电子设备上执行(此时,位于一个地点的多个电子设备即为数据渲染设备),又或者,在分布在多个地点且通过通信网络互连的多个电子设备上执行(此时,分布在多个地点且通过通信网络互连的多个电子设备即为数据渲染设备)。
可以理解的是,在本申请实施例中,涉及到虚拟角色等相关的数据,当本申请实施例运用到具体产品或技术中时,需要获得用户许可或者同意,且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准。另外,在本申请中,渲染素材样本等数据的获取涉及到的数据抓取技术方案实施,在本申请以上实施例运用到具体产品或技术中时,相关数据收集、使用和处理过程应该遵守国家法律法规要求,符合合法、正当、必要的原则,不涉及获取法律法规禁止或限制的数据类型,不会妨碍目标网站的正常运行。
综上所述,本申请实施例在渲染虚拟对象时,以待处理渲染素材为基础进行数据渲染,能够渲染出不同材质的虚拟对象;以及在对待处理渲染素材进行模型重构获得了初始的待渲染三维模型之后,从视觉方向序列上预测待渲染三维模型在各个视觉方向上分别对应的模型图像,实现了在视觉方向序列上的逐角度渲染,能够提升虚拟对象的渲染精度;因此,能够提升数据渲染效果。另外,由于上述渲染过程所采用的视角方向序列为一种时间序列,因此,实现了一种在时间序列上获取目标三维模型的过程,提升了数据渲染效率。此外,通过对应存储视角图像序列与视角方向序列,使得在响应新的渲染请求时,能够通过复用视角图像序列进行虚拟对象的渲染,从而能够提升数据渲染效率,提升通用性。
以上所述,仅为本申请的实施例而已,并非用于限定本申请的保护范围。凡在本申请的精神和范围之内所作的任何修改、等同替换和改进等,均包含在本申请的保护范围之内。
Claims (14)
1.一种数据渲染方法,其特征在于,所述方法包括:
对待处理渲染素材进行模型重构,得到待渲染三维模型;
对所述待渲染三维模型进行特征提取,得到待渲染三维特征;
基于所述待渲染三维特征,在视角方向序列上进行颜色预测,得到视角图像序列,其中,所述视角方向序列中的视角方向表示三维空间中的模型呈现视角,所述视角图像序列中的视角图像为所述视角方向上的模型图像;
基于所述待渲染三维模型和所述视角图像序列,确定目标三维模型;
基于所述目标三维模型渲染虚拟对象。
2.根据权利要求1所述的方法,其特征在于,所述基于所述待渲染三维模型和所述视角图像序列,确定目标三维模型,包括:
遍历所述视角图像序列,对遍历到的第i个所述视角图像执行以下处理,其中,,N为所述视角图像序列中所述视角图像的数量,i和N为正整数:
结合第i个条件三维模型和第i个所述视角图像,预测第i+1个目标视角图像,其中,当时,第i个所述条件三维模型为所述待渲染三维模型,当/>时,第i个所述条件三维模型为第i-1个所述条件三维模型和第i个所述目标视角图像的结合结果;
结合第i个所述条件三维模型和第i+1个所述目标视角图像,得到第i+1个所述条件三维模型;
当遍历完成时,将遍历获得的第N个所述条件三维模型确定为所述目标三维模型。
3.根据权利要求1所述的方法,其特征在于,所述对所述待渲染三维模型进行特征提取,得到待渲染三维特征,包括:
遍历所述待渲染三维模型中的各个待渲染顶点,针对遍历到的每个待渲染顶点执行以下处理:
获取所述待渲染顶点在第一维度平面的第一顶点特征、在第二维度平面的第二顶点特征、以及在第三维度平面的第三顶点特征;
结合所述第一顶点特征、所述第二顶点特征和所述第三顶点特征,获得顶点三维特征;
基于遍历获得的与各个所述待渲染顶点对应的各个所述顶点三维特征,确定所述待渲染三维特征。
4.根据权利要求3所述的方法,其特征在于,所述基于遍历获得的与各个所述待渲染顶点对应的各个所述顶点三维特征,确定所述待渲染三维特征,包括:
将遍历获得的与各个所述待渲染顶点对应的各个所述顶点三维特征,划分为三维特征序列;
通过迭代j遍历所述三维特征序列,将遍历到的第j个三维特征和第j+1个三维特征,结合为第j+1个目标三维特征,其中,j为正整数;
当遍历完所述三维特征序列时,基于遍历j获得的各个所述目标三维特征,得到与所述三维特征序列对应的目标三维特征序列;
将所述目标三维特征序列组合为所述待渲染三维特征。
5.根据权利要求1至4任一项所述的方法,其特征在于,所述基于所述待渲染三维特征,在视角方向序列上进行颜色预测,得到视角图像序列,包括:
遍历所述视角方向序列,对每个遍历到的所述视角方向执行以下处理:
在所述视角方向上对所述待渲染三维特征进行位置编码,得到颜色参数和体密度参数;
结合所述颜色参数和所述体密度参数进行颜色预测,得到所述视角图像;
当遍历完所述视角方向序列时,由每个所述视角方向对应的所述视角图像,获得与所述视角方向序列对应的所述视角图像序列。
6.根据权利要求5所述的方法,其特征在于,所述结合所述颜色参数和所述体密度参数进行颜色预测,得到所述视角图像,包括:
确定所述待渲染三维模型在所述视角方向上的模型视角位置;
沿所述视角方向,获取从相机近边界到所述模型视角位置的累积透射率;
将所述累积透射率、所述颜色参数和所述体密度参数,组合为待积分对象;
将所述待积分对象在所述相机近边界和相机远边界之间的积分结果,确定为所述视角图像。
7.根据权利要求1至4任一项所述的方法,其特征在于,所述模型重构通过素材重构模型实现,所述素材重构模型通过以下方式获得:
获取渲染素材样本以及所述渲染素材样本的三维模型标签;
采用待训练模型对所述渲染素材样本进行模型重构,得到三维预测模型,其中,所述待训练模型为待训练的用于对渲染素材进行模型重构的神经网络模型;
基于所述三维模型标签和所述三维预测模型之间的差异,训练所述待训练模型,得到所述素材重构模型。
8.根据权利要求1至4任一项所述的方法,其特征在于,所述对待处理渲染素材进行模型重构,得到待渲染三维模型,包括:
对所述待处理渲染素材进行模型重构,得到待检测三维模型;
将所述待检测三维模型转换至视觉空间,得到待呈现模型;
基于所述待呈现模型确定待修正信息;
基于所述待修正信息修正所述待检测三维模型,得到所述待渲染三维模型。
9.根据权利要求1至4任一项所述的方法,其特征在于,所述基于所述待渲染三维特征,在视角方向序列上进行颜色预测,得到视角图像序列之后,所述方法还包括:
将所述视角图像序列与所述视角方向序列进行对应存储,得到视角图像库;
获取待渲染视角方向序列;
当所述视角方向序列包括所述待渲染视角方向序列时,从所述视角图像库的所述视角图像序列中,选择与所述待渲染视角方向序列对应的视角图像子序列;
基于所述视角图像子序列渲染虚拟对象。
10.根据权利要求9所述的方法,其特征在于,所述基于所述待渲染三维特征,在视角方向序列上进行颜色预测,得到视角图像序列之后,所述方法还包括:
当所述待渲染视角方向序列包括所述视角方向序列时,从所述视角图像库中获取所述视角图像序列;
基于所述待渲染视角方向序列与所述视角方向序列之间的视角方向差序列,对所述视角图像序列进行预测,得到新视角图像序列;
基于所述新视角图像序列渲染虚拟对象。
11.根据权利要求1至4任一项所述的方法,其特征在于,所述基于所述待渲染三维模型和所述视角图像序列,确定目标三维模型,包括:
通过迭代m遍历所述视角方向序列,针对遍历到的第m个所述视角方向执行以下处理,其中,m为正整数:
从所述视角图像序列中,获取与第m个所述视角方向对应的第m个所述视角图像;
在第m-1个待叠加三维模型的第m个所述视角方向上,叠加第m个所述视角图像,得到第m个所述待叠加三维模型,其中,当m为1时,第m-1个待叠加三维模型为所述待渲染三维模型;
将所述视角方向序列遍历完成时所获得的第m个所述待叠加三维模型,确定为所述目标三维模型。
12.一种数据渲染装置,其特征在于,所述数据渲染装置包括:
模型重构模块,用于对待处理渲染素材进行模型重构,得到待渲染三维模型;
特征提取模块,用于对所述待渲染三维模型进行特征提取,得到待渲染三维特征;
图像确定模块,用于基于所述待渲染三维特征,在视角方向序列上进行颜色预测,得到视角图像序列,其中,所述视角方向序列中的视角方向表示三维空间中的模型呈现视角,所述视角图像序列中的视角图像为所述视角方向上的模型图像;
模型确定模块,用于基于所述待渲染三维模型和所述视角图像序列,确定目标三维模型;
对象渲染模块,用于基于所述目标三维模型渲染虚拟对象。
13.一种电子设备,其特征在于,所述电子设备包括:
存储器,用于存储计算机可执行指令或者计算机程序;
处理器,用于执行所述存储器中存储的计算机可执行指令或者计算机程序时,实现权利要求1至11任一项所述的数据渲染方法。
14.一种计算机可读存储介质,存储有计算机可执行指令或者计算机程序,其特征在于,所述计算机可执行指令或者计算机程序被处理器执行时,实现权利要求1至11任一项所述的数据渲染方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410029685.6A CN117541703B (zh) | 2024-01-09 | 2024-01-09 | 一种数据渲染方法、装置、设备及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410029685.6A CN117541703B (zh) | 2024-01-09 | 2024-01-09 | 一种数据渲染方法、装置、设备及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117541703A true CN117541703A (zh) | 2024-02-09 |
CN117541703B CN117541703B (zh) | 2024-04-30 |
Family
ID=89788445
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410029685.6A Active CN117541703B (zh) | 2024-01-09 | 2024-01-09 | 一种数据渲染方法、装置、设备及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117541703B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100060191A (ko) * | 2008-11-27 | 2010-06-07 | 삼성전자주식회사 | 전자기기에서 3차원 모델 생성 및 렌더링 방법 및 장치 |
US20150302635A1 (en) * | 2014-03-17 | 2015-10-22 | Meggitt Training Systems Inc. | Method and apparatus for rendering a 3-dimensional scene |
CN113822977A (zh) * | 2021-06-28 | 2021-12-21 | 腾讯科技(深圳)有限公司 | 图像渲染方法、装置、设备以及存储介质 |
CN113902848A (zh) * | 2021-10-14 | 2022-01-07 | 北京达佳互联信息技术有限公司 | 对象重建方法、装置、电子设备及存储介质 |
CN114693853A (zh) * | 2022-04-06 | 2022-07-01 | 商汤集团有限公司 | 对象渲染方法、装置、电子设备及存储介质 |
WO2022228383A1 (zh) * | 2021-04-30 | 2022-11-03 | 华为技术有限公司 | 一种图形渲染方法以及装置 |
CN116342776A (zh) * | 2023-03-06 | 2023-06-27 | 北京迈格威科技有限公司 | 三维场景解耦方法、电子设备及存储介质 |
CN116977522A (zh) * | 2023-06-02 | 2023-10-31 | 腾讯科技(深圳)有限公司 | 三维模型的渲染方法、装置、计算机设备和存储介质 |
CN117351133A (zh) * | 2023-12-05 | 2024-01-05 | 腾讯科技(深圳)有限公司 | 一种数据渲染方法、装置、设备及计算机可读存储介质 |
-
2024
- 2024-01-09 CN CN202410029685.6A patent/CN117541703B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100060191A (ko) * | 2008-11-27 | 2010-06-07 | 삼성전자주식회사 | 전자기기에서 3차원 모델 생성 및 렌더링 방법 및 장치 |
US20150302635A1 (en) * | 2014-03-17 | 2015-10-22 | Meggitt Training Systems Inc. | Method and apparatus for rendering a 3-dimensional scene |
WO2022228383A1 (zh) * | 2021-04-30 | 2022-11-03 | 华为技术有限公司 | 一种图形渲染方法以及装置 |
CN113822977A (zh) * | 2021-06-28 | 2021-12-21 | 腾讯科技(深圳)有限公司 | 图像渲染方法、装置、设备以及存储介质 |
CN113902848A (zh) * | 2021-10-14 | 2022-01-07 | 北京达佳互联信息技术有限公司 | 对象重建方法、装置、电子设备及存储介质 |
CN114693853A (zh) * | 2022-04-06 | 2022-07-01 | 商汤集团有限公司 | 对象渲染方法、装置、电子设备及存储介质 |
CN116342776A (zh) * | 2023-03-06 | 2023-06-27 | 北京迈格威科技有限公司 | 三维场景解耦方法、电子设备及存储介质 |
CN116977522A (zh) * | 2023-06-02 | 2023-10-31 | 腾讯科技(深圳)有限公司 | 三维模型的渲染方法、装置、计算机设备和存储介质 |
CN117351133A (zh) * | 2023-12-05 | 2024-01-05 | 腾讯科技(深圳)有限公司 | 一种数据渲染方法、装置、设备及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN117541703B (zh) | 2024-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Gwak et al. | Generative sparse detection networks for 3d single-shot object detection | |
Fan et al. | Unified implicit neural stylization | |
US11893763B2 (en) | Generating modified digital images utilizing a global and spatial autoencoder | |
US11393158B2 (en) | Utilizing voxel feature transformations for deep novel view synthesis | |
CN112581567B (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
WO2021158337A2 (en) | Neural rendering | |
CN116681630B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN116958323A (zh) | 图像生成方法、装置、电子设备、存储介质及程序产品 | |
CN112132770A (zh) | 图像修复的方法、装置、计算机可读介质及电子设备 | |
CN115908753A (zh) | 一种全身人体网格表面重建方法及相关装置 | |
CN117351133B (zh) | 一种数据渲染方法、装置、设备及计算机可读存储介质 | |
CN116958423B (zh) | 基于文本的三维建模方法、图像渲染方法及装置 | |
CN117392293A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN115965736B (zh) | 图像处理方法、装置、设备及存储介质 | |
CN117541703B (zh) | 一种数据渲染方法、装置、设备及计算机可读存储介质 | |
WO2023209560A1 (en) | Machine learning for vector map generation | |
CN114333069B (zh) | 对象的姿态处理方法、装置、设备及存储介质 | |
CN113222137A (zh) | 神经渲染 | |
Li | Convolutional Neural Network‐Based Virtual Reality Real‐Time Interactive System Design for Unity3D | |
US20230360327A1 (en) | Generating three-dimensional representations for digital objects utilizing mesh-based thin volumes | |
CN117252787B (zh) | 图像重新照明方法、模型训练方法、装置、设备及介质 | |
CN116991296B (zh) | 一种物体编辑的方法、装置、电子设备及存储介质 | |
US20240161362A1 (en) | Target-augmented material maps | |
CN117853678A (zh) | 基于多源遥感进行地理空间数据三维实体化改造的方法 | |
Lee | Automatically generating textured buildings using reconstructive and statistical methods |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |