CN113592997B - 基于虚拟场景的物体绘制方法、装置、设备及存储介质 - Google Patents
基于虚拟场景的物体绘制方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN113592997B CN113592997B CN202110870824.4A CN202110870824A CN113592997B CN 113592997 B CN113592997 B CN 113592997B CN 202110870824 A CN202110870824 A CN 202110870824A CN 113592997 B CN113592997 B CN 113592997B
- Authority
- CN
- China
- Prior art keywords
- shooting
- target object
- map
- mapping
- angle range
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 81
- 238000003860 storage Methods 0.000 title claims abstract description 34
- 238000013507 mapping Methods 0.000 claims abstract description 149
- 230000000007 visual effect Effects 0.000 claims description 17
- 238000004422 calculation algorithm Methods 0.000 claims description 12
- 230000004044 response Effects 0.000 claims description 10
- 238000009877 rendering Methods 0.000 claims description 9
- 230000000694 effects Effects 0.000 abstract description 14
- 238000005516 engineering process Methods 0.000 description 19
- 230000008569 process Effects 0.000 description 19
- 238000010586 diagram Methods 0.000 description 16
- 238000012545 processing Methods 0.000 description 11
- 238000005070 sampling Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 230000002093 peripheral effect Effects 0.000 description 10
- 230000001133 acceleration Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 238000004590 computer program Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 239000000919 ceramic Substances 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
Abstract
本申请公开了一种基于虚拟场景的物体绘制方法、装置、设备及存储介质,涉及计算机技术领域。该方法包括:获取目标物体的视角范围参数,视角范围参数用于指示目标物体的有效视角范围,基于视角范围参数确定对目标物体进行贴图采集的与有效视角范围存在交集的拍摄点位置,从拍摄点位置对目标物体进行贴图采集,将得到的至少一个物体贴图存储至与虚拟场景对应的贴图文件中,根据符合贴图绘制条件的观察点,从贴图文件中获取与观察点对应的物体贴图进行绘制。在保证目标物体能在虚拟场景中多视角效果展示的前提下,能够提高贴图的利用率。
Description
技术领域
本申请实施例涉及计算机技术领域,特别涉及一种基于虚拟场景的物体绘制方法、装置、设备及存储介质。
背景技术
虚拟场景中的物体绘制是指通过采集并烘焙物体的视角资源得到物体的视角贴图,在虚拟场景运行时选取物体对应的视角贴图进行渲染的过程。
在相关技术中,通过采集大量物体位于球面空间中的视角并进行烘焙,将得到的物体各视角的面片存储到贴图文件中,在虚拟场景运行时根据物体需要展示的视角范围从贴图文件中选取对应的物体视角面片,用物体视角面片伪装成物体进行展示。
然而上述方式中,需要对物体的每个视角进行贴图采集并存储贴图,造成物体贴图采样工作量较大,且由于物体视角数量多,造成贴图文件存储空间的占用率较高,一定程度上限制了虚拟场景运行的流畅度。
发明内容
本申请实施例提供了一种基于虚拟场景的物体绘制方法、装置、设备及存储介质,能够节省贴图文件的存储空间,提高物体绘制的工作效率。所述技术方案如下:
一方面,提供了一种基于虚拟场景的物体绘制方法,所述方法包括:
获取目标物体的视角范围参数,所述目标物体为设置于所述虚拟场景中的虚拟物体,所述视角范围参数用于指示所述目标物体的有效视角范围;
基于所述视角范围参数确定对所述目标物体进行贴图采集的拍摄点位置,所述拍摄点位置的拍摄范围与所述视角范围参数对应的有效视角范围存在交集;
从所述拍摄点位置对所述目标物体进行贴图采集,得到至少一个物体贴图;
将所述至少一个物体贴图存储至与所述虚拟场景对应的贴图文件中;
响应于针对所述目标物体的绘制指令,且对所述目标物体进行观察的观察点符合贴图绘制条件,从所述贴图文件中获取与所述观察点对应的物体贴图进行绘制。
另一方面,提供了一种基于虚拟场景的物体绘制装置,所述装置包括:
获取模块,用于获取目标物体的视角范围参数,所述目标物体为设置于所述虚拟场景中的虚拟物体,所述视角范围参数用于指示所述目标物体的有效视角范围;
确定模块,用于基于所述视角范围参数确定对所述目标物体进行贴图采集的拍摄点位置,所述拍摄点位置的拍摄范围与所述视角范围参数对应的有效视角范围存在交集;
采集模块,用于从所述拍摄点位置对所述目标物体进行贴图采集,得到至少一个物体贴图;
存储模块,用于将所述至少一个物体贴图存储至与所述虚拟场景对应的贴图文件中;
绘制模块,用于响应于针对所述目标物体的绘制指令,且对所述目标物体进行观察的观察点符合贴图绘制条件,从所述贴图文件中获取与所述观察点对应的物体贴图进行绘制。
另一方面,提供了一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如上述本申请实施例中任一所述的基于虚拟场景的物体绘制方法。
另一方面,提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如上述本申请实施例中任一所述的基于虚拟场景的物体绘制方法。
另一方面,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述实施例中任一所述的基于虚拟场景的物体绘制方法。
本申请实施例提供的技术方案带来的有益效果至少包括:
通过分析目标物体的候选拍摄点的拍摄范围,得到与有效视角范围存在交集的目标候选拍摄点。根据目标候选拍摄点对物体进行贴图采集得到物体贴图并存入贴图文件中,在虚拟场景运行时根据观察点的视角范围选择相应的物体贴图进行绘制,不仅保证了物体多视角展示效果,还减少了物体贴图的采样时间,提高了贴图文件的利用率,节省内存空间。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一个示例性实施例提供的实施环境示意图;
图2是本申请一个示例性实施例提供的基于虚拟场景的物体绘制过程示意图;
图3是本申请一个示例性实施例提供的基于虚拟场景的物体绘制过程的流程图;
图4是本申请一个示例性实施例提供的目标物体视角范围参数设定分析过程示意图;
图5是本申请一个示例性实施例提供的三维球面空间映射分析过程示意图;
图6是本申请一个示例性实施例提供的替代物体贴图的选择方法的示意图;
图7是本申请一个示例性实施例提供的虚拟场景运行过程的流程图;
图8是本申请一个示例性实施例提供的储存贴图文件方式的流程图;
图9是本申请一个示例性实施例提供的物体贴图获取过程示意图;
图10是本申请一个示例性实施例提供的物体贴图存储方式示意图;
图11是本申请一个示例性实施例提供的基于虚拟场景的物体绘制过程的流程图;
图12是本申请一个示例性实施例提供的基于虚拟场景的物体绘制装置的流程图;
图13是本申请另一个示例性实施例提供的基于虚拟场景的物体绘制装置的流程图;
图14是本申请一个示例性实施例提供的服务器的结构框图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
首先,针对本申请实施例中涉及的名词进行简单介绍。
三维球面空间(3-spherical space):表示以球体中心为整个空间中心构建的一个三维空间。在三维空间中某一目标点的坐标,由该目标点基于三维球面空间中球体中心的俯仰角、水平角和距离确定,也即,在确定目标点相对球体中心的俯仰角、水平角和距离后,即可确定目标点在三维空间中相对球体中心的位置。
公告牌技术(Billboard技术):是计算机图形学领域中进行快速绘制的一种方法,在3D场景制作中有着广泛应用。公告牌技术的原理在于把三维物体用二维图像来表示,绘制物体的平面图片,并让该平面图片始终朝向镜头,在场景运行时该物体始终以朝向镜头的平面图片进行展示。公告牌技术需要提前在贴图上绘制好三维物体的显示内容,也即该平面图片,之后在场景运行时绘制一个永远朝向摄像机的面片,该面片上显示该三维物体的显示内容。
装箱算法:一种关于形状不等的图片进行容量最大化排列的计算方法。将一些大小不等的图片进行面积排序,每次选择面积最大的图片放进贴图,直到贴图无法放进当前面积最大的图片。
烘焙:烘焙是指将在场景中所需要展示的资源以图片的形式绘制到贴图上,在场景进行运行的时候就可以直接读取资源对应的贴图上以及绘制好的内容进行显示,用于节省性能。
最小包围盒:是一种求解离散点集最优包围空间的算法,目的在于获取某个物体可以完整包裹其的最小立方体的算法方式。
在相关技术中,随着计算机技术的不断发展,对于虚拟场景中物体的绘制不再依靠在镜头视角前单一显示提前绘制好的物体面片,而是通过计算机技术对物体进行球面空间视角采集并进行烘焙,得到物体的视角贴图并存入贴图文件中,在虚拟场景运行时选择与当前观察点视角对应的物体贴图进行展示,但是存在物体视角数量过多,且存在不必要的视角,如:当前不必要视角为物体视角与对应观察点范围不存在交集的情况,而对不必要视角对应的物体贴图进行采集导致采样时间较长,贴图文件存储空间占用率较高。
本申请实施例提供了一种基于虚拟场景的物体绘制方法,在该方法在实施过程中,能够确定目标物体的视角范围中的与有效视角范围存在交集的目标候选拍摄点,并对目标物体在目标候选拍摄点位置进行贴图采集得到物体贴图,将物体贴图存储进贴图文件中,在虚拟场景运行时选择与当前观察点视角范围对应的物体贴图进行绘制,在保证物体处于虚拟场景中多视角的展示效果的前提下提高了贴图文件的利用率,节省了贴图采样时间。
图1是本申请一个示例性实施例提供的实施环境示意图,如图1所示,该实施环境中包括终端110和服务器120,其中,终端110和服务器120之间通过通信网络130连接。
其中,终端110中安装有可以运行虚拟场景的应用程序,而该应用程序中具有显示虚拟场景中物体的功能,也即,当用户在终端110上运行应用程序,并通过应用程序能够看到虚拟场景中的物体展示效果,包括从不同视角看到的物体的不同展示效果。该物体的展示效果是由服务器120从目标物体的贴图文件中选择的物体贴图进行绘制得到的。
服务器120用于根据目标物体的视角范围参数确定目标物体的候选目标拍摄点,其中,候选目标拍摄点的视角范围与目标物体的有效视角范围存在交集。其中,服务器120在确定候选目标拍摄点位置后对目标物体进行贴图采集,并存储入贴图文件中。
示意性的,当终端110需要在虚拟场景运行过程中展示物体指定观察点效果时,向服务器120发送展示请求,展示请求中包括对目标物体符合在当前观察点的绘制条件,服务器根据从终端110发送的绘制条件指令在目标物体的贴图文件中选取与当前观察点对应的物体贴图,并将物体贴图绘制结果反馈至终端110进行展示。
终端可以是智能手机、平板电脑、台式电脑等,但并不局限于此。终端以及服务器可以通过有线或无线通信方式进行直接或间接地连接,本申请在此不做限制。
值得注意的是,上述服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(Content DeliveryNetwork,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。
其中,云技术(Cloud technology)是指在广域网或局域网内将硬件、软件、网络等系列资源统一起来,实现数据的计算、储存、处理和共享的一种托管技术。云技术基于云计算商业模式应用的网络技术、信息技术、整合技术、管理平台技术、应用技术等的总称,可以组成资源池,按需所用,灵活便利。云计算技术将变成重要支撑。技术网络系统的后台服务需要大量的计算、存储资源,如网站、图片类网站和更多的门户网站。伴随着互联网行业的高度发展和应用,将来每个物品都有可能存在自己的识别标志,都需要传输到后台系统进行逻辑处理,不同程度级别的数据将会分开处理,各类行业数据皆需要强大的系统后盾支撑,只能通过云计算来实现。
在一些实施例中,上述服务器还可以实现为区块链系统中的节点。区块链(Blockchain)是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链,本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层。
首先图2是本申请一个示例性实施例提供的基于虚拟场景的物体绘制过程示意图,如图2所示,该过程中首先从目标物体的拍摄点集合中获取候选拍摄点210,通过候选拍摄点210得到目标物体的拍摄范围,包括有效视角范围220和无效视角范围230,并基于目标物体的视角范围参数确定与有效视角范围220存在交集关系的拍摄点位置作为目标候选拍摄点240,并根据目标候选拍摄点240对目标物体进行贴图采集得到n个物体贴图250,将n个物体贴图250存入对应的贴图文件260中,根据虚拟场景运行时对目标物体进行观察的观察点选取与当前观察点对应的物体贴图进行绘制得到绘制贴图270,n为正整数。
结合上述实施环境,对本申请实施例提供的基于虚拟场景的物体绘制方法进行说明,以该方法应用于如图1所示的服务器120中为例进行说明,如图3所示,该方法包括:
步骤301,获取目标物体的视角范围参数。
其中,目标物体为设置于虚拟场景中的虚拟物体,视角范围参数用于指示目标物体的有效视角范围。
可选地,服务器获取目标物体的方式包括如下方式中的至少一种:
第一,服务器接收终端发送的第一绘制指令,第一绘制指令中包括物体贴图绘制标记,服务器根据物体贴图绘制标记从已存储的物体文件中获取目标物体;
第二,服务器接收终端发送的第二绘制指令,第二绘制请求中包括物体贴图绘制标记以及虚拟场景选取条件;服务器根据虚拟场景选取条件从已存储的虚拟场景文件中获取符合选取条件的虚拟场景,并根据物体贴图绘制标记从获取的虚拟场景中选择目标物体。
值得注意的是,上述获取目标物体的方式仅为示意性的举例,本申请实施例对获取目标物体的具体方式不加以限定。
在一些实施例中,目标物体是存在于虚拟场景中的物体,该目标物体需要在虚拟场景中进行多个不同视角的效果展示,如场景中的树木、房屋、汽车、山、河流等;或者,该目标物体是处于虚拟场景中相对于观察点距离较远的物体。
在一些实施例中,获取目标物体的视角范围参数需要确定服务器对目标物体视角范围的设置操作类型,服务器对目标物体的视角范围执行设置指令,对目标物体的有效视角范围进行调整修改,可选地,对目标物体的有效视角范围进行调整的方式包括如下方式中的至少一种:
第一,通过输入角度的数值来限定目标物体的有效视角范围,示意性的,请参考图4,其示出了本申请一个示例性实施例提供的目标物体视角范围参数设定分析过程示意图。如图4所示,在视角范围约束界面上,有四个待设参数最小俯仰角(Min Phi)410、最大俯仰角(Max Phi)420、最小水平角(Min Theta)430以及最大水平角(Max Theta)440。输入最小俯仰角410的数值为0、最大俯仰角420的数值为90、最小水平角420的数值为-120以及最大水平角440的数值为-60,由此可以得到目标物体的有效视角范围为俯仰角在0度到90度且水平角在-120度到-60度的三维球面空间内。即,显示视角范围设置界面,视角范围设置界面中包括范围填充区域;接收在范围填充区域中的视角范围设置操作。
第二,构建一个以三维球面空间为基准的视角范围限制模型,将目标物体放至该三维球面空间的球体中心位置,在目标物体所处的三维球面空间内进行区域划分,划出目标物体在三维球面空间内的所需展示的范围,根据划出的范围所得的三维空间球面范围就是目标物体的有效视角范围,即,接收视角范围设置操作,视角范围设置操作用于对目标物体的有效视角范围进行设置;基于视角范围操作确定视角范围参数。其中,在放置目标物体后,以垂直于目标物体中线的直径平面作为俯仰角为0的平面,以面向目标物体的方向作为平面角为0的方向。值得注意的是,上述角度的确定方式仅为示意性的距离。可选地,该三维球面空间的直径是根据目标物体的尺寸确定的;或者,该三维球面空间的直径是预先设定的。
步骤302,基于视角范围参数确定对目标物体进行贴图采集的拍摄点位置。
其中,拍摄点位置的拍摄范围与视角范围参数对应的有效视角范围存在交集。
在一些实施例中,首先获取目标物体的拍摄点集合,包括能够展示目标物体在不同视角下形状的所有拍摄点,即,获取拍摄点集合,拍摄点集合中包括候选拍摄点。可选地,服务器获取拍摄点集合的方式包括如下方式中的至少一种:
第一,服务器将拍摄点随机分布在目标物体对应的三维球面空间范围上获得目标物体的拍摄点集合;
第二,服务器通过将固定数量的拍摄点均匀分布在目标物体对应的三维球面空间上获得目标物体的拍摄点集合;
第三,服务器通过将目标物体放入预先储存的拍摄点位于三维球面空间上的布局模型中的指定位置,使布局模型中的拍摄点都能包含目标物体的视角范围,得到目标物体的拍摄点集合。
其次,获取候选拍摄点相对于目标物体的拍摄范围,其中,各候选拍摄点对于目标物体的拍摄范围有可能存在交集,或者,也有可能互不交集。
选取候选拍摄点中与有效视角范围存在交集的拍摄点作为目标物体的目标候选拍摄点,目标候选拍摄点为对目标物体进行贴图采集的位置,可选地,通过将候选拍摄点在三维球面空间内的视角范围参数与有效视角范围参数进行对比,选择存在视角范围参数有交集的候选拍摄点作为目标候选拍摄点;也可以将候选拍摄点的视角范围与有效范围进行区域重叠,选择包含重叠部分的候选拍摄点作为目标候选拍摄点,其中目标候选拍摄点的视角范围与有效视角范围可能完全重叠,也可能部分视角范围存在重叠,即,响应于目标候选拍摄点的拍摄范围与有效视角范围存在交集,将目标候选拍摄点作为对目标物体进行贴图采集的拍摄点位置。
步骤303,从拍摄点位置对目标物体进行贴图采集,得到至少一个物体贴图。
从拍摄点位置通过对应的摄像机模型对目标物体进行贴图采集,得到每个拍摄点位置对应的物体贴图。
在一些实施例中,候选拍摄点的视角范围中还包括无效拍摄位置,无效拍摄位置的视角范围与有效视角范围不存在交集。在一些实施例中,当观察点位于目标物体的指定位置,而指定位置与无效拍摄位置的拍摄视角一致时,也即无效拍摄位置也需要进行贴图渲染。基于有效拍摄位置的第一位置坐标和无效拍摄位置的第二位置坐标,采用有效拍摄位置采集的物体贴图作为无效拍摄位置对应的替代物体贴图。
在一些实施例中,将三维球面空间映射到二维平面,获得三维球面空间上的网格对应的二维球面的平面坐标,示意性的,请参考图5,其示出了本申请一个示例性实施例提供的三维球面空间映射分析过程示意图。如图5所示,在三维球面空间中进行区域划分,得到网格区域510,将三维球面空间映射到二维平面,三维球面空间上的网格也相应映射到二维平面,得到网格在二维平面上的位置坐标。本申请实施例中通过将目标物体从三维球面空间映射到二维平面,得到目标物体拍摄点的第一位置坐标,第一位置坐标用于指示拍摄点在三维球面空间上的网格对应二维平面的映射结果,通过第一位置坐标的摄像机模型对目标物体进行贴图采集,得到至少一个物体贴图520。即,将三维球面空间映射至二维平面;基于拍摄点位置对应三维球面空间上的拍摄点网格,确定拍摄点位置对应二维平面的第一位置坐标;从拍摄点位置对目标物体进行贴图采集,得到至少一个物体贴图,该物体贴图对应二维平面上的第一位置坐标。
先确定目标物体的无效拍摄位置在三维球面空间上对应的网格,通过将三维球面空间映射到二维平面得到无效拍摄位置对应网格在二维平面上的网格坐标,作为无效拍摄位置的第二位置坐标。即,基于无效拍摄位置对应三维球面空间上的无效网格,确定无效拍摄位置对应二维平面的第二位置坐标。在一些实施例中,通过分析第一位置坐标和第二位置坐标,在目标候选拍摄点中确定能够替代无效拍摄位置的目标候选拍摄点,对目标候选拍摄点进行贴图采集得到的物体贴图作为无效拍摄位置对应的无体贴图。可选地,替代物体贴图与在无效拍摄位置视角下对目标物体进行图像采集得到的图像内容一致或者相似。即,基于第二位置坐标和第一位置坐标的坐标关系,确定与无效拍摄位置对应的替代物体贴图,替代物体贴图为用于替代无效拍摄位置贴图情况的物体贴图。
在一些实施例中,通过分析第一位置坐标和第二位置坐标的所在二维平面的圈层关系,得到无效拍摄位置对应的替代物体贴图,请参考图6,其示出了本申请一个示例性实施例提供的替代物体贴图的选择方法的示意图,如图6所示,该方法包括:获取拍摄点对应二维平面的第一位置坐标,得到拍摄点位置的物体贴图610,分析第一位置坐标和第二位置坐标的所处二维平面的圈层关系620,可选地,第一位置坐标所在的二维平面与第二位置坐标所在的二维平面可能在同一层,也可能在不同层,确定与第二位置坐标处于同一层的第一位置坐标作为第二位置坐标的无效拍摄位置,将与无效拍摄位置对应的第一坐标位置的物体贴图作为替代物体贴图,即,基于二维平面的圈层关系,确定第二位置坐标处于同层的第一位置坐标;基于第二位置坐标处于同层的第一位置坐标,确定与无效拍摄位置对应的替代物体贴图。
示意性的,分析第一位置坐标和第二位置坐标关系的方式还包括如下方式的至少一种:
1.计算位置坐标所包含的区域范围,通过对比第一位置坐标的区域范围和第二位置坐标的区域范围,得到第一位置坐标和第二位置坐标的区域对比情况,如:两个位置坐标对应的区域范围完全重合,两个位置坐标对应的区域范围存在部分重合以及两个位置坐标对应的区域范围完全没有重合。
2.将第一位置坐标与第二位置坐标进行绝对值相减,获得一个新的位置坐标,如果新的位置坐标在二维平面空间中存在,则表明第一位置坐标与第二位置坐标存在交集关系;如果新的位置坐标在二维平面中不存在,则表明第一位置坐标与第二位置坐标不存在交集关系。
值得注意的是,上述分析坐标关系的方式仅为示意性的举例,本申请实施例对分析坐标关系的方式不加以限定。
步骤304,将至少一个物体贴图储存至与虚拟场景对应的贴图文件中。
在一些实施例中,需要先获取物体贴图在虚拟场景中对应的贴图文件,获取贴图文件的方式包括如下方式的至少一种:
第一,将物体贴图按照面积进行分类,将面积相近的物体贴图归类进同一个贴图文件;
第二,将物体贴图按照资源相似度进行分类(如:树木资源、房屋资源等),将相似度较高的物体贴图归类进同一个贴图文件;
第三,将物体贴图按照在虚拟场景中相关度进行分类,与虚拟场景相关度较高的物体贴图归类进同一个贴图文件;
第四,通过装箱算法将物体贴图按照面积大小降序排列,根据排列结果归类进同一个贴图文件。
值得注意的是,上述获取贴图文件的方式仅为示意性的举例,本申请实施例对获取贴图文件的方式不加以限定。
在一些实施例中,将目标物体拍摄点位置的第一位置坐标作为索引条件,将物体贴图存入虚拟场景对应的贴图文件中,在虚拟场景运行时,根据索引条件,在贴图文件中寻找对应的物体贴图进行绘制,即,以第一位置坐标为索引条件,将至少一个物体贴图存储至与虚拟场景对应的贴图文件中。同样地,将目标物体的替代物体贴图对应的第一位置坐标作为无效拍摄位置对应的索引条件,在虚拟场景运行时,根据索引条件,在贴图文件中寻找对应的替代物体贴图,即,将替代物体贴图对应的第一位置坐标作为无效拍摄位置对应的索引路径。
步骤305,响应于针对目标物体的绘制指令,且对目标物体进行观察的观察点符合贴图绘制条件,从贴图文件中获取与观察点对应的物体贴图进行绘制。
其中,贴图绘制条件指目标物体的物体贴图与观察点位置上的目标物体图像的对应条件,可选地,包括距离条件,视角关系条件或者遮挡情况条件中的至少一种:
第一,判断目标物体与观察点之间的距离,根据距离远近来选择与对应距离匹配的物体贴图进行绘制;
第二,判断目标物体与观察点之间的视角关系,通过判断视角关系选择角度符合视角关系条件的物体贴图进行绘制;
第三,判断观察点处的遮挡情况,根据遮挡情况选择与遮挡后视角范围匹配的物体贴图进行绘制。
首先,需要获取对目标物体进行观察的观察点位置。可选地,获取观察点位置的方式包括如下方式的至少一种;
第一,在对目标物体进行观察的观察点处建立三维球面空间模型,获得观察点在三维球面空间中的位置,确定观察点在三维球面空间中对应网格位置,通过将三维球面空间映射到二维平面获取三维球面空间中网格对应到二维平面上的网格坐标,即观察点位于二维平面上的位置坐标。
第二,对目标物体与观察点位置之间的距离达到或超过拍摄点位置与观察点位置之间设置的距离阈值时,获取当前拍摄点位置对应的物体贴图进行绘制,如当前拍摄点与观察点之间的距离为300米,而拍摄点位置与观察点之间设置的距离阈值为280米,则选取当前拍摄点位置对应的物体贴图进行绘。
值得注意的是,上述获取对目标物体进行观察的观察点位置的方式仅为示意性的举例,本申请实施例对目标物体进行观察的观察点位置的方式不加以限定。
其次,从贴图文件中获取与观察点对应的物体贴图进行绘制,示意性的,请参考图7,图7是本申请一个示例性实施例提供的虚拟场景运行过程的流程图,如图7所示,在运行时,需要在贴图文件中找到与对目标物体进行观察的观察点对应的视角物体贴图,并将其绘制到面片上,步骤包括绘制面片710、采样贴图进行绘制720以及绘制贴图到面片上730。具体操作流程如下:
步骤710:绘制一张始终朝向摄像机的目标物体的面片,其方法为常用的billboard方法;
步骤720:将摄像机的位置转换到面片的模型空间中,求出摄像机当前的拍摄视角,并通过索引表找到该视角在贴图中的存放位置,对该存放位置进行贴图采样;
步骤730:将采样后的结果绘制到面片上。
综上所述,本申请实施例提供的基于虚拟场景的物体绘制方法,通过分析目标物体的候选拍摄点的拍摄范围,得到与有效视角范围存在交集的目标候选拍摄点。根据目标候选拍摄点对物体进行贴图采集得到物体贴图并存入贴图文件中,在虚拟场景运行时根据观察点的视角范围选择相应的物体贴图进行绘制,不仅保证了物体多视角展示效果,还减少了物体贴图的采样时间,提高了贴图文件的利用率,节省内存空间。
在一些实施例中,上述储存贴图文件的方法还包括装箱算法的储存方式。图8是本申请一个示例性实施例提供的储存贴图文件方式的流程图,如图8所示,该方法包括:
步骤801,取目标物体的视角范围参数。
其中,目标物体为设置于所述虚拟场景中的虚拟物体,视角范围参数用于指示所述目标物体的有效视角范围。
步骤802,基于视角范围参数确定对目标物体进行贴图采集的拍摄点位置。
其中,拍摄点位置的拍摄范围与视角范围参数对应的有效视角范围存在交集。
步骤803,从拍摄点位置对目标物体进行贴图采集,得到至少一个物体贴图。
在一些实施例中,需要将目标物体的三维模型生成到需要展示的虚拟场景中,可选地,通过确定目标物体三维模型的关键点,在目标场景中描绘关键点将目标物体生成到目标场景中;可选地,在目标场景中建立三维空间模型,将目标物体的三维模型放入目标场景中建立好的三维空间模型中,即,将目标物体的三维模型资源生成至目标场景中。可选地,目标场景为一个空白场景,也即在目标场景中仅包括需要进行贴图采集的目标物体,而不存在其他虚拟物体。
在一些实施例中,在将目标物体的三维模型资源生成至目标场景后,需要通过调整摄像机模型的拍摄参数获得一个拍摄画面系数,通过拍摄画面系数目标物体进行贴图采集得到物体贴图,请参考图9,其示出了本申请一个示例性实施例提供的物体贴图获取过程示意图,如图9所示,选择一个位置用于拍摄目标物体的初始位置,通过获取当前位置拍摄所得的物体贴图的最小包围盒参数,根据目标物体的最小包围盒的对角线距离,调整位于该位置摄像机模型的拍摄参数,使得当前物体贴图910能够完整的出现在摄像机模型画面内,从拍摄点位置对目标物体进行贴图采集,得到n个拍摄点位置分别对应的候选物体贴图,并将n个候选物体贴图叠加,得到叠加画面920。可选地,叠加方式可能为按照候选物体贴图进行贴图采集的先后顺序进行叠加,或者,叠加方式为选择特征相似的先进行叠加,最后将得到的特征相似的叠加效果再进行叠加得到叠加画面。
在一些实施例中,获取叠加画面中目标物体带有像素部分的长宽数值,与摄像机画面的长宽进行对比计算,得到叠加画面的缩放比例系数,根据叠加画面的缩放比例系数调整摄像机模型拍摄画面,对目标物体进行贴图采集得到物体贴图,即,基于叠加画面中目标物体占用像素的尺寸,确定缩放比例;基于缩放比例得到至少一个物体贴图。
在一些实施例中,物体贴图需要通过调整摄像机模型拍摄画面的缩放比例参数来获取,根据叠加画面的缩放比例系统调整摄像机模型拍摄画面需要以摄像机模型以第一距离进行调整,获得摄像机模型的第二距离,第二距离为使得候选物体能够正好充满摄像机模型画面的拍摄距离。即,基于缩放比例对第一距离进行位置调整,得到第二距离;通过摄像机模型以第二距离对目标物体进行贴图采集,得到至少一个物体贴图。
步骤804,通过装箱算法将至少一个物体贴图存储至与虚拟场景对应的贴图文件中。
在一些实施例中,将至少一个物体贴图通过装箱算法存储进贴图文件中,请参考图10,图10是本申请一个示例性实施例提供的物体贴图存储方式示意图,如图10所示,通过装箱算法,将物体贴图空间最大化存入对应的贴图文件中。将目标物体的物体贴图1010按照面积来进行降序排列,选择面积最大的物体贴图存储进贴图文件1020中,再选择剩下物体贴图中面积最大的储存进物体贴图中,重复上述步骤,直到贴图文件中无法存储进当前面积最大的物体贴图后,选择当前物体贴图中能够存入贴图文件的物体贴图存储进贴图文件中。可选地,存入贴图文件中的物体贴图可能是同一个目标物体的物体贴图,也可能是不同目标物体的物体贴图。
步骤805,响应于针对目标物体的绘制指令,且对目标物体进行观察的观察点符合贴图绘制条件,从贴图文件中获取与观察点对应的物体贴图进行绘制。
综上所述,本申请实施例提供的基于虚拟场景的物体绘制方法,通过分析目标物体的候选拍摄点的拍摄范围,得到与有效视角范围存在交集的目标候选拍摄点。根据目标候选拍摄点对物体进行贴图采集得到物体贴图并存入贴图文件中,在虚拟场景运行时根据观察点的视角范围选择相应的物体贴图进行绘制,不仅保证了物体多视角展示效果,还减少了物体贴图的采样时间,提高了贴图文件的利用率,节省内存空间。
当第一位置坐标所在的二维平面与第二位置坐标作为所在的二维平面处于同层时,选择与第二位置坐标同圈层内距离最近的第一位置坐标作为第二位置坐标的无效拍摄位置,得到无效拍摄位置对应的物体贴图为替代物体贴图;当第一位置坐标所在的二维平面与第二位置坐标作为所在的二维平面处于不同层时,选择第一位置坐标各圈层内与第二位置坐标距离最近的第一位置坐标作为第二位置坐标的无效拍摄位置,得到无效拍摄位置对应的物体贴图为替代物体贴图,即,响应于存在与第二位置坐标处于同层的第一位置坐标,将同层中与第二位置坐标最近的第一位置坐标对应的物体贴图作为替代物体贴图;响应于不存在与第二位置坐标处于同层的第一位置坐标,遍历第一位置坐标,并将与第二位置坐标最近的第一位置坐标对应的物体贴图作为替代物体贴图。
综上所述,本申请实施例提供的基于虚拟场景的物体绘制方法,通过分析目标物体的候选拍摄点的拍摄范围,得到与有效视角范围存在交集的目标候选拍摄点。根据目标候选拍摄点对物体进行贴图采集得到物体贴图并存入贴图文件中,在虚拟场景运行时根据观察点的视角范围选择相应的物体贴图进行绘制,不仅保证了物体多视角展示效果,还减少了物体贴图的采样时间,提高了贴图文件的利用率,节省内存空间。
图11是本申请一个示例性实施例提供的基于虚拟场景的物体绘制过程的流程图,如图11所示,该流程图包括如下部分。
1.设置球面参数1110。通过编辑三维球面空间参数来确定需要保留的视角范围在三维球面空间内的范围。
2.计算相机所有拍摄角度信息1120。按照视角范围参数,根据三维球面空间与二维平面的映射关系,生成三维球面空间内所有拍摄点位置的视角范围。
3.判断视角是否需要拍摄1130。将拍摄点位置的视角范围与视角范围参数进行覆盖对比,如果两个范围不存在交集,则标记该拍摄点位置为第二拍摄位置,如果存在交集,则标记该拍摄点位置为第一拍摄位置。
4.对于处于第二拍摄位置的视角,计算其所在层数,通过以下方式寻找替代视角:
(1)遍历所有与第二拍摄位置在同一层的视角,找到与其在三维球面空间中最近的第一拍摄位置,标记该位置为替代视角1140;
(2)如果同层中所有第一拍摄位置都被舍弃,则遍历所有视角,找到与第二拍摄位置在三维球面空间中距离最近的视角,标记该位置为替代视角1140。
5.配置场景中目标物体资源1150。将目标物体资源生成到一个空场景中,并在默认位置生成一个摄像机用于拍摄该目标物体资源。
6.调整摄像机参数,使目标物体可以充满相机屏幕1160。调整摄像机模型的拍摄参数,让目标物体可以充满摄像机模型的拍摄画面。第一步是获得该目标物体的最小包围盒,以最小包围盒的对角线为基准,将摄像机模型的拍摄视角长宽设定为与对角线长度一致的大小,来确保所拍摄的目标物体能够完整的出现在摄像机模型画面内。
7.之后为了让目标物体充满摄像机画面,需要进行进一步的调整。在所有标记第一拍摄位置的视角处对目标物体进行拍照就,将所有照片进行叠加,并去拍摄画面内含像素部分的长宽,与当前摄像机模型拍摄画面的长宽换算成比例系数。通过该比例系数来缩放摄像机模型拍摄画面的长宽后,即可得到一个正好能让目标物体充满摄像机模型画面的拍摄系数。
8.贴图采集,写入贴图文件1170。在所有第一位置坐标对目标物体进行贴图采集,将得到的物体贴图结果写入贴图文件中,具体写入的信息以项目需求为准。如果烘焙出来的物体贴图有利用率不足的情况,则可以将多个目标物体贴图烘焙到同一个贴图上,利用装箱算法将个物体贴图放入一张大的贴图中,并将放置的第一位置坐标作为索引条件存入一张表中,方便虚拟场景运行时,通过索引条件索引到当前位置在贴图文件中的第一坐标位置。
综上所述,本申请实施例提供的基于虚拟场景的物体绘制方法,通过分析目标物体的候选拍摄点的拍摄范围,得到与有效视角范围存在交集的目标候选拍摄点。根据目标候选拍摄点对物体进行贴图采集得到物体贴图并存入贴图文件中,在虚拟场景运行时根据观察点的视角范围选择相应的物体贴图进行绘制,不仅保证了物体多视角展示效果,还减少了物体贴图的采样时间,提高了贴图文件的利用率,节省内存空间。
图12是本申请一个示例性实施例提供的基于虚拟场景的物体绘制装置的结构图,如图12所示,该装置包括:
获取模块1210,用于获取目标物体的视角范围参数,所述目标物体为设置于所述虚拟场景中的虚拟物体,所述视角范围参数用于指示所述目标物体的有效视角范围;
确定模块1220,用于基于所述视角范围参数确定对所述目标物体进行贴图采集的拍摄点位置,所述拍摄点位置的拍摄范围与所述视角范围参数对应的有效视角范围存在交集;
采集模块1230,用于从所述拍摄点位置对所述目标物体进行贴图采集,得到至少一个物体贴图;
存储模块1240,用于将所述至少一个物体贴图存储至与所述虚拟场景对应的贴图文件中;
绘制模块1250,用于响应于针对所述目标物体的绘制指令,且对所述目标物体进行观察的观察点符合贴图绘制条件,从所述贴图文件中获取与所述观察点对应的物体贴图进行绘制。
在一个可选的实施例中,所述获取模块1210,还用于接收视角范围设置操作,所述视角范围设置操作用于对所述目标物体的有效视角范围进行设置;基于所述视角范围操作确定所述视角范围参数。
如图13所示,获取模块1210,还包括:
显示单元1211,用于显示视角范围设置界面,所述视角范围设置界面中包括范围填充区域;接收在所述范围填充区域中的所述视角范围设置操作;
所述显示单元1211,还用于显示所述目标物体对应的三维球面空间;接收在所述三维球面空间表面的区域划分操作作为所述视角范围设置操作。
在一个可选的实施例中,所述获取模块1210,还用于获取拍摄点集合,所述拍摄点集合中包括候选拍摄点;
所述获取模块1210,还用于获取所述候选拍摄点相对于所述目标物体的拍摄范围;
所述确定模块1220,还用于响应于目标候选拍摄点的拍摄范围与所述有效视角范围存在交集,将所述目标候选拍摄点作为对所述目标物体进行贴图采集的拍摄点位置。
在一个可选的实施例中,所述拍摄点位置对应所述目标物体对应的三维球面空间上的拍摄点网格;
所述存储模块1240,还用于将所述三维球面空间映射至二维平面;基于所述拍摄点位置对应所述三维球面空间上的拍摄点网格,确定所述拍摄点位置对应所述二维平面的第一位置坐标;以所述第一位置坐标为索引条件,将所述至少一个物体贴图存储至与所述虚拟场景对应的贴图文件中。
在一个可选的实施例中,所述候选拍摄点中包括无效拍摄位置,所述无效拍摄位置的拍摄范围与所述有效视角范围不存在交集;
所述确定模块1220,还用于基于所述无效拍摄位置对应所述三维球面空间上的无效网格,确定所述无效拍摄位置对应所述二维平面的第二位置坐标;
所述确定模块1220,还用于基于所述第二位置坐标和所述第一位置坐标的坐标关系,确定与所述无效拍摄位置对应的替代物体贴图,所述替代物体贴图为用于替代所述无效拍摄位置贴图情况的物体贴图;将所述替代物体贴图对应的第一位置坐标作为所述无效拍摄位置对应的索引路径。
在一个可选的实施例中,所述确定模块1220,还用于基于所述二维平面的圈层关系,确定与所述第二位置坐标处于同层的第一位置坐标;
所述确定模块1220,还用于基于所述第二位置坐标处于同层的第一位置坐标,确定与所述无效拍摄位置对应的替代物体贴图。
在一个可选的实施例中,所述确定模块1220,还用于响应于存在与所述第二位置坐标处于同层的第一位置坐标,将同层中与所述第二位置坐标最近的第一位置坐标对应的物体贴图作为所述替代物体贴图;
所述确定模块1220,还用于响应于不存在与所述第二位置坐标处于同层的第一位置坐标,遍历所述第一位置坐标,并将与所述第二位置坐标最近的第一位置坐标对应的物体贴图作为所述替代物体贴图。
在一个可选的实施例中,所述存储模块1240,还用于通过装箱算法将所述至少一个物体贴图存储至与所述虚拟场景对应的贴图文件中。
在一个可选的实施例中,所述采集模块1230,还用于将所述目标物体的三维模型资源生成至目标场景中;从所述拍摄点位置对所述目标物体进行贴图采集,得到与n个拍摄点位置分别对应的n个候选物体贴图,n为正整数;将n个候选物体贴图叠加,得到叠加画面;基于所述叠加画面中所述目标物体占用像素的尺寸,确定缩放比例;基于所述缩放比例得到所述至少一个物体贴图。
所述采集模块1230,还用于基于所述缩放比例对所述第一距离进行位置调整,得到第二距离;通过所述摄像机模型以所述第二距离对所述目标物体进行贴图采集,得到所述至少一个物体贴图。
综上所述,本申请实施例提供的基于虚拟场景的物体绘制装置,通过分析目标物体的候选拍摄点的拍摄范围,得到与有效视角范围存在交集的目标候选拍摄点。根据目标候选拍摄点对物体进行贴图采集得到物体贴图并存入贴图文件中,在虚拟场景运行时根据观察点的视角范围选择相应的物体贴图进行绘制,不仅保证了物体多视角展示效果,还减少了物体贴图的采样时间,提高了贴图文件的利用率,节省内存空间。
需要说明的是:上述实施例提供的基于虚拟场景的物体绘制装置,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的基于虚拟场景的物体绘制装置,与虚拟场景的物体绘制方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图14示出了本申请一个示例性实施例提供的计算机设备1400的结构框图。该计算机设备1400可以是便携式移动终端,比如:智能手机、平板电脑、MP3播放器(MovingPicture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。计算机设备1400还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,计算机设备1400包括有:处理器1401和存储器1402。
处理器1401可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器1401可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器1401也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器1401可以集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器1401还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器1402可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器1402还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器1402中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器1401所执行以实现本申请中方法实施例提供的视频素材图像的选择方法。
在一些实施例中,计算机设备1400还可选包括有:外围设备接口1403和至少一个外围设备。处理器1401、存储器1402和外围设备接口1403之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口1403相连。具体地,外围设备包括:射频电路1404、显示屏1405、摄像头组件1406、音频电路1407、定位组件1408和电源1409中的至少一种。
外围设备接口1403可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器1401和存储器1402。在一些实施例中,处理器1401、存储器1402和外围设备接口1403被集成在同一芯片或电路板上;在一些其他实施例中,处理器1401、存储器1402和外围设备接口1403中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路1404用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路1404通过电磁信号与通信网络以及其他通信设备进行通信。射频电路1404将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路1404包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路1404可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:万维网、城域网、内联网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路1404还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏1405用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏1405是触摸显示屏时,显示屏1405还具有采集在显示屏1405的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器1401进行处理。此时,显示屏1405还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏1405可以为一个,设置在计算机设备1400的前面板;在另一些实施例中,显示屏1405可以为至少两个,分别设置在计算机设备1400的不同表面或呈折叠设计;在另一些实施例中,显示屏1405可以是柔性显示屏,设置在计算机设备1400的弯曲表面上或折叠面上。甚至,显示屏1405还可以设置成非矩形的不规则图形,也即异形屏。显示屏1405可以采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(OrganicLight-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件1406用于采集图像或视频。可选地,摄像头组件1406包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件1406还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路1407可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器1401进行处理,或者输入至射频电路1404以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在计算机设备1400的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器1401或射频电路1404的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路1407还可以包括耳机插孔。
定位组件1408用于定位计算机设备1400的当前地理位置,以实现导航或LBS(Location Based Service,基于位置的服务)。定位组件1408可以是基于美国的GPS(Global Positioning System,全球定位系统)、中国的北斗系统或俄罗斯的伽利略系统的定位组件。
电源1409用于为计算机设备1400中的各个组件进行供电。电源1409可以是交流电、直流电、一次性电池或可充电电池。当电源1409包括可充电电池时,该可充电电池可以是有线充电电池或无线充电电池。有线充电电池是通过有线线路充电的电池,无线充电电池是通过无线线圈充电的电池。该可充电电池还可以用于支持快充技术。
在一些实施例中,计算机设备1400还包括有一个或多个传感器1410。该一个或多个传感器1410包括但不限于:加速度传感器1411、陀螺仪传感器1412、压力传感器1413、指纹传感器1414、光学传感器1415以及接近传感器1416。
加速度传感器1411可以检测以计算机设备1400建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器1411可以用于检测重力加速度在三个坐标轴上的分量。处理器1401可以根据加速度传感器1411采集的重力加速度信号,控制显示屏1405以横向视图或纵向视图进行用户界面的显示。加速度传感器1411还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器1412可以检测计算机设备1400的机体方向及转动角度,陀螺仪传感器1412可以与加速度传感器1411协同采集用户对计算机设备1400的3D动作。处理器1401根据陀螺仪传感器1412采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器1413可以设置在计算机设备1400的侧边框和/或显示屏1405的下层。当压力传感器1413设置在计算机设备1400的侧边框时,可以检测用户对计算机设备1400的握持信号,由处理器1401根据压力传感器1413采集的握持信号进行左右手识别或快捷操作。当压力传感器1413设置在显示屏1405的下层时,由处理器1401根据用户对显示屏1405的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器1414用于采集用户的指纹,由处理器1401根据指纹传感器1414采集到的指纹识别用户的身份,或者,由指纹传感器1414根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器1401授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器1414可以被设置在计算机设备1400的正面、背面或侧面。当计算机设备1400上设置有物理按键或厂商Logo时,指纹传感器1414可以与物理按键或厂商Logo集成在一起。
光学传感器1415用于采集环境光强度。在一个实施例中,处理器1401可以根据光学传感器1415采集的环境光强度,控制显示屏1405的显示亮度。具体地,当环境光强度较高时,调高显示屏1405的显示亮度;当环境光强度较低时,调低显示屏1405的显示亮度。在另一个实施例中,处理器1401还可以根据光学传感器1415采集的环境光强度,动态调整摄像头组件1406的拍摄参数。
接近传感器1416,也称距离传感器,通常设置在计算机设备1400的前面板。接近传感器1416用于采集用户与计算机设备1400的正面之间的距离。在一个实施例中,当接近传感器1416检测到用户与计算机设备1400的正面之间的距离逐渐变小时,由处理器1401控制显示屏1405从亮屏状态切换为息屏状态;当接近传感器1416检测到用户与计算机设备1400的正面之间的距离逐渐变大时,由处理器1401控制显示屏1405从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图14中示出的结构并不构成对计算机设备1400的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
需要说明的是:上述实施例提供的基于虚拟场景的物体绘制装置,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的虚拟场景的物体绘制装置与虚拟场景的物体绘制方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
本申请的实施例还提供了一种计算机设备,该计算机设备包括处理器和存储器,该存储器中存储有至少一条指令、至少一段程序、代码集或指令集,至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现上述各方法实施例提供的基于虚拟场景的物体绘制方法。
本申请的实施例还提供了一种计算机可读存储介质,该计算机可读存储介质上存储有至少一条指令、至少一段程序、代码集或指令集,至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行,以实现上述各方法实施例提供的基于虚拟场景的物体绘制方法。
本申请的实施例还提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述实施例中任一所述的基于虚拟场景的物体绘制方法。
可选地,该计算机可读存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,Random Access Memory)、固态硬盘(SSD,Solid State Drives)或光盘等。其中,随机存取记忆体可以包括电阻式随机存取记忆体(ReRAM,Resistance RandomAccess Memory)和动态随机存取存储器(DRAM,Dynamic Random Access Memory)。上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本申请的可选实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (14)
1.一种基于虚拟场景的物体绘制方法,其特征在于,所述方法包括:
获取目标物体的视角范围参数,所述目标物体为设置于所述虚拟场景中的虚拟物体,所述视角范围参数用于指示所述目标物体的有效视角范围;
基于所述视角范围参数确定对所述目标物体进行贴图采集的拍摄点位置,所述拍摄点位置的拍摄范围与所述视角范围参数对应的有效视角范围存在交集;
从所述拍摄点位置对所述目标物体进行贴图采集,得到至少一个物体贴图;
将所述至少一个物体贴图存储至与所述虚拟场景对应的贴图文件中;
响应于针对所述目标物体的绘制指令,且对所述目标物体进行观察的观察点符合贴图绘制条件,从所述贴图文件中获取与所述观察点对应的物体贴图进行绘制。
2.根据权利要求1所述的方法,其特征在于,所述获取目标物体的视角范围参数,包括:
接收视角范围设置操作,所述视角范围设置操作用于对所述目标物体的有效视角范围进行设置;
基于所述视角范围操作确定所述视角范围参数。
3.根据权利要求2所述的方法,其特征在于,所述接收视角范围设置操作,包括:
显示视角范围设置界面,所述视角范围设置界面中包括范围填充区域;接收在所述范围填充区域中的所述视角范围设置操作;
或者,
显示所述目标物体对应的三维球面空间;接收在所述三维球面空间表面的区域划分操作作为所述视角范围设置操作。
4.根据权利要求1至3任一所述的方法,其特征在于,所述基于所述视角范围参数确定对所述目标物体进行贴图采集的拍摄点位置,包括:
获取拍摄点集合,所述拍摄点集合中包括候选拍摄点;
获取所述候选拍摄点相对于所述目标物体的拍摄范围;
响应于目标候选拍摄点的拍摄范围与所述有效视角范围存在交集,将所述目标候选拍摄点作为对所述目标物体进行贴图采集的拍摄点位置。
5.根据权利要求4所述的方法,其特征在于,所述拍摄点位置对应所述目标物体对应的三维球面空间上的拍摄点网格;
所述将所述至少一个物体贴图存储至与所述虚拟场景对应的贴图文件中,包括:
将所述三维球面空间映射至二维平面;
基于所述拍摄点位置对应所述三维球面空间上的拍摄点网格,确定所述拍摄点位置对应所述二维平面的第一位置坐标;
以所述第一位置坐标为索引条件,将所述至少一个物体贴图存储至与所述虚拟场景对应的贴图文件中。
6.根据权利要求5所述的方法,其特征在于,所述候选拍摄点中包括无效拍摄位置,所述无效拍摄位置的拍摄范围与所述有效视角范围不存在交集;
所述方法还包括:
基于所述无效拍摄位置对应所述三维球面空间上的无效网格,确定所述无效拍摄位置对应所述二维平面的第二位置坐标;
基于所述第二位置坐标和所述第一位置坐标的坐标关系,确定与所述无效拍摄位置对应的替代物体贴图,所述替代物体贴图为用于替代所述无效拍摄位置贴图情况的物体贴图;
将所述替代物体贴图对应的第一位置坐标作为所述无效拍摄位置对应的索引路径。
7.根据权利要求6所述的方法,其特征在于,所述基于所述第二位置坐标和所述第一位置坐标的坐标关系,确定与所述无效拍摄位置对应的替代物体贴图,包括:
基于所述二维平面的圈层关系,确定与所述第二位置坐标处于同层的第一位置坐标;
基于所述第二位置坐标处于同层的第一位置坐标,确定与所述无效拍摄位置对应的替代物体贴图。
8.根据权利要求7所述的方法,其特征在于,所述基于所述第二位置坐标处于同层的第一位置坐标,确定与所述无效拍摄位置对应的替代物体贴图,包括:
响应于存在与所述第二位置坐标处于同层的第一位置坐标,将同层中与所述第二位置坐标最近的第一位置坐标对应的物体贴图作为所述替代物体贴图;
响应于不存在与所述第二位置坐标处于同层的第一位置坐标,遍历所述第一位置坐标,并将与所述第二位置坐标最近的第一位置坐标对应的物体贴图作为所述替代物体贴图。
9.根据权利要求1至3任一所述的方法,其特征在于,所述将所述至少一个物体贴图存储至与所述虚拟场景对应的贴图文件中,包括:
通过装箱算法将所述至少一个物体贴图存储至与所述虚拟场景对应的贴图文件中。
10.根据权利要求1至3任一所述的方法,其特征在于,所述从所述拍摄点位置对所述目标物体进行贴图采集,得到至少一个物体贴图,包括:
将所述目标物体的三维模型资源生成至目标场景中;
从所述拍摄点位置对所述目标物体进行贴图采集,得到与n个拍摄点位置分别对应的n个候选物体贴图,n为正整数;
将n个候选物体贴图叠加,得到叠加画面;
基于所述叠加画面中所述目标物体占用像素的尺寸,确定缩放比例;
基于所述缩放比例得到所述至少一个物体贴图。
11.根据权利要求10所述的方法,其特征在于,所述候选物体贴图为摄像机模型以第一距离进行贴图采集得到的贴图;
所述基于所述缩放比例得到所述至少一个物体贴图,包括:
基于所述缩放比例对所述第一距离进行位置调整,得到第二距离;
通过所述摄像机模型以所述第二距离对所述目标物体进行贴图采集,得到所述至少一个物体贴图。
12.一种基于虚拟场景的物体绘制装置,其特征在于,所述装置包括:
获取模块,用于获取目标物体的视角范围参数,所述目标物体为设置于所述虚拟场景中的虚拟物体,所述视角范围参数用于指示所述目标物体的有效视角范围;
确定模块,用于基于所述视角范围参数确定对所述目标物体进行贴图采集的拍摄点位置,所述拍摄点位置的拍摄范围与所述视角范围参数对应的有效视角范围存在交集;
采集模块,用于从所述拍摄点位置对所述目标物体进行贴图采集,得到至少一个物体贴图;
存储模块,用于将所述至少一个物体贴图存储至与所述虚拟场景对应的贴图文件中;
绘制模块,用于响应于针对所述目标物体的绘制指令,且对所述目标物体进行观察的观察点符合贴图绘制条件,从所述贴图文件中获取与所述观察点对应的物体贴图进行绘制。
13.一种计算机设备,其特征在于,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如权利要求1至11任一所述的基于虚拟场景的物体绘制方法。
14.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如权利要求1至11任一所述的基于虚拟场景的物体绘制方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110870824.4A CN113592997B (zh) | 2021-07-30 | 2021-07-30 | 基于虚拟场景的物体绘制方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110870824.4A CN113592997B (zh) | 2021-07-30 | 2021-07-30 | 基于虚拟场景的物体绘制方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113592997A CN113592997A (zh) | 2021-11-02 |
CN113592997B true CN113592997B (zh) | 2023-05-30 |
Family
ID=78252596
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110870824.4A Active CN113592997B (zh) | 2021-07-30 | 2021-07-30 | 基于虚拟场景的物体绘制方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113592997B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114782648A (zh) * | 2022-04-29 | 2022-07-22 | 北京字跳网络技术有限公司 | 图像处理方法、装置、电子设备及存储介质 |
CN118211285B (zh) * | 2024-05-15 | 2024-09-10 | 帕西尼感知科技(张家港)有限公司 | 一种贴图平面优化、机器人的控制方法、装置及系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06124328A (ja) * | 1992-10-13 | 1994-05-06 | G T B:Kk | 画像表示装置 |
JP2016219980A (ja) * | 2015-05-19 | 2016-12-22 | 株式会社パスコ | 対象物情報表示装置 |
CN106803884A (zh) * | 2012-12-26 | 2017-06-06 | 株式会社理光 | 图像处理系统和图像处理方法 |
CN107808408A (zh) * | 2017-10-25 | 2018-03-16 | 珠海金山网络游戏科技有限公司 | 基于speedtree的拍摄公告板贴图的方法及装置 |
CN109993823A (zh) * | 2019-04-11 | 2019-07-09 | 腾讯科技(深圳)有限公司 | 阴影渲染方法、装置、终端及存储介质 |
CN110060326A (zh) * | 2019-03-12 | 2019-07-26 | 杭州电子科技大学 | 一种基于生成对抗网络的模型纹理生成方法 |
CN112206535A (zh) * | 2020-11-05 | 2021-01-12 | 腾讯科技(深圳)有限公司 | 虚拟对象的渲染显示方法、装置、终端及存储介质 |
CN112612037A (zh) * | 2020-12-01 | 2021-04-06 | 珠海市一微半导体有限公司 | 一种融合定位方法及移动机器人 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI222039B (en) * | 2000-06-26 | 2004-10-11 | Iwane Lab Ltd | Information conversion system |
US6791563B2 (en) * | 2001-09-18 | 2004-09-14 | Bentley Systems, Incorporated | System, method and computer program product for global rendering |
CN108245888A (zh) * | 2018-02-09 | 2018-07-06 | 腾讯科技(深圳)有限公司 | 虚拟对象控制方法、装置及计算机设备 |
-
2021
- 2021-07-30 CN CN202110870824.4A patent/CN113592997B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06124328A (ja) * | 1992-10-13 | 1994-05-06 | G T B:Kk | 画像表示装置 |
CN106803884A (zh) * | 2012-12-26 | 2017-06-06 | 株式会社理光 | 图像处理系统和图像处理方法 |
JP2016219980A (ja) * | 2015-05-19 | 2016-12-22 | 株式会社パスコ | 対象物情報表示装置 |
CN107808408A (zh) * | 2017-10-25 | 2018-03-16 | 珠海金山网络游戏科技有限公司 | 基于speedtree的拍摄公告板贴图的方法及装置 |
CN110060326A (zh) * | 2019-03-12 | 2019-07-26 | 杭州电子科技大学 | 一种基于生成对抗网络的模型纹理生成方法 |
CN109993823A (zh) * | 2019-04-11 | 2019-07-09 | 腾讯科技(深圳)有限公司 | 阴影渲染方法、装置、终端及存储介质 |
CN112206535A (zh) * | 2020-11-05 | 2021-01-12 | 腾讯科技(深圳)有限公司 | 虚拟对象的渲染显示方法、装置、终端及存储介质 |
CN112612037A (zh) * | 2020-12-01 | 2021-04-06 | 珠海市一微半导体有限公司 | 一种融合定位方法及移动机器人 |
Non-Patent Citations (2)
Title |
---|
UE4光照基础概念和效果总结;曲莱文;《https://www.jianshu.com/p/37b4d30488d2》;全文 * |
基于视频模型的虚拟现实视频融合系统;周颐;《系统仿真学报》;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113592997A (zh) | 2021-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102500722B1 (ko) | 가상 프롭 이전 방법 및 장치와, 전자 기기 및 컴퓨터 저장 매체 | |
CN110059685B (zh) | 文字区域检测方法、装置及存储介质 | |
WO2019179237A1 (zh) | 获取实景电子地图的方法、装置、设备和存储介质 | |
CN113592997B (zh) | 基于虚拟场景的物体绘制方法、装置、设备及存储介质 | |
CN112150560B (zh) | 确定消失点的方法、装置及计算机存储介质 | |
CN110942046B (zh) | 图像检索方法、装置、设备及存储介质 | |
CN112565806B (zh) | 虚拟礼物赠送方法、装置、计算机设备及介质 | |
CN112905328B (zh) | 任务处理方法、装置及计算机可读存储介质 | |
CN111178343A (zh) | 基于人工智能的多媒体资源检测方法、装置、设备及介质 | |
CN110647881A (zh) | 确定图像对应的卡片类型的方法、装置、设备及存储介质 | |
CN112308103B (zh) | 生成训练样本的方法和装置 | |
CN110853124B (zh) | 生成gif动态图的方法、装置、电子设备及介质 | |
CN112053360B (zh) | 图像分割方法、装置、计算机设备及存储介质 | |
CN111984755A (zh) | 确定目标停车点的方法、装置、电子设备及存储介质 | |
CN113553368A (zh) | 多层饼图的标签信息处理方法、装置及终端 | |
CN113240784B (zh) | 图像处理方法、装置、终端及存储介质 | |
CN113949678B (zh) | 流量控制方法、装置、电子设备及计算机可读存储介质 | |
CN113822916B (zh) | 图像匹配方法、装置、设备及可读存储介质 | |
CN112717393B (zh) | 虚拟场景中的虚拟物件显示方法、装置、设备及存储介质 | |
CN111191254B (zh) | 访问校验方法、装置、计算机设备及存储介质 | |
CN110660031B (zh) | 图像锐化方法及装置、存储介质 | |
CN112699906B (zh) | 获取训练数据的方法、装置及存储介质 | |
CN113762054A (zh) | 图像识别方法、装置、设备及可读存储介质 | |
CN112000899A (zh) | 景点信息的展示方法、装置、电子设备及存储介质 | |
CN113590877B (zh) | 获取标注数据的方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40054542 Country of ref document: HK |
|
GR01 | Patent grant | ||
GR01 | Patent grant |