CN109308740B - 3d场景数据处理方法、装置及电子设备 - Google Patents
3d场景数据处理方法、装置及电子设备 Download PDFInfo
- Publication number
- CN109308740B CN109308740B CN201710625589.8A CN201710625589A CN109308740B CN 109308740 B CN109308740 B CN 109308740B CN 201710625589 A CN201710625589 A CN 201710625589A CN 109308740 B CN109308740 B CN 109308740B
- Authority
- CN
- China
- Prior art keywords
- scene
- data
- type
- model
- picture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
Landscapes
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请实施例公开了3D场景数据处理方法、装置及电子设备,其中,所述方法包括:获得3D场景模型,并确定3D场景模型中各个元素的类型,所述类型包括第一类型以及第二类型;根据所述3D场景中的第一类型的元素,生成2D图片;提供一几何体模型,其中,所述几何体模型的形状与所述3D场景的3D空间形状相对应;将所述2D图片映射于所述几何体模型上,生成第一数据。通过本申请实施例,能够降低3D场景渲染过程中的卡顿现象的发生概率,降低对终端设备或者Web页面的渲染性能要求。
Description
技术领域
本申请涉及3D场景数据处理技术领域,特别是涉及3D场景数据处理方法、装置及电子设备。
背景技术
在一些应用或者系统中,经常会需要与用户进行互动。例如,“淘宝”或者“天猫”等系统中,经常会在一些特殊的活动日期间,开展“发红包”等互动活动,以提高用户对活动的参与度。在此过程中,为了使用户获得更为真实更有趣味性的互动体验,可以采用3D的方式进行互动。在这种方式下,通常需要预先构建3D场景,然后,再在该场景中与用户进行互动。例如,如图1所示,某3D场景中以一个环形的院落为主要场景,院落中布置一些建筑物、装饰物、植物、虚拟的人物等等;另外,在院落中央的广场上可以设置一些互动对象,例如,可以是一些“福娃”样式的互动对象,用户可以通过点击这些互动对象发起互动,包括可以“抢红包”等等。通过这种方式,可以将用户的“抢红包”活动与这种3D场景相结合,可以提高趣味性,并且也可以提高用户的参与度。
在现有技术中,3D场景中的每个元素都需要单独进行3D建模,在渲染时,分别对每个元素进行3D渲染。但是,由于3D场景中包含的元素众多,而3D渲染过程对终端设备性能的要求又比较高,因此,采用现有技术的方法进行3D渲染时,经常会出现卡顿现象。尤其是在一些比较大型的场景中,或者前端采用H5等Web页面的方式来承载上述3D场景展示的方式中,这种现象更为严重。
因此,如何降低3D场景渲染过程中的卡顿现象的发生概率,降低对终端设备或者Web页面的渲染性能要求,成为需要本领域技术人员解决的技术问题。
发明内容
本申请提供了3D场景数据处理方法、装置及电子设备,能够降低3D场景渲染过程中的卡顿现象的发生概率,降低对终端设备或者Web页面的渲染性能要求。
本申请提供了如下方案:
一种3D场景数据处理方法,包括:
获得3D场景模型,并确定3D场景模型中各个元素的类型,所述类型包括第一类型以及第二类型;
根据所述3D场景中的第一类型的元素,生成2D图片;
提供一几何体模型,其中,所述几何体模型的形状与所述3D场景的3D空间形状相对应;
将所述2D图片映射于所述几何体模型上,生成第一数据。
一种3D场景展示方法,包括:
获得3D场景模型数据,其中,所述数据中包括第一数据以及第二数据,其中,所述第一数据是根据所述3D场景中的第一类型的元素对应的2D图片,以及按照所述3D场景的3D空间形状构建的几何体模型生成的,所述第二数据是根据所述3D场景中第二类型元素对应的3D模型生成的;
通过分别对所述第一数据以及第二数据进行渲染,进行所述3D场景的展示。
一种3D场景数据处理装置,包括:
3D模型获得单元,用于获得3D场景模型,并确定3D场景模型中各个元素的类型,所述类型包括第一类型以及第二类型;
2D图片生成单元,用于根据所述3D场景中的第一类型的元素,生成2D图片;
几何体模型提供单元,用于提供一几何体模型,其中,所述几何体模型的形状与所述3D场景的3D空间形状相对应;
图片映射单元,用于将所述2D图片映射于所述几何体模型上,生成第一数据。
一种3D场景展示装置,包括:
3D模型数据获得单元,用于获得3D场景模型数据,其中,所述数据中包括第一数据以及第二数据,其中,所述第一数据是根据所述3D场景中的第一类型的元素对应的2D图片,以及按照所述3D场景的3D空间形状构建的几何体模型生成的,所述第二数据是根据所述3D场景中第二类型元素对应的3D模型生成的;
渲染单元,用于通过分别对所述第一数据以及第二数据进行渲染,进行所述3D场景的展示。
一种电子设备,包括:
一个或多个处理器;以及
与所述一个或多个处理器关联的存储器,所述存储器用于存储程序指令,所述程序指令在被所述一个或多个处理器读取执行时,执行如下操作:
获得3D场景模型数据,其中,所述数据中包括第一数据以及第二数据,其中,所述第一数据是根据所述3D场景中的第一类型的元素对应的2D图片,以及按照所述3D场景的3D空间形状构建的几何体模型生成的,所述第二数据是根据所述3D场景中第二类型元素对应的3D模型生成的;
通过分别对所述第一数据以及第二数据进行渲染,进行所述3D场景的展示。
根据本申请提供的具体实施例,本申请公开了以下技术效果:
通过本申请实施例,可以将3D场景中的具有氛围烘托等作用的第一类型的多个3D元素,通过生成2D图片并映射于几何体模型上的方式,生成第一数据,这样,在具体进行3D场景的渲染时,就可以通过对该置有全景图片的几何体模型的方式,来渲染这种具有氛围烘托等作用的画面,从而可以避免分别对第一类型的各个3D元素进行渲染,因此,可以提高效率,降低卡顿现象的发生概率,也可以降低对客户端/Web页面的渲染性能要求。
当然,实施本申请的任一产品并不一定需要同时达到以上所述的所有优点。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的3D场景模型示意图;
图2是本申请实施例提供的3D场景展示示意图;
图3是本申请实施例提供的2D图片示意图;
图4是本申请实施例提供的几何体结构示意图;
图5是本申请实施例提供的系统架构示意图;
图6是本申请实施例提供的第一方法的流程图;
图7是本申请实施例提供的第二方法的流程图;
图8是本申请实施例提供的第一装置的示意图;
图9是本申请实施例提供的第二装置的示意图;
图10是本申请实施例提供的电子设备的示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员所获得的所有其他实施例,都属于本申请保护的范围。
在本申请实施例中,为了提高3D场景的渲染效率,降低对客户端或者Web页面的渲染性能要求,提供了相应的解决方案。在该方案中,可以将3D场景中一些不太重要的3D元素采用特殊的方式进行处理,避免在渲染3D场景时,对这些不太重要的3D元素也分别利用3D技术进行渲染,从而降低对客户端或者Web页面的渲染性能要求。
具体实现时,首先可以按照常规的方式创建符合需求的3D场景,例如,参见1,其中可以包括多个3D元素,例如,包括建筑物、装饰物、人物、互动对象(在图1中未示出)等等。在建立起3D场景之后,在提供给客户端或者Web页面进行渲染之前,还可以首先进行一些处理。其中,具体的处理方式可以是:确定出3D场景中各元素的类型,其中包括第一类型、第二类型,例如,在一种具体的应用场景中,如果3D场景是一个互动场景,在3D场景中,最主要显示的是具体的互动对象,例如,可以是一些“福娃”等3D卡通形象,等等;而周围的一些建筑物、装饰物等元素,则主要启动烘托氛围的作用。在这种情况下,就可以将这种用于烘托氛围的元素,确定为第一类型的元素,将具体用于互动的元素确定为第二类型的元素,等等。
在确定出元素类型后,就可以首先将第二类型的元素从3D场景中抽离,使得3D场景中仅剩下第一类型的元素。此时,可以通过虚拟的相机组件,对仅包含有第一类型元素的3D场景进行拍照,得到一种2D的图片。其中,为了能够将全部的第一类型元素展示在同一张2D图片中,可以使用全景相机组件,对仅包含有第一类型元素的3D场景进行全景拍照,得到2D全景照片。例如,对于图1所示的3D场景模型,由于整个3D场景为半球体,其中,半球体的底面用于展示3D场景中的地面,球体的弧面顶端用于展示3D场景中的天空、云朵等等。建筑物、装饰物、人物等则树立在地面上,并环绕在半球体的内边缘部位。具体用于互动的互动对象则通常是展示在地面的“中央广场”中,这样,建筑物、装饰物、人物等环绕在互动对象的周围,起到烘托氛围的作用。在使用现有技术对该3D场景进行渲染的过程中,可以默认为用户所在的位置是在广场的中心位置,并将一定视角内的能够观看的各个3D元素,按照3D技术进行渲染,并展示给用户,例如,如图2所示。之后,用户还可以通过转动终端设备等方式来改变视角,查看3D场景中的其他画面,相应的,客户端或者Web页面需要对其他进入到展示范围的3D元素重新分别利用3D技术进行渲染。针对上述3D场景,在本申请实施例中,具体在将其中的互动对象抽离,并对剩余的用于烘托氛围的元素进行全景拍照后,得到的2D全景图可以如图3所示。这相当于是将原来环绕在半球形周围的具有3D效果的元素进行全景拍照,得到在2D平面内展示的全景图片。这种全景图片通常具有较大的宽高比,也就是说,横向的长度比较大,其长度通常可以与3D场景对应的半球体赤道面周长相等或者相当。
在生成2D图片之前或者之后,还可以根据3D场景的3D空间形状创建对应形状的几何体模型,例如,针对前述例子中半球体的3D空间,可以创建类似于半球体的几何体模型。当然,根据不同的需求,3D场景的3D空间也可能是其他形状,例如,在另一种3D场景中,想要营造出用户在某条街道中行走的氛围,此时,街道通常作为用于放置互动对象的主要位置,建筑物等则位于街道两旁。在这种情况下,可以将该3D场景的3D空间看作是一个长方体,相应的,在创建几何体模型时,也可以创建成类似于长方体形状。当然,在具体实现时,还可以根据实际的情况,创建出具有任意形状的几何体模型,甚至还可以对几何体的形状进行自定义,或者某些特定位置的微调,等等。
在生成了前述2D图片,并创建了前述几何体模型的情况下,就可以将这种2D图片映射于这种几何体上,例如,可以粘贴在结合体内表面,等等。需要说明的是,在前述半球体的3D空间的例子中,由于创建的几何体模型通常也是类似于半球体的形状,因此,在将2D图片向这种几何体的内表面进行粘贴时,会由于曲面的存在,使得部分画面可能出现变形的情况。针对这种情况,本申请实施例在创建几何体模型时,还可以创建成椭球状,如图4所示,从纵剖面来看,是半椭圆形,像是球体的穹顶部位被压扁拉平,这样,只有在接近于该几何体的穹顶部位时,才会出现比较大的曲面变化,而这种穹顶部位通常用于展示“天空”等画面,并且,“天空”的画面通常是通过单色或者简单的多色渐变等来表达,在展示效果上受曲面变化的影响不大,不会产生过大的视觉反差。而对于建筑物、装饰物等所在位置的画面则可以显示在曲面变化不大的部位,因此,通过这种方式可以降低曲面过大导致的画面变形感觉。
在将第一类型的元素对应的2D图片映射于几何体模型上之后,可以利用该贴有2D图片的几何体模型,作为所建立的3D场景中的第一数据。另外,之前从3D场景中抽离出去的第二类型的元素,则可以作为该3D场景中的第二数据。其中,第二数据对应的是真正利用3D建模技术建立起来的一个个的3D模型。这样,服务端针对一个3D场景,就可以分别保存第一数据以及第二数据。在客户端或者Web页面需要对该3D场景进行渲染时,就可以将第一数据以及第二数据提供给客户端或者Web页面。客户端或者Web页面可以通过分别对第一数据以及第二数据进行渲染,实现对整个3D场景的渲染。在此过程中,由于第一数据中也包括依托一个几何体模型进行展示的画面,也可以看作是一个3D模型,因此,相当于是将多个第一类型的3D元素,转化为一个3D模型,将现有技术中分别对多个第一类型3D元素的渲染,转化为对一个3D元素的渲染,因此,可以降低对渲染性能的要求。换言之,假设3D场景中原来一共有20个第一类型的3D元素,30个第二类型的3D元素,则按照现有技术进行渲染时,需要对50个3D元素分别进行渲染;而在本申请实施例中,这20个第一类型的3D元素被合并为一个3D元素,因此,实际需要渲染的3D元素数量为31个,相对于现有技术而言,减少了19个3D元素的渲染操作,因此,会使得渲染的过程更为流畅,降低卡顿现象的出现概率,同时也降低对客户端或者Web页面的渲染性能要求。
但是,从最终的渲染结果来看,与图2中所示的渲染效果类似,这是因为,在本申请实施例中,主要对一些起到渲染等作用的第一类型3D元素通过上述方式进行处理,对于实际用于互动的对象等第二类型的3D元素,仍然保留以3D模型的形式进行渲染。而实际在互动过程中,由于用户视线关注的重点在于这种第二类型的元素上,对于渲染等性质的第一类型的内容关注点较低,另外,这些渲染性质的内容通常也位于整个3D场景中比较靠近场景边缘的位置,距离用户观察起点所在的位置通常比较远,因此,即使按照本申请实施例的方式进行了处理,对于实际3D效果的展示并不会有太大影响。
具体实现时,从产品架构角度而言,参见图5,本申请实施例可以包括服务端以及客户端/Web页面。而从处理流程上而言,可以分为3D场景模型的处理,以及3D场景模型的渲染两个阶段。其中,第一个阶段主要由服务端来完成,并在服务端保存处理结果,第二阶段则主要由客户端或Web页面来完成。下面分别从不同的角度对具体的实施方式进行介绍。
实施例一
该实施例一首先从服务端的角度,对3D场景模型的处理进行介绍。具体的,该实施例一提供了一种3D场景数据处理方法,参见图6,该方法可以包括:
S601:获得3D场景模型,并确定3D场景模型中各个元素的类型,所述类型包括第一类型以及第二类型;
具体实现时,可以采用任意的3D模型技术对3D场景模型进行创建。具体的3D场景模型的创建工作可以由服务端的技术人员来完成,例如,可以是数据对象信息系统中某具体业务方的技术人员,为某活动创建3D场景模型,具体如“双11”活动中“抢红包”游戏的3D场景,等等。或者,3D场景模型也可以是由商家等第一用户的客户端创建的,例如,某些第一用户在发布数据对象信息之后,可能会需要提供数据对象的全景图,例如,具体数据对象可以是商品对象,或者,还可以是店铺对象等。此时,该第一用户可以创建数据对象对应的3D场景模型,这种3D场景模型在提交到服务端后,由服务端通过本申请实施例中提供的方案进行相应的处理,之后再提供给客户端进行展示。
为了便于确定各个元素的类型,在创建模型的过程中,还可以对元素的类型进行标注。例如,对第一类型的元素进行标注,其他未标注的元素自动视为第二类型,等等。或者,另一种方式下,由于本申请实施例中主要是将一些距离中心位置比较远的元素,因此,还可以根据各元素与所述3D场景中心位置的距离,确定各个元素的类型;其中,距离大于预置阈值的元素为第一类型,小于所述预置距离的为第二类型,等等。
S602:根据所述3D场景中的第一类型的元素,生成2D图片;
具体实现时,可以通过系统中的相机组件对抽离了第二类型元素的3D场景进行拍照,从而可以得到2D图片。优选的实现方式下,可以使用全景相机组件进行拍照,得到2D全景图片。
S603:提供一几何体模型,其中,所述几何体模型的形状与所述3D场景的3D空间形状相对应;
具体在构建几何体模型时,可以根据3D场景对应3D空间的形状来进行构建。例如,如果3D空间形状为半球形时,则可以构建半椭球形状的几何体模型,这样可以防止曲面变化过大导致的画面显示出现变形等情况。
另外,在优选的方式下,还可以构建与所述3D空间的容积等比例的几何体模型,这样可以与第二类型的元素进行合成时,可以获得更好的效果。
其中,具体的2D图片可以采用粘贴等方式,置于所述几何体模型的内表面上,当然,在其他场景的需求下,也可以置于外表面,等等。
S604:将所述2D图片映射于所述几何体模型上,生成第一数据。
将2D图片映射于所述几何体模型上,相当于生成了另一个3D元素,这样,3D场景中的第一类型的元素就可以通过这一个3D元素进行渲染。另外,还可以根据所述3D场景中第二类型的元素对应的3D模型,生成第二数据,以用于在进行所述3D场景的渲染时,利用所述第二数据对所述第二类型元素的渲染。
具体实现时,所述3D场景包括用于进行互动的3D场景,所述第一类型元素包括所述3D场景中用于烘托互动氛围的元素,所述第二类型元素包括作为互动对象的元素。
总之,通过本申请实施例,可以将3D场景中的具有氛围烘托等作用的第一类型的多个3D元素,通过生成2D图片并映射于几何体模型上的方式,生成第一数据,这样,在具体进行3D场景的渲染时,就可以通过对该置有2D图片的几何体模型的方式,来渲染这种具有氛围烘托等作用的画面,从而可以避免分别对第一类型的各个3D元素进行渲染,因此,可以提高效率,降低卡顿现象的发生概率,也可以降低对客户端/Web页面的渲染性能要求。
实施例二
该实施例二是与实施例一相对应的,从客户端/Web页面的角度,提供了一种3D场景展示方法,参见图7,该方法可以包括:
S701:获得3D场景模型数据,其中,所述数据中包括第一数据以及第二数据,所述第一数据是根据所述3D场景中的第一类型的元素对应的2D图片,以及按照所述3D场景的3D空间形状构建的几何体模型生成的,所述第二数据是根据所述3D场景中第二类型元素对应的3D模型生成的;
具体实现时,3D场景模型可以对应于某活动场景,或者,也可以用于提供具体数据对象的全景图信息。对于后者,可以是在提供目标数据对象信息的过程中,接收查看所述目标数据对象全景图信息的请求,然后,从服务端请求获得所述目标数据对象对应的3D场景模型数据,所述3D场景模型用于展示所述目标数据对象的全景图信息。
S702:通过分别对所述第一数据以及第二数据进行渲染,进行所述3D场景的展示。
具体实现时,还可以对所述第一数据的渲染结果与所述第二数据的渲染结果之间的相对位置进行调整,以与所述3D场景模型中的显示状态相对应。
其中,关于该实施例二中各步骤的具体实现,可以参见本申请说明书中其他部分的记载,这里不再赘述。
与实施例一相对应,本申请实施例还提供了一种3D场景数据处理装置,其中,参见图8,该装置可以包括:
3D模型获得单元801,用于获得3D场景模型,并确定3D场景模型中各个元素的类型,所述类型包括第一类型以及第二类型;
2D图片生成单元802,用于根据所述3D场景中的第一类型的元素,生成2D图片;
几何体模型提供单元803,用于提供一几何体模型,其中,所述几何体模型的形状与所述3D场景的3D空间形状相对应;
图片映射单元804,用于将所述2D图片映射于所述几何体模型上,生成第一数据。
具体实现时,所述2D图片生成单元具体可以用于:
元素抽离子单元,用于从所述3D场景中将第二类型的元素抽离;
拍照子单元,用于利用相机组件对所述3D场景中剩余的第一类型的元素进行拍照,生成所述2D图片。
其中,在优选的实现方式下,所述相机组件可以为全景相机组件,所述2D图片为2D全景图片。
具体实现时,所述装置还可以包括:
第二数据生成单元,用于根据所述3D场景中第二类型的元素对应的3D模型,生成第二数据,以用于在进行所述3D场景的渲染时,利用所述第二数据对所述第二类型元素的渲染。
在一种实现方式下,3D模型获得单元具体可以用于:通过对所述3D场景中的元素进行类型标注,确定各个元素的类型。
或者,在另一种实现方式下,3D模型获得单元也可以用于:
根据各元素与所述3D场景中心位置的距离,确定各个元素的类型;其中,距离大于预置阈值的元素为第一类型,小于所述预置距离的为第二类型。
其中,在所述3D空间形状为半球形时,所述几何体模型提供单元具体可以用于:
构建半椭球形状的几何体模型。
所述图片映射单元具体用于:
将所述2D图片粘贴于所述几何体模型的内表面上。
具体实现时,所述图片映射单元具体可以用于:
构建与所述3D空间的容积等比例的几何体模型。
其中,所述3D场景包括用于进行互动的3D场景,所述第一类型元素包括所述3D场景中用于烘托互动氛围的元素,所述第二类型元素包括作为互动对象的元素。
在实际应用中,所述3D模型获得单元具体可以用于:
接收至少一个客户端提交的3D场景模型,所述3D场景与所述客户端发布的数据对象相对应,用于展示所述目标数据对象的全景图信息。
与实施例二相对应,本申请实施例还提供了一种3D场景展示装置,参见图9,该装置具体可以包括:
3D模型数据获得单元901,用于获得3D场景模型数据,其中,所述数据中包括第一数据以及第二数据,其中,所述第一数据是根据所述3D场景中的第一类型的元素对应的2D图片,以及按照所述3D场景的3D空间形状构建的几何体模型生成的,所述第二数据是根据所述3D场景中第二类型元素对应的3D模型生成的;
渲染单元902,用于通过分别对所述第一数据以及第二数据进行渲染,进行所述3D场景的展示。
具体实现时,该装置还可以包括:
位置调整单元,用于对所述第一数据的渲染结果与所述第二数据的渲染结果之间的相对位置进行调整,以与所述3D场景模型中的显示状态相对应。
其中,在一种应用场景下,所述3D模型数据获得单元901具体可以用于:
在提供目标数据对象信息的过程中,接收查看所述目标数据对象全景图信息的请求;从服务端请求获得所述目标数据对象对应的3D场景模型数据,所述3D场景模型用于展示所述目标数据对象的全景图信息。
与前述实施例二相对应,本申请实施例还提供了一种电子设备,包括:
一个或多个处理器;以及
与所述一个或多个处理器关联的存储器,所述存储器用于存储程序指令,所述程序指令在被所述一个或多个处理器读取执行时,执行如下操作:
获得3D场景模型数据,其中,所述数据中包括第一数据以及第二数据,其中,所述第一数据是根据所述3D场景中的第一类型的元素对应的2D图片,以及按照所述3D场景的3D空间形状构建的几何体模型生成的,所述第二数据是根据所述3D场景中第二类型元素对应的3D模型生成的;
通过分别对所述第一数据以及第二数据进行渲染,进行所述3D场景的展示。
其中,图10示例性的展示出了电子设备的架构,例如,设备1000可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理,飞行器等。
参照图10,设备1000可以包括以下一个或多个组件:处理组件1002,存储器1004,电源组件1006,多媒体组件1008,音频组件1010,输入/输出(I/O)的接口1012,传感器组件1014,以及通信组件1016。
处理组件1002通常控制设备1000的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理元件1002可以包括一个或多个处理器1020来执行指令,以完成本公开技术方案提供的视频播放方法中的当满足预设条件时,生成流量压缩请求,并发送给服务器,其中所述流量压缩请求中记录有用于触发服务器获取目标关注区域的信息,所述流量压缩请求用于请求服务器优先保证目标关注区域内视频内容的码率;根据服务器返回的码流文件播放所述码流文件对应的视频内容,其中所述码流文件为服务器根据所述流量压缩请求对所述目标关注区域之外的视频内容进行码率压缩处理得到的视频文件的全部或部分步骤。此外,处理组件1002可以包括一个或多个模块,便于处理组件1002和其他组件之间的交互。例如,处理部件1002可以包括多媒体模块,以方便多媒体组件1008和处理组件1002之间的交互。
存储器1004被配置为存储各种类型的数据以支持在设备1000的操作。这些数据的示例包括用于在设备1000上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器1004可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件1006为设备1000的各种组件提供电力。电源组件1006可以包括电源管理系统,一个或多个电源,及其他与为设备1000生成、管理和分配电力相关联的组件。
多媒体组件1008包括在设备1000和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件1008包括一个前置摄像头和/或后置摄像头。当设备1000处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件1010被配置为输出和/或输入音频信号。例如,音频组件1010包括一个麦克风(MIC),当设备1000处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器1004或经由通信组件1016发送。在一些实施例中,音频组件1010还包括一个扬声器,用于输出音频信号。
I/O接口1012为处理组件1002和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件1014包括一个或多个传感器,用于为设备1000提供各个方面的状态评估。例如,传感器组件1014可以检测到设备1000的打开/关闭状态,组件的相对定位,例如所述组件为设备1000的显示器和小键盘,传感器组件1014还可以检测设备1000或设备1000一个组件的位置改变,用户与设备1000接触的存在或不存在,设备1000方位或加速/减速和设备1000的温度变化。传感器组件1014可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件1014还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件1014还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件1016被配置为便于设备1000和其他设备之间有线或无线方式的通信。设备1000可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信部件1016经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信部件1016还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,设备1000可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器1004,上述指令可由设备1000的处理器1020执行以完成本公开技术方案提供的视频播放方法中的当满足预设条件时,生成流量压缩请求,并发送给服务器,其中所述流量压缩请求中记录有用于触发服务器获取目标关注区域的信息,所述流量压缩请求用于请求服务器优先保证目标关注区域内视频内容的码率;根据服务器返回的码流文件播放所述码流文件对应的视频内容,其中所述码流文件为服务器根据所述流量压缩请求对所述目标关注区域之外的视频内容进行码率压缩处理得到的视频文件。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本申请可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例或者实施例的某些部分所述的方法。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统或系统实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的系统及系统实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上对本申请所提供的3D场景数据处理方法、装置及电子设备,进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本申请的限制。
Claims (17)
1.一种3D场景数据处理方法,其特征在于,包括:
获得3D场景模型,并确定3D场景模型中各个元素的类型,所述类型包括第一类型以及第二类型;所述第一类型的元素用于烘托氛围,所述第二类型的元素用于互动;
根据所述3D场景中的第一类型的元素,生成2D图片;
提供一几何体模型,其中,所述几何体模型的形状与所述3D场景的3D空间形状相对应;
将所述2D图片映射于所述几何体模型上,生成第一数据。
2.根据权利要求1所述的方法,其特征在于,所述根据所述3D场景中的第一类型的元素,生成2D图片,包括:
从所述3D场景中将第二类型的元素抽离;
利用相机组件对所述3D场景中剩余的第一类型的元素进行拍照,生成所述2D图片。
3.根据权利要求2所述的方法,其特征在于,所述相机组件为全景相机组件,所述2D图片为2D全景图片。
4.根据权利要求1所述的方法,其特征在于,还包括:
根据所述3D场景中第二类型的元素对应的3D模型,生成第二数据,以用于在进行所述3D场景的渲染时,利用所述第二数据对所述第二类型元素的渲染。
5.根据权利要求1所述的方法,其特征在于,所述确定3D场景中各个元素的类型,包括:
通过对所述3D场景中的元素进行类型标注,确定各个元素的类型。
6.根据权利要求1所述的方法,其特征在于,所述确定3D场景中各个元素的类型,包括:
根据各元素与所述3D场景中心位置的距离,确定各个元素的类型;其中,距离大于预置阈值的元素为第一类型,小于所述预置阈值的为第二类型。
7.根据权利要求1所述的方法,其特征在于,在所述3D空间形状为半球形时,所述提供一几何体模型,包括:
构建半椭球形状的几何体模型。
8.根据权利要求1所述的方法,其特征在于,所述将所述2D图片映射于所述几何体模型上,包括:
将所述2D图片粘贴于所述几何体模型的内表面上。
9.根据权利要求1所述的方法,其特征在于,所述提供一几何体模型,包括:
构建与所述3D空间的容积等比例的几何体模型。
10.根据权利要求1至9任一项所述的方法,其特征在于,所述3D场景包括用于进行互动的3D场景,所述第一类型元素包括所述3D场景中用于烘托互动氛围的元素,所述第二类型元素包括作为互动对象的元素。
11.根据权利要求1至9任一项所述的方法,其特征在于,所述获得3D场景模型,包括:
接收至少一个客户端提交的3D场景模型,所述3D场景与所述客户端发布的数据对象相对应,用于展示所述数据对象的全景图信息。
12.一种3D场景展示方法,其特征在于,包括:
获得3D场景模型数据,其中,所述数据中包括第一数据以及第二数据,其中,所述第一数据是根据所述3D场景中的第一类型的元素对应的2D图片,以及按照所述3D场景的3D空间形状构建的几何体模型生成的,所述第二数据是根据所述3D场景中第二类型的元素对应的3D模型生成的;所述第一类型的元素用于烘托氛围,所述第二类型的元素用于互动;
通过分别对所述第一数据以及第二数据进行渲染,进行所述3D场景的展示。
13.根据权利要求12所述的方法,其特征在于,还包括:
对所述第一数据的渲染结果与所述第二数据的渲染结果之间的相对位置进行调整,以与所述3D场景模型中的显示状态相对应。
14.根据权利要求12所述的方法,其特征在于,所述获得3D场景模型数据,包括:
在提供目标数据对象信息的过程中,接收查看所述目标数据对象全景图信息的请求;
从服务端请求获得所述目标数据对象对应的3D场景模型数据,所述3D场景模型用于展示所述目标数据对象的全景图信息。
15.一种3D场景数据处理装置,其特征在于,包括:
3D模型获得单元,用于获得3D场景模型,并确定3D场景模型中各个元素的类型,所述类型包括第一类型以及第二类型;所述第一类型的元素用于烘托氛围,所述第二类型的元素用于互动;
2D图片生成单元,用于根据所述3D场景中的第一类型的元素,生成2D图片;
几何体模型提供单元,用于提供一几何体模型,其中,所述几何体模型的形状与所述3D场景的3D空间形状相对应;
图片映射单元,用于将所述2D图片映射于所述几何体模型上,生成第一数据。
16.一种3D场景展示装置,其特征在于,包括:
3D模型数据获得单元,用于获得3D场景模型数据,其中,所述数据中包括第一数据以及第二数据,其中,所述第一数据是根据所述3D场景中的第一类型的元素对应的2D图片,以及按照所述3D场景的3D空间形状构建的几何体模型生成的,所述第二数据是根据所述3D场景中第二类型的元素对应的3D模型生成的;所述第一类型的元素用于烘托氛围,所述第二类型的元素用于互动;
渲染单元,用于通过分别对所述第一数据以及第二数据进行渲染,进行所述3D场景的展示。
17.一种电子设备,其特征在于,包括:
一个或多个处理器;以及
与所述一个或多个处理器关联的存储器,所述存储器用于存储程序指令,所述程序指令在被所述一个或多个处理器读取执行时,执行如下操作:
获得3D场景模型数据,其中,所述数据中包括第一数据以及第二数据,其中,所述第一数据是根据所述3D场景中的第一类型的元素对应的2D图片,以及按照所述3D场景的3D空间形状构建的几何体模型生成的,所述第二数据是根据所述3D场景中第二类型的元素对应的3D模型生成的;所述第一类型的元素用于烘托氛围,所述第二类型的元素用于互动;
通过分别对所述第一数据以及第二数据进行渲染,进行所述3D场景的展示。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710625589.8A CN109308740B (zh) | 2017-07-27 | 2017-07-27 | 3d场景数据处理方法、装置及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710625589.8A CN109308740B (zh) | 2017-07-27 | 2017-07-27 | 3d场景数据处理方法、装置及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109308740A CN109308740A (zh) | 2019-02-05 |
CN109308740B true CN109308740B (zh) | 2023-01-17 |
Family
ID=65202329
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710625589.8A Active CN109308740B (zh) | 2017-07-27 | 2017-07-27 | 3d场景数据处理方法、装置及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109308740B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112104853A (zh) | 2019-06-17 | 2020-12-18 | 上海哔哩哔哩科技有限公司 | 3d视频的全景渲染方法、计算机设备和可读存储介质 |
CN110996087B (zh) * | 2019-12-10 | 2021-04-02 | 腾讯科技(深圳)有限公司 | 视频显示方法、装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8878846B1 (en) * | 2012-10-29 | 2014-11-04 | Google Inc. | Superimposing virtual views of 3D objects with live images |
CN106204713A (zh) * | 2016-07-22 | 2016-12-07 | 网易(杭州)网络有限公司 | 静态合并处理方法和装置 |
-
2017
- 2017-07-27 CN CN201710625589.8A patent/CN109308740B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8878846B1 (en) * | 2012-10-29 | 2014-11-04 | Google Inc. | Superimposing virtual views of 3D objects with live images |
CN106204713A (zh) * | 2016-07-22 | 2016-12-07 | 网易(杭州)网络有限公司 | 静态合并处理方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN109308740A (zh) | 2019-02-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11636653B2 (en) | Method and apparatus for synthesizing virtual and real objects | |
US20190279432A1 (en) | Method and device for editing virtual scene, and non-transitory computer-readable storage medium | |
KR102497683B1 (ko) | 다수의 가상 캐릭터를 제어하는 방법, 기기, 장치 및 저장 매체 | |
US11450055B2 (en) | Displaying method, animation image generating method, and electronic device configured to execute the same | |
CN109191549B (zh) | 显示动画的方法及装置 | |
CN105450736B (zh) | 与虚拟现实连接的方法和装置 | |
CN108600632B (zh) | 拍照提示方法、智能眼镜及计算机可读存储介质 | |
US11030733B2 (en) | Method, electronic device and storage medium for processing image | |
CN111476911A (zh) | 虚拟影像实现方法、装置、存储介质与终端设备 | |
US11880999B2 (en) | Personalized scene image processing method, apparatus and storage medium | |
WO2020093798A1 (zh) | 一种显示目标图像的方法、装置、终端及存储介质 | |
WO2019170118A1 (zh) | 视频播放方法、装置及设备 | |
CN111815779A (zh) | 对象展示方法及装置、定位方法及装置以及电子设备 | |
CN110807769B (zh) | 图像显示控制方法及装置 | |
CN114546227A (zh) | 虚拟镜头控制方法、装置、计算机设备及介质 | |
US11409241B2 (en) | Method and apparatus for adjusting holographic content and computer readable storage medium | |
CN109308740B (zh) | 3d场景数据处理方法、装置及电子设备 | |
CN106954093B (zh) | 全景视频处理方法、装置及系统 | |
EP3599763A2 (en) | Method and apparatus for controlling image display | |
CN114845129B (zh) | 虚拟空间中的互动方法、装置、终端以及存储介质 | |
US20210375051A1 (en) | Method and apparatus for displaying an image, electronic device and computer-readable storage medium | |
EP3848894A1 (en) | Method and device for segmenting image, and storage medium | |
US9619016B2 (en) | Method and device for displaying wallpaper image on screen | |
CN113989424A (zh) | 三维虚拟形象的生成方法、装置及电子设备 | |
CN112634339B (zh) | 商品对象信息展示方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |