CN113877210A - 游戏场景的转换方法、系统、服务器及计算机可读存储介质 - Google Patents

游戏场景的转换方法、系统、服务器及计算机可读存储介质 Download PDF

Info

Publication number
CN113877210A
CN113877210A CN202111160564.8A CN202111160564A CN113877210A CN 113877210 A CN113877210 A CN 113877210A CN 202111160564 A CN202111160564 A CN 202111160564A CN 113877210 A CN113877210 A CN 113877210A
Authority
CN
China
Prior art keywords
voxel
scene
target object
data
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202111160564.8A
Other languages
English (en)
Inventor
熊鑫
廖焕华
李志凯
赵浩南
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Lilisi Computer Technology Co ltd
Original Assignee
Shanghai Lilisi Computer Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Lilisi Computer Technology Co ltd filed Critical Shanghai Lilisi Computer Technology Co ltd
Priority to CN202111160564.8A priority Critical patent/CN113877210A/zh
Publication of CN113877210A publication Critical patent/CN113877210A/zh
Priority to PCT/CN2022/122494 priority patent/WO2023051671A1/zh
Priority to CN202280020323.XA priority patent/CN116963811A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/69Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by enabling or updating specific game elements, e.g. unlocking hidden features, items, levels or versions

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Image Generation (AREA)

Abstract

本发明提供了一种游戏场景的转换方法、系统、服务器及计算机可读存储介质,所述方法包括以下步骤:自所述游戏场景中导出若干种不同的场景元素的原始数据;设定期望的单元体素的边长,结合所述单元体素的边长,分别将若干种所述场景元素的数据转换为体素模块;根据所有所述场景元素的体素模块在所述游戏场景中的相对位置,拼接所有所述场景元素的体素模块,获得体素场景;在所述体素场景内裁剪获取目标对象的目标空间范围内的体素区域,将所述体素区域以三维张量的形式作为神经网络的输入,以获取所述目标对象的空间特征。使用所述体素数据作为神经网络的输入,可以使得计算获得的AI行为更加精细,智能化,反应快,贴近人的行为方式。

Description

游戏场景的转换方法、系统、服务器及计算机可读存储介质
技术领域
本发明涉及游戏数据处理技术领域,尤其涉及一种游戏场景的转换方法、系统、服务器及计算机可读存储介质。
背景技术
目前,为实现数据运算需求的并行化,创建相关新的数据结构,并实时快速的动态更新,为各种相关算法服务。而这些新的数据结构的创建、更新、修改,往往也需要适应于大规模并行加速。
游戏场景是电子游戏中一虚拟空间内所有场景元素的集合,包括地图地貌、建筑物、游戏角色、装备道具等内容。游戏用户所看到的游戏场景的界面往往以像素场景的方式展现,即按照像素的数据格式将游戏场景的内容展示在显示屏上。
在多人竞技游戏中,往往需要加入AI功能,也就是在一局游戏中加入一个或多个模拟玩家,模拟玩家的行为由服务器来运算。
现有的技术手段中,常用行为树来计算AI行为,这样的计算方式使用CPU进行,需要进行树状数据结构的遍历以及非常消耗CPU性能的检测和导航任务,对于高实时性的竞技游戏来说,计算效率较低,无法满足业务需求。
而更先进的AI使用了神经网络,这种方案虽然在推理计算部分利用了GPU,可以快速得出结果,但是其所需的图像输入数据需要使用CPU来进行预处理得出,计算量较大。
发明内容
为了克服上述技术缺陷,本发明的目的在于提供一种运算效率更高的游戏场景的转换方法、系统、服务器及计算机可读存储介质。
本发明公开了一种游戏场景的转换方法,包括以下步骤:自所述游戏场景中导出若干种不同的场景元素的原始数据;设定期望的单元体素的边长,结合所述单元体素的边长,分别将若干种所述场景元素的原始数据转换为体素数据,所述体素数据在所述体素场景中表现为体素模块;根据所有所述场景元素的体素模块在所述游戏场景中的相对位置,拼接所有所述场景元素的体素模块,获得体素场景;在所述体素场景内裁剪获取目标对象的目标空间范围内的体素区域,将所述体素区域以三维张量的形式作为神经网络的输入,以获取所述目标对象的空间特征。
优选的,所述裁剪获取目标对象的目标空间范围内的体素区域,将所述体素区域以三维张量的形式作为神经网络的输入,以获取所述目标对象的空间特征包括:以所述目标对象为中心,裁剪获取所述目标对象的周围空间范围内的体素正方体,将所述体素正方体以三维张量的形式作为神经网络的输入,以获取所述目标对象周围的空间特征。
优选的,所述裁剪获取目标对象的目标空间范围内的体素区域,将所述体素区域以三维张量的形式作为神经网络的输入,以获取所述目标对象的空间特征包括:在所述目标对象的前方空间范围内,裁剪获取一第一体素长方体,将所述第一体素长方体以三维张量的形式作为神经网络的输入,以获取所述目标对象前方的空间特征。
优选的,所述裁剪获取目标对象的目标空间范围内的体素区域,将所述体素区域以三维张量的形式作为神经网络的输入,以获取所述目标对象的空间特征还包括:在所述目标对象的前方空间范围内,裁剪获取一第二体素长方体,其中所述第二体素长方体的长度远大于所述第一体素长方体的长度,将所述第二体素长方体以三维张量的形式作为神经网络的输入,以获取所述目标对象前方远处的空间特征。
优选的,所述裁剪获取目标对象的目标空间范围内的体素区域,将所述体素区域以三维张量的形式作为神经网络的输入,以获取所述目标对象的空间特征还包括:对指定的目标对象和视野,使用所述体素场景中的体素数据,通过射线检测获取一分辨率为M*N的深度图;将所述深度图作为神经网络的输入,以获取所述目标对象的空间特征。
优选的,所述对指定的目标对象和视野,使用所述体素场景中的体素数据,通过射线检测获取一分辨率为M*N的深度图包括:在所述视野的方向生成一视锥,所述视锥的尽头为曲面,在所述体素场景中,所述曲面包括M*N个点;以所述目标对象为起点、所述M*N个点为终点,形成M*N条路径,对M*N条路径沿自起点至终点的方向进行射线检测,直到检测到所述路径上的实心点;所述M*N条路径的检测结果构成所述深度图。
优选的,所述对M*N条路沿自起点至终点的方向进行射线检测,直到检测到所述路径上的实心点包括:所述路径包括起点(x1,y1,z1)和终点(x2,y2,z2);计算获取所述路径在所述体素场景中经过的n个点(a1,b1,c1)、(a2,b2,c2)...(an,bn,cn);在GPU中,对所述M*N条路径同时进行计算,以索引到每个点在所述体素场景中对应的点。
本发明还公开了一种游戏场景的转换系统,包括导出模块、转换模块、拼接模块和裁剪模块;所述导出模块从所述游戏场景中导出若干种不同的场景元素的原始数据;设定期望的单元体素的边长,所述转换模块结合所述单元体素的边长,分别将若干种所述场景元素的原始数据转换为体素数据,所述体素数据在所述体素场景中表现为体素模块;所述拼接模块根据所有所述场景元素的体素模块在所述游戏场景中的相对位置,拼接所有所述场景元素的体素模块,获得体素场景;所述裁剪模块在所述体素场景内裁剪获取目标对象的目标空间范围内的体素区域,将所述体素区域以三维张量的形式作为神经网络的输入,以获取所述目标对象的空间特征。
本发明还公开了一种游戏场景的转换服务器,包括导出模块、转换模块、拼接模块和裁剪模块;所述导出模块从所述游戏场景中导出若干种不同的场景元素的原始数据;设定期望的单元体素的边长,所述转换模块结合所述单元体素的边长,分别将若干种所述场景元素的原始数据转换为体素数据,所述体素数据在所述体素场景中表现为体素模块;所述拼接模块根据所有所述场景元素的体素模块在所述游戏场景中的相对位置,拼接所有所述场景元素的体素模块,获得体素场景;所述裁剪模块在所述体素场景内裁剪获取目标对象的目标空间范围内的体素区域,将所述体素区域以三维张量的形式作为神经网络的输入,以获取所述目标对象的空间特征。
本发明还公开了一种存储用于转换游戏场景的指令的计算机可读存储介质,所述指令在被执行时实施以下步骤:从所述游戏场景中导出若干种不同的场景元素的原始数据;设定期望的单元体素的边长,结合所述单元体素的边长,分别将若干种所述场景元素的原始数据转换为体素数据,所述体素数据在所述体素场景中表现为体素模块;根据所有所述场景元素的体素模块在所述游戏场景中的相对位置,拼接所有所述场景元素的体素模块,获得体素场景;在所述体素场景内裁剪获取目标对象的目标空间范围内的体素区域,将所述体素区域以三维张量的形式作为神经网络的输入,以获取所述目标对象的空间特征。
采用了上述技术方案后,与现有技术相比,具有以下有益效果:
1.对于空间数据的计算,将空间数据转化为体素数据,从而与GPU运算高度契合,相对于既有的CPU运算模式,以GPU为基础的数据运算方案性能要高2到3个数量级;使用所述体素数据作为神经网络的输入,可以使得计算获得的AI行为更加精细,智能化,反应快,贴近人的行为方式。
2.通过所述体素数据进行射线检测以生成深度图,将所述深度图作为神经网络的特征提取,可以进行后续一系列的空间物体分割、空间物体分类和行为强化学习等任务。
附图说明
图1为本发明提供的游戏场景的转换方法的流程图;
图2为现有技术的像素场景;
图3为本发明提供的将图2的像素场景转换成的体素场景。
具体实施方式
以下结合附图与具体实施例进一步阐述本发明的优点。
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
在本公开使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本公开。在本公开和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本公开可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本公开范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
在本发明的描述中,需要理解的是,术语“纵向”、“横向”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
在本发明的描述中,除非另有规定和限定,需要说明的是,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是机械连接或电连接,也可以是两个元件内部的连通,可以是直接相连,也可以通过中间媒介间接相连,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。
在后续的描述中,使用用于表示元件的诸如“模块”、“部件”或“单元”的后缀仅为了有利于本发明的说明,其本身并没有特定的意义。因此,“模块”与“部件”可以混合地使用。
体素是体积元素的简称,包含体素的立体可以通过立体渲染或者提取给定阈值轮廓的多边形等值面表现出来。体素是数字数据于三维空间分割上的最小单位,本发明所提及的单元体素可以理解为单个体素。体素用于三维成像、科学数据与医学影像等领域。概念上类似二维空间的最小单位:像素,像素用在二维计算机图像的影像数据上。有些真正的三维显示器运用体素来描述它们的分辨率,例如:可以显示512×512×512体素的显示器。
在三维成像技术领域,通常采用以CPU为主的运算模式,即在CPU上进行各类逻辑任务运算及数据预处理,而GPU上更适合并发类的数据运算,如图像渲染。现有的空间数据结构与GPU的结合效果并不理想,故现有的空间数据结构无法体现GPU的高并发运算性能,本发明将用于三维成像的空间数据转化为体素数据,从而与GPU高并发运算特性高度契合,进行各类运算,相对于既有的CPU运算模式,以GPU为基础的数据运算方案性能要高2到3个数量级。从而使用体素数据进行高性能射线检测,用以感知环境,运算效率高。
具体的,参见附图1,本发明提供一种游戏场景的转换方法的具体实施例,基于像素场景转换为体素场景的基础,用于裁剪目标对象的目标空间范围,以此目标空间范围作为神经网络的输入,通过神经网络来获取空间特征,该空间特征包括空间内所包含的信息,例如目标空间范围内的体素点是否为实心点等,具体步骤如下:
S100、自游戏场景中导出游戏场景中包括的若干种不同数据类型的场景元素的原始数据;
S200、设定期望的单元体素的边长,结合单元体素的边长,分别将若干种场景元素的原始数据转换为体素数据,体素数据在体素场景中表现为体素模块;
S300、根据所有场景元素的体素模块在游戏场景中的相对位置,拼接所有场景元素的体素模块,获得所有场景元素的体素场景;
S400、在体素场景内裁剪获取目标对象的目标空间范围内的体素区域,将体素区域以三维张量的形式作为神经网络的输入,以获取目标对象的空间特征。
体素场景为由单元体素组成的三维空间,在该三维空间内,各个空间元素通过单元体素进行体现。
在本实施例中,游戏场景为UE4游戏引擎建立的游戏世界,参见附图2,在该游戏世界中,场景元素包括地形、植被、建筑和室外摆件。地形如土坡、山丘,河流等;植被如树木、花草、灌木等;建筑如房屋、仓库等;室外摆件如油罐、平台等。附图2中的所有游戏场景都是以场景元素的形式展现的,每个场景元素由一个个像素块组成。
而不同的场景元素在构建时所用到的数据类型是不同的。根据场景元素的类型及其特征,采用不同的方式从UE4游戏引擎中分别导出不同场景元素的原始数据。具体的:
室外摆件与建筑在UE4游戏引擎中属于包含StaticMesh的Actor类型,可直接导出OBJ文件,同步导出Actor的坐标信息;
植被在UE4中不属于独立的Actor类型,故需要采取记录坐标和形状的方式,导出为CSV信息文件;
地形在体素世界中只利用到了表面高度信息,本发明采取深度相机正交拍摄的方式则可以导出地形的图片数据。
由于场景元素的类型及其特征不同,故需要采取不同的转换方式以将不同场景元素的各类原始数据转换为体素数据,体素数据在体素场景中表现为体素模块,因此需要设定我们所期望的单元体素的边长,一个体素模块包括一个或若干个单元体素,结合单元体素边长、分别将若干种场景元素的原始数据转换为体素模块,具体的:
对于OBJ文件,可以借助OPEN3D这一开源库中的“读写三角网格”(read_triangle_mesh)功能和“从三角网格创建”(create_from_triangle_mesh)功能直接将OBJ文件转换为体素模块;OPEN3D并不为本发明的限制的开源库,其他可以实现上述两功能的开源库也可以被用于进行数据转换;
对于植被,需要根据植被的碰撞体的大小,结合单元体素的边长,直接计算出它在体素世界中占用的体素模块的个数及形状;
地形在体素世界中只占一层,参见图2中的D区域,根据储存有高度信息的图片数据,按照体素边长逐点采样以将其转换为体素模块。
至此已获取到建立体素场景的所有数据,最后需要拼接所有场景元素的体素模块,获得所有场景元素的体素场景。
体素世界在程序中表示为大量的三维坐标点,拼接体素模块的原理实际上是根据体素模块在游戏场景中的相对位置,把表示体素模块的坐标点信息,整合到同一个数据结构中,而UE4游戏引擎本身包含各个模块的位置信息和旋转信息,故在拼接时需要特别注意3D模型的欧拉角的旋转变换在不同体系中规则不一致的问题。
经过拼接获得图3所示的体素场景,在该体素场景中,使用三维张量完备地表达三维世界的空间信息,其采样精度决定了空间分辨率。基于该体素场景的数据格式特点,为扁平化的向量数据,非常适合GPU运算,通过GPU对体素场景进行运算,比现有技术中使用CPU的方式极大提升了运算速度。
步骤S400中,在体素场景内裁剪获取目标对象的目标空间范围内的体素区域,以将体素区域以三维张量的形式作为神经网络的输入,来获取目标对象的空间特征。目标空间范围包括第一空间特征范围、第二空间特征范围...第N个空间特征范围,其中,目标空间范围可以是其中一种空间特征范围,也可以是多种空间特征范围的组合。本发明给出一优选实施例,包括三个空间特征范围,第一空间特征范围为周围空间范围,即目标对象的四周相邻空间的范围;第二空间特征范围为近前方空间范围,即目标对象前方某个距离内的空间范围;第三空间特征范围为远前方空间范围,即目标对象前方某个距离之外的空间范围;近前方空间范围和远前方空间范围都属于前方空间范围。综上所述,明显的,目标空间范围不包括目标对象本身的空间范围。上述周围空间范围、前方空间范围、近前方空间范围、远前方空间范围具体的应用示例如下:
一、有关周围空间范围的应用示例,以目标对象为中心,裁剪获取目标对象的周围空间范围内的体素正方体,将体素正方体以三维张量的形式作为神经网络的输入,以获取目标对象周围的空间特征。所裁剪获得的体素正方体为若干个单元体素的组合。体素正方体以三维张量的形式作为神经网络的输入,该神经网络的模型可以根据具体应用需求选取,如卷积神经网络;经过神经网络计算得到的输出结果是一组向量数据,该向量数据即目标对象周围的空间特征。
在本实例中,目标对象可理解为游戏场景内的角色。角色在游戏过程中需要获知周围的可拾取的装备,即需要捕捉到角色周围的环境信息,从环境信息中进行提取识别是否存在装备信息。该环境信息通常被限制在一个预设范围,例如,当角色周围两米内有装备信息,则告知角色周围有可拾取的装备。此种情况下,该正方体的尺寸即对应“两米”这一数值。
之所以说“对应”而不是“相等”,是由于游戏场景的画面数据的尺寸不一定与角色实际感知的尺寸完全一致,可能存在放大或缩小的对应关系。
二、有关前方空间范围的应用示例,在目标对象的前方,裁剪获取一第一体素长方体,将第一体素长方体以三维张量的形式作为神经网络的输入,以获取目标对象前方空间范围内的空间特征。所裁剪获得的第一体素长方体为若干个单元体素的组合,该第一体素长方体可以是较宽形状的长方体,也可以是细长形状的长方体。
在本实例中,目标对象同样可理解为游戏场景内的角色。角色需要识别视野前方的敌方行为动作,从而根据该行为动作进行自身的行为选择,例如搏击游戏中的动作闪避;又例如场景游戏中的飞弹躲避等。即需要捕捉到角色视野前方的环境信息和敌方行为信息,从环境信息和环境范围内的敌方行为信息中进行提取识别是否存在可以与之相合作或躲避的动作。该环境信息和敌方行为信息通常被限制在一个预设范围,例如,当角色视野前方五十米内有飞弹信息,则告知角色需要进行相关躲避或采取其他防御行为。此种情况下,该长方体的长度尺寸即对应“五十米”这一数值。
三、有关远前方空间范围的应用示例,在目标对象的前方,裁剪获取一第二体素长方体,第二体素长方体的长度远大于第一体素长方体的长度,例如,该第二体素长方体为一细长长方体,与第一体素长方体的长度呈数量级的倍数关系;将第二体素长方体以三维张量的形式作为神经网络的输入,以获取目标对象远前方空间范围内(即前方远处)的空间特征。所裁剪获得的第二体素长方体为若干个单元体素的组合。第二体素长方体可独立应用,也可与第一体素长方体组合应用。
在本实例中,目标对象同样为游戏内的角色。角色的持枪需要借助瞄准镜来获取远方的视野,则此时所需要提取的环境范围要更远以对应远处的瞄准物,此种情况下,该细长长方体的长度尺寸即对应远处的瞄准物与角色之间的距离。
在设置时,可以设置为该细长长方体的长度尺寸对应瞄准镜可以看见的最远的距离,即可保证所裁剪的区域能满足瞄准镜的视野距离要求。
除了将体素数据直接应用于神经网络的输入,由于体素数据格式规范、整齐,易于计算、特别是并行计算,故本发明还将体素数据应用于GPU射线检测,并通过射线检测来生成深度图,再将深度图作为神经网络的特征提取来输入,以此可以更好的发挥体素数据的性能。
具体的,对指定的目标对象和视野,使用体素场景中的体素数据,通过射线检测获取一分辨率为M*N的深度图;将深度图作为神经网络的输入,以获取目标对象的空间特征。
较佳的,深度图的生成具体包括:
S410、在视野的方向生成一视锥,视锥的尽头为曲面,在体素场景中,曲面包括M*N个点;
S420、以目标对象为起点、M*N个点为终点,形成M*N条路径,对该M*N条路径沿自起点至终点的方向进行射线检测,直到检测到所述路径上的实心点,检测结果表现为该路径的像素;
S430、M*N条路径的检测结果构成深度图。
需要说明的,视锥为视线从作为游戏场景的角色之一的“人”的眼睛放射出去的呈一抽象的圆锥状的空间范围,视锥通常为平面(曲率为0的曲面),在体素场景中,为了便于计算,通常基于球坐标系进行计算,在该球坐标系中,视锥即为为曲面。
在沿自起点至终点的方向(也可理解为由近及远)的射线检测过程中,若在某个位置第一次检测到实心点,则说明该路径在这个位置被阻挡,其视野深度也就到这里为止,由此形成深度图。
较佳的,射线检测的具体步骤为:
S421、设定起点(x1,y1,z1)和终点(x2,y2,z2);
S422、计算获取路径在体素场景中经过的n个点(a1,b1,c1)、(a2,b2,c2)...(an,bn,cn);
S423、在GPU中,对M*N条路径同时进行计算,以索引到每个点在体素场景中对应的点,并判断其是否为实心点。
索引可以理解为查找,在检测判断n个点是否为实心点时,首先需要“到达”这n个点,索引即是“到达”这一步骤。可以理解为计算机处理过程中的专有步骤。
在射线检测过程中,若检测到实心点,则说明该路径有阻挡、不通,若没有实心点,则可以说明该路径没有阻挡可以通行。通行可以理解为角色的空间意义上通行,还可以理解为信号的发送传递的畅通性。
例如,在游戏过程中,需要判断角色持枪是否可以击中远处一目标物,则检测起点为角色,终点为远处的目标物。若检测结果为无阻挡物,则表明在当前的瞄准路径下,正常开枪将可以击中该远处目标物;若检测结果为有阻挡物,则表明在当前的瞄准路径下,正常开枪也无法击中该远处目标物。
实例:对指定的角色和视野,使用体素数据得到分辨率为320*180的深度图的方法:
1)根据视野方向生成视锥,视锥的尽头的曲面在体素数据中对应了320*180个点;
2)以指定角色为起点,上述320*180个点为终点,定义320*180条检测射线;
3)将320*180对起点和终点,放入数组A(数组元素个数为320*180,每个数组元素包含起点和终点)
4)在GPU中,对数组A中的每对起点和终点同时进行计算,即320*180个线程并发,在每个线程都执行如下过程:
a、使用常规射线检测方法算出其在体素世界中需要经过的n个点(a1,b1,c1)、(a2,b2,c2)、...、(an,bn,cn);
b、由近及远的根据体素场景中的坐标索引到体素数据中相对应的点,并检查是否为实心点;
c、遇到的第m个点为实心点,则将m写入结果,全部为空心点则将n写入结果;
5)收集所有结果,获得深度图。
由于获得深度图的射线检测过程中需要检测在哪里不通,即得出深度,并停止检测,也可以理解为一像素图。
通过确定不同的游戏目标和视野,还可以提取不同的空间特征输入神经网络以进行空间物体分割、空间物体分类和行为强化学习。
本发明还公开了一种游戏场景的转换系统,包括:
-导出模块,通过导出模块从游戏场景中导出若干种不同的场景元素的原始数据;
-转换模块,设定期望的单元体素的边长,转换模块结合单元体素的边长,分别将若干种场景元素的数据转换为体素数据,体素数据在体素场景中表现为体素模块;
-拼接模块,拼接模块根据所有场景元素的体素模块在游戏场景中的相对位置,拼接所有场景元素的体素模块,获得体素场景;
-裁剪模块,裁剪模块在体素场景内裁剪获取目标对象的目标空间范围内的体素区域,将体素区域以三维张量的形式作为神经网络的输入,以获取目标对象的空间特征。
该系统包括硬件结构和计算机可读存储介质,上述功能模块可以集成在硬件结构上,也可集成在计算机可读存储介质上,此处并不限制。且上述功能模块的连接关系可以是有形连接,也可以是跨区域的无形连接,此处并不限制。
本发明还公开了一种游戏场景的转换服务器,包括:
-导出模块,通过导出模块从游戏场景中导出若干种不同的场景元素的原始数据;
-转换模块,设定期望的单元体素的边长,转换模块结合单元体素的边长,分别将若干种场景元素的数据转换为体素数据,体素数据在体素场景中表现为体素模块;
-拼接模块,拼接模块根据所有场景元素的体素模块在游戏场景中的相对位置,拼接所有场景元素的体素模块,获得体素场景;
-裁剪模块,裁剪模块在体素场景内裁剪获取目标对象的目标空间范围内的体素区域,将体素区域以三维张量的形式作为神经网络的输入,以获取目标对象的空间特征。
本发明还公开了.一种存储用于转换游戏场景的指令的计算机可读存储介质,指令在被执行时实施以下步骤::
-从游戏场景中导出若干种不同的场景元素的原始数据;
-设定期望的单元体素的边长,结合单元体素的边长,分别将若干种场景元素的数据转换为体素数据,体素数据在体素场景中表现为体素模块;
-根据所有场景元素的体素模块在游戏场景中的相对位置,拼接所有场景元素的体素模块,获得体素场景;
-在体素场景内裁剪获取目标对象的目标空间范围内的体素区域,将体素区域以三维张量的形式作为神经网络的输入,以获取目标对象的空间特征。
该计算机可读存储介质可以集成在硬件上,当硬件运行时,该计算机可读存储介质可以被支持读取运行。
应当注意的是,本发明的实施例有较佳的实施性,且并非对本发明作任何形式的限制,任何熟悉该领域的技术人员可能利用上述揭示的技术内容变更或修饰为等同的有效实施例,但凡未脱离本发明技术方案的内容,依据本发明的技术实质对以上实施例所作的任何修改或等同变化及修饰,均仍属于本发明技术方案的范围内。

Claims (10)

1.一种游戏场景的转换方法,其特征在于,包括以下步骤:
自所述游戏场景中导出若干种不同的场景元素的原始数据;
设定期望的单元体素的边长,结合所述单元体素的边长,分别将若干种所述场景元素的原始数据转换为体素数据,所述体素数据在所述体素场景中表现为体素模块;
根据所有所述场景元素的体素模块在所述游戏场景中的相对位置,拼接所有所述场景元素的体素模块,获得体素场景;
在所述体素场景内裁剪获取目标对象的目标空间范围内的体素区域,将所述体素区域以三维张量的形式作为神经网络的输入,以获取所述目标对象的空间特征。
2.根据权利要求1所述的转换方法,其特征在于,所述裁剪获取目标对象的目标空间范围内的体素区域,将所述体素区域以三维张量的形式作为神经网络的输入,以获取所述目标对象的空间特征包括:
以所述目标对象为中心,裁剪获取所述目标对象的周围空间范围内的体素正方体,将所述体素正方体以三维张量的形式作为神经网络的输入,以获取所述目标对象周围的空间特征。
3.根据权利要求1所述的转换方法,其特征在于,所述裁剪获取目标对象的目标空间范围内的体素区域,将所述体素区域以三维张量的形式作为神经网络的输入,以获取所述目标对象的空间特征包括:
在所述目标对象的前方空间范围内,裁剪获取一第一体素长方体,将所述第一体素长方体以三维张量的形式作为神经网络的输入,以获取所述目标对象前方的空间特征。
4.根据权利要求3所述的转换方法,其特征在于,所述裁剪获取目标对象的目标空间范围内的体素区域,将所述体素区域以三维张量的形式作为神经网络的输入,以获取所述目标对象的空间特征还包括:
在所述目标对象的前方空间范围内,裁剪获取一第二体素长方体,其中所述第二体素长方体的长度远大于所述第一体素长方体的长度,将所述第二体素长方体以三维张量的形式作为神经网络的输入,以获取所述目标对象前方远处的空间特征。
5.根据权利要求1所述的转换方法,其特征在于,所述裁剪获取目标对象的目标空间范围内的体素区域,将所述体素区域以三维张量的形式作为神经网络的输入,以获取所述目标对象的空间特征还包括:
对指定的目标对象和视野,使用所述体素场景中的体素数据,通过射线检测获取一分辨率为M*N的深度图;
将所述深度图作为神经网络的输入,以获取所述目标对象的空间特征。
6.根据权利要求5所述的转换方法,其特征在于,所述对指定的目标对象和视野,使用所述体素场景中的体素数据,通过射线检测获取一分辨率为M*N的深度图包括:
在所述视野的方向生成一视锥,所述视锥的尽头为曲面,在所述体素场景中,所述曲面包括M*N个点;
以所述目标对象为起点、所述M*N个点为终点,形成M*N条路径,对M*N条路径沿自起点至终点的方向进行射线检测,直到检测到路径上的实心点;
所述M*N条路径的检测结果构成所述深度图。
7.根据权利要求6所述的转换方法,其特征在于,所述对M*N条路径沿自起点至终点的方向进行射线检测,直到检测到所述路径上的实心点包括:
所述路径包括起点和终点;
计算获取所述路径在所述体素场景中经过的n个点(;
在GPU中,对所述M*N条路径同时进行计算,以索引到每个点在所述体素场景中对应的点。
8.一种游戏场景的转换系统,其特征在于,包括导出模块、转换模块、拼接模块和裁剪模块;
所述导出模块从所述游戏场景中导出若干种不同的场景元素的原始数据;
设定期望的单元体素的边长,所述转换模块结合所述单元体素的边长,分别将若干种所述场景元素的原始数据转换为体素数据,所述体素数据在所述体素场景中表现为体素模块;
所述拼接模块根据所有所述场景元素的体素模块在所述游戏场景中的相对位置,拼接所有所述场景元素的体素模块,获得体素场景;
所述裁剪模块在所述体素场景内裁剪获取目标对象的目标空间范围内的体素区域,将所述体素区域以三维张量的形式作为神经网络的输入,以获取所述目标对象的空间特征。
9.一种游戏场景的转换服务器,其特征在于,包括导出模块、转换模块、拼接模块和裁剪模块;
所述导出模块从所述游戏场景中导出若干种不同的场景元素的原始数据;
设定期望的单元体素的边长,所述转换模块结合所述单元体素的边长,分别将若干种所述场景元素的原始数据转换为体素数据,所述体素数据在所述体素场景中表现为体素模块;
所述拼接模块根据所有所述场景元素的体素模块在所述游戏场景中的相对位置,拼接所有所述场景元素的体素模块,获得体素场景;
所述裁剪模块在所述体素场景内裁剪获取目标对象的目标空间范围内的体素区域,将所述体素区域以三维张量的形式作为神经网络的输入,以获取所述目标对象的空间特征。
10.一种存储用于转换游戏场景的指令的计算机可读存储介质,其特征在于,所述指令在被执行时实施以下步骤:
从所述游戏场景中导出若干种不同的场景元素的原始数据;
设定期望的单元体素的边长,结合所述单元体素的边长,分别将若干种所述场景元素的原始数据转换为体素数据,所述体素数据在所述体素场景中表现为体素模块;
根据所有所述场景元素的体素模块在所述游戏场景中的相对位置,拼接所有所述场景元素的体素模块,获得体素场景;
在所述体素场景内裁剪获取目标对象的目标空间范围内的体素区域,将所述体素区域以三维张量的形式作为神经网络的输入,以获取所述目标对象的空间特征。
CN202111160564.8A 2021-09-30 2021-09-30 游戏场景的转换方法、系统、服务器及计算机可读存储介质 Withdrawn CN113877210A (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202111160564.8A CN113877210A (zh) 2021-09-30 2021-09-30 游戏场景的转换方法、系统、服务器及计算机可读存储介质
PCT/CN2022/122494 WO2023051671A1 (zh) 2021-09-30 2022-09-29 基于体素数据的数据处理方法、服务器、介质及计算机程序产品
CN202280020323.XA CN116963811A (zh) 2021-09-30 2022-09-29 基于体素数据的数据处理方法、服务器、介质及计算机程序产品

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111160564.8A CN113877210A (zh) 2021-09-30 2021-09-30 游戏场景的转换方法、系统、服务器及计算机可读存储介质

Publications (1)

Publication Number Publication Date
CN113877210A true CN113877210A (zh) 2022-01-04

Family

ID=79004820

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111160564.8A Withdrawn CN113877210A (zh) 2021-09-30 2021-09-30 游戏场景的转换方法、系统、服务器及计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN113877210A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023051671A1 (zh) * 2021-09-30 2023-04-06 上海莉莉丝互娱网络科技有限公司 基于体素数据的数据处理方法、服务器、介质及计算机程序产品
CN116808590A (zh) * 2023-08-25 2023-09-29 腾讯科技(深圳)有限公司 一种数据处理方法和相关装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023051671A1 (zh) * 2021-09-30 2023-04-06 上海莉莉丝互娱网络科技有限公司 基于体素数据的数据处理方法、服务器、介质及计算机程序产品
CN116808590A (zh) * 2023-08-25 2023-09-29 腾讯科技(深圳)有限公司 一种数据处理方法和相关装置
CN116808590B (zh) * 2023-08-25 2023-11-10 腾讯科技(深圳)有限公司 一种数据处理方法和相关装置

Similar Documents

Publication Publication Date Title
CN112150575B (zh) 场景数据获取方法及模型训练方法、装置及计算机设备
KR102610030B1 (ko) 큐보이드 검출을 위한 딥 러닝 시스템
CN108898676B (zh) 一种虚实物体之间碰撞及遮挡检测方法及系统
US9430871B2 (en) Method of generating three-dimensional (3D) models using ground based oblique imagery
CN102938844B (zh) 利用立体成像生成自由视点视频
CN108401461A (zh) 三维建图方法、装置、系统、云端平台、电子设备和计算机程序产品
US10950056B2 (en) Apparatus and method for generating point cloud data
WO2023051671A1 (zh) 基于体素数据的数据处理方法、服务器、介质及计算机程序产品
US12045432B2 (en) Interactive virtual interface
WO2023056544A1 (en) Object and camera localization system and localization method for mapping of the real world
CN112419499B (zh) 一种沉浸式的态势场景仿真系统
CN113877210A (zh) 游戏场景的转换方法、系统、服务器及计算机可读存储介质
CN112529022B (zh) 一种训练样本的生成方法及装置
CN109255749A (zh) 自主和非自主平台中的地图构建优化
CN108629799B (zh) 一种实现增强现实的方法及设备
CN112057858B (zh) 虚拟对象的控制方法、装置、设备及存储介质
Bergé et al. Generation and VR visualization of 3D point clouds for drone target validation assisted by an operator
CN114549766B (zh) 一种实时ar可视化方法、装置、设备及存储介质
CN111569414A (zh) 虚拟飞行器的飞行展示方法、装置、电子设备及存储介质
CN111650953A (zh) 飞行器避障处理方法、装置、电子设备及存储介质
CN112891940A (zh) 图像数据处理方法及装置、存储介质、计算机设备
CN113786617A (zh) 应用体素数据进行射线检测的方法、系统、服务器及计算机可读存储介质
EP4413325A1 (en) Object and camera localization system and localization method for mapping of the real world
CN115131407A (zh) 面向数字仿真环境的机器人目标跟踪方法、装置和设备
CN113570535A (zh) 视觉定位方法及相关装置、设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20220104

WW01 Invention patent application withdrawn after publication