CN107423688B - 一种基于Unity引擎的远程测试距离的方法及系统 - Google Patents

一种基于Unity引擎的远程测试距离的方法及系统 Download PDF

Info

Publication number
CN107423688B
CN107423688B CN201710458021.1A CN201710458021A CN107423688B CN 107423688 B CN107423688 B CN 107423688B CN 201710458021 A CN201710458021 A CN 201710458021A CN 107423688 B CN107423688 B CN 107423688B
Authority
CN
China
Prior art keywords
distance
virtual
virtual object
parameter set
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710458021.1A
Other languages
English (en)
Other versions
CN107423688A (zh
Inventor
刘德建
黄彬
钟开华
陈萍
赖保宇
曾捷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujian TQ Digital Co Ltd
Original Assignee
Fujian TQ Digital Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujian TQ Digital Co Ltd filed Critical Fujian TQ Digital Co Ltd
Priority to CN201710458021.1A priority Critical patent/CN107423688B/zh
Publication of CN107423688A publication Critical patent/CN107423688A/zh
Application granted granted Critical
Publication of CN107423688B publication Critical patent/CN107423688B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Abstract

本发明涉及测试领域,尤其涉及一种基于Unity引擎的远程测试距离的方法及系统。本发明通过挂载预设的参数采集脚本至虚拟现实软件;当获取到服务端发送的距离测试请求时,通过所述预设的参数采集脚本采集计算虚拟场景帧中主摄像机对象与虚拟物体之间的距离所需的参数,得到第一参数集合;发送所述参数集合至所述服务端;服务端分析所述参数集合,得到虚拟场景帧中主摄像机对象与虚拟物体之间的距离。实现提高测试虚拟场景帧中主摄像机对象与虚拟物体之间的距离的效率。

Description

一种基于Unity引擎的远程测试距离的方法及系统
技术领域
本发明涉及测试领域,尤其涉及一种基于Unity引擎的远程测试距离的方法及系统。
背景技术
随着虚拟现实技术的发展,越来越多的虚拟现实软件出现在人们的生活中。为了给用户带来更好的沉浸感,通常会鼓励用户长时间配戴虚拟现实外接头盔显示器来体验虚拟现实软件。Oculus最佳实践指南中指出,虚拟现实软件中,不合理的界面布局会导致人眼观看界面元素的视觉感知距离太小,使得用户眼球的转动频率上升,从而加速视觉疲劳的发生。
对于Unity引擎开发的虚拟现实软件,用户通过虚拟现实外接头盔显示器看到的画面来自虚拟场景的主摄像机所拍摄的画面,因此,人眼观看界面元素的距离感是由虚拟场景中主摄像机与虚拟物体之间的距离所决定的,因此,通过测试Unity虚拟场景中主摄像机至虚拟物体之间的距离可分析虚拟现实软件的界面布局是否合理,从而有利于开发人员通过调整界面布局减缓用户在体验虚拟现实软件时的疲劳程度,提高用户体验。
但是,虚拟现实软件在运行的过程中涉及大量的数据采集、数据运算和数据存储,需要大量系统资源以支持其流畅地运行。而,在测试虚拟场景中主摄像机与虚拟物体之间的距离的过程中不但需大量实时采集每一帧的数据,还需通过分析采集到的数据得到测试结果,无疑增加了虚拟现实软件的负荷,易导致虚拟现实软件无法流畅地运行,从而造成距离测试效率低。
发明内容
本发明所要解决的技术问题是:如何提高测试虚拟场景帧中主摄像机对象与虚拟物体之间的距离的效率。
为了解决上述技术问题,本发明采用的技术方案为:
本发明提供一种基于Unity引擎的远程测试距离的方法,包括:
S1、挂载预设的参数采集脚本至虚拟现实软件;
S2、当获取到服务端发送的距离测试请求时,通过所述预设的参数采集脚本采集计算虚拟场景帧中主摄像机对象与虚拟物体之间的距离所需的参数,得到第一参数集合;
S3、发送所述参数集合至所述服务端;
S4、服务端分析所述参数集合,得到虚拟场景帧中主摄像机对象与虚拟物体之间的距离。
本发明还提供一种基于Unity引擎的远程测试距离的系统,包括:
挂载模块,用于挂载预设的参数采集脚本至虚拟现实软件;
采集模块,用于当获取到服务端发送的距离测试请求时,通过所述预设的参数采集脚本采集计算虚拟场景帧中主摄像机对象与虚拟物体之间的距离所需的参数,得到第一参数集合;
发送模块,用于发送所述参数集合至所述服务端;
分析模块,用于服务端分析所述参数集合,得到虚拟场景帧中主摄像机对象与虚拟物体之间的距离。
本发明的有益效果在于:只将参数采集脚本挂载至虚拟现实软件,由服务端对采集到的参数进行数据分析,降低了虚拟现实软件在测试过程中的运行负荷,使得在测试虚拟场景帧中主摄像机对象与虚拟物体之间的距离的过程中,虚拟现实软件可流畅运行,从而提高了测试效率。
附图说明
图1为本发明提供的一种基于Unity引擎的远程测试距离的方法的具体实施方式的流程框图;
图2为本发明提供的一种基于Unity引擎的远程测试距离的系统的具体实施方式的结构框图;
图3为本发明提供的一种基于Unity引擎的远程测试距离的系统的实施例的结构框图;
标号说明:
1、挂载模块;2、采集模块21、设置单元;22、绘制单元;23、第一获取单元;24、判断单元;;3、发送模块;31、统计单元;32、发送单元;4、分析模块;41、第二获取单元;42、计算单元;43、标记单元;44、添加单元;
45、重复单元;101、采集端;102、服务端。
具体实施方式
为详细说明本发明的技术内容、所实现目的及效果,以下结合实施方式并配合附图予以说明。
请参照图1至图3,
如图1所示,本发明提供一种基于Unity引擎的远程测试距离的方法,包括:
S1、挂载预设的参数采集脚本至虚拟现实软件;
S2、当获取到服务端发送的距离测试请求时,通过所述预设的参数采集脚本采集计算虚拟场景帧中主摄像机对象与虚拟物体之间的距离所需的参数,得到第一参数集合;
S3、发送所述参数集合至所述服务端;
S4、服务端分析所述参数集合,得到虚拟场景帧中主摄像机对象与虚拟物体之间的距离。
进一步地,所述S3具体为:
统计所述参数集合中所述虚拟物体的唯一标识符的个数,得到记录数;
当所述记录数等于预设的数量阈值时,发送所述参数集合至服务端。
由上述描述可知,哈希表中采集的数据越多越好,一般采集一百条数据后就返回数据给客户端,好处在于采集的数据量足够大,但是采集消耗的时间较小。
进一步地,所述S2具体为:
Unity引擎以虚拟现实软件的主摄像机对象的坐标为起点绘制具有物理属性的射线;
当所述射线与当前虚拟场景帧中携带碰撞器的虚拟物体发生碰撞时,Unity引擎获取碰撞信息;所述碰撞器位于虚拟物体的表面;所述碰撞信息包括碰撞点的坐标和所述虚拟物体的唯一标识符;
当预设的虚拟物体信息表中不存在所述虚拟物体的唯一标识符时,添加所述虚拟物体的唯一标识符、所述碰撞点的坐标和所述主摄像机对象的坐标至所述参数集合;否则播放下一虚拟场景帧;
所述虚拟物体信息表用于存储已采集对应碰撞信息的虚拟物体的唯一标识符。
由上述描述可知,虚拟场景帧中的界面元素在主摄像机视锥体截面上的位置是相对固定的,不会因为虚拟角色(用户本身)的移动或者头部转动而改变位置,仅仅在用户注视某一个界面元素的不同位置时,存在较小的距离差异(基本可以忽略),因此只需要获取一次数据即可。对于同一虚拟物体只采集其在一虚拟场景帧中的相关参数,有利于提高测试效率。
进一步地,所述S4具体为:
S41、依次获取所述参数集合中的一组数据;参数集合中的每组数据由虚拟物体的唯一标识符、碰撞点的坐标和摄像机对象的坐标构成;
S42、根据所述摄像机对象的坐标和所述碰撞点的坐标计算所述主摄像机对象与所述虚拟物体之间的距离,得到第一距离;
S43、添加所述第一距离至预设的距离集合;
S44、重复执行S41至S43,直至遍历所述参数集合。
由上述描述可知,在Unity引擎中,具有物理属性的射线与虚拟物体表面的碰撞器发生碰撞时,Unity引擎可识别出碰撞点的坐标,即虚拟物体表面的坐标,根据碰撞点的坐标和主摄像机对象的坐标可精确计算得到主摄像机对象与虚拟物体表面之间的距离,该距离正是影响人眼在观看虚拟场景时视觉疲劳程度的重要因素。但是,通过现有的Unity引擎的接口可获取的虚拟物体的坐标为虚拟物体中心点的坐标。显然,对于体积庞大或不规则形状的虚拟物体,使用物体的中心坐标与主摄像机的坐标计算它们之间的距离不能精确地反映人眼观看界面元素的距离感。因此,通过本发明提供的距离测试方法可精确计算虚拟场景中主摄像机对象距虚拟物体表面的距离有利于精确判断当前虚拟场景帧的界面布局是否合理,有利于精确判断是否需要通过调整界面布局来减缓用户在观看虚拟场景过程中产生视觉疲劳的现象。
进一步地,还包括:
若所述第一距离大于预设的距离阈值,则标记与所述虚拟物体的唯一标识符对应的虚拟物体的布局不合理。
由上述描述可知,有利于工程师快速定位界面布局不合理的虚拟场景帧,重新对该帧里的界面元素,即虚拟物体,进行布局,从而减缓用户在使用虚拟现实软件时视觉疲劳程度,提高用户体验。
进一步地,还包括:
Unity引擎设置所述主摄像机对象朝向正前方。
由上述描述可知,将主摄像机对象朝向正前方可测试主摄像机与虚拟物体表面的最小距离。
如图2所示,本发明还提供一种基于Unity引擎的远程测试距离的系统,包括:
挂载模块1,用于挂载预设的参数采集脚本至虚拟现实软件;
采集模块2,用于当获取到服务端发送的距离测试请求时,通过所述预设的参数采集脚本采集计算虚拟场景帧中主摄像机对象与虚拟物体之间的距离所需的参数,得到第一参数集合;
发送模块3,用于发送所述参数集合至所述服务端;
分析模块4,用于服务端分析所述参数集合,得到虚拟场景帧中主摄像机对象与虚拟物体之间的距离。
进一步地,所述发送模块3包括:
统计单元31,用于统计所述参数集合中所述虚拟物体的唯一标识符的个数,得到记录数;
发送单元32,用于当所述记录数等于预设的数量阈值时,发送所述参数集合至服务端。
进一步地,所述采集模块2包括:
设置单元21,用于Unity引擎设置所述主摄像机对象朝向正前方;
绘制单元22,用于Unity引擎以虚拟现实软件的主摄像机对象的坐标为起点绘制具有物理属性的射线;
第一获取单元23,用于当所述射线与当前虚拟场景帧中携带碰撞器的虚拟物体发生碰撞时,Unity引擎获取碰撞信息;所述碰撞器位于虚拟物体的表面;所述碰撞信息包括碰撞点的坐标和所述虚拟物体的唯一标识符;
判断单元24,用于当预设的虚拟物体信息表中不存在所述虚拟物体的唯一标识符时,添加所述虚拟物体的唯一标识符、所述碰撞点的坐标和所述主摄像机对象的坐标至所述参数集合;否则播放下一虚拟场景帧;所述虚拟物体信息表用于存储已采集对应碰撞信息的虚拟物体的唯一标识符。
进一步地,所述分析模块4包括:
第二获取单元41,用于依次获取所述参数集合中的一组数据;参数集合中的每组数据由虚拟物体的唯一标识符、碰撞点的坐标和摄像机对象的坐标构成;
计算单元42,用于根据所述摄像机对象的坐标和所述碰撞点的坐标计算所述主摄像机对象与所述虚拟物体之间的距离,得到第一距离;
标记单元43,用于若所述第一距离大于预设的距离阈值,则标记与所述虚拟物体的唯一标识符对应的虚拟物体的布局不合理;
添加单元44,用于添加所述第一距离至预设的距离集合;
重复单元45,用于重复执行所述第二获取单元、所述计算单元、所述标记单元和所述添加单元,直至遍历所述参数集合。
本发明的实施例一为:
本实施例提供一种基于Unity引擎的远程测试距离的方法,包括:
S1、挂载预设的参数采集脚本至虚拟现实软件;
其中,参数采集脚本被预先挂载在空对象上,该空对象和挂载的脚本将被打包成Dll组件,该组件可以在软件的测试阶段通过持续集成工具,例如Jenkins等集成到需要build的工程项目中;
S2、当获取到服务端发送的距离测试请求时,通过所述预设的参数采集脚本采集计算虚拟场景帧中主摄像机对象与虚拟物体之间的距离所需的参数,得到第一参数集合;具体为:
S21、Unity引擎设置所述主摄像机对象朝向正前方;
其中,主摄像机对象是指用于充当用户的“眼睛”的虚拟摄像机,它所覆盖的视野即用户所能看到的视野;主摄像机对象的正前方即主摄像机对象在三维空间中视锥体所对应的方向;
S22、Unity引擎以虚拟现实软件的主摄像机对象的坐标为起点绘制具有物理属性的射线;
其中,通过Unity引擎的具有全局物理属性的Raycast方法绘制的射线即为具有物理属性的射线,该摄像可感知是否与碰撞器发生碰撞;Raycast方法包含了origin参数、direction参数和layerMask参数;origin用于传递射线的起始点坐标,由于射线是以主摄像机对象为起点,所以射线的起始点坐标就是主摄像机对象在三维空间中的三维坐标;获取主摄像机对象的坐标的方式为,通过GameObject.GetComponent<Transform>方法获取主摄像机对象的位移组件,位移组件中包含了主摄像机对象的三维坐标,旋转角度,以及缩放比例信息;direction用于传递射线的发射方向,本测试程序中通过Vector3这个类的forward方法定义了射线的发射方向,即朝向正前方;在Unity引擎中,Layers一共有32个层,层的数量是恒定不变的,而layerMask参数实际上是一种位码操作,通过int32的32个位来表示Layers的每一个层级;通过传递layerMask参数可以限制射线与Layers的哪一个层级中的对象可发生碰撞;通过Raycast方法以及origin参数、direction参数和layerMask参数向主摄像机对象的视锥体方向绘制一条虚构的,并且无限延伸的射线;该射线拥有物理碰撞属性,并且在绘制时,通过layerMask参数限制该射线仅能够与UI层的对象发生物理碰撞;UI层即虚拟场景帧中虚拟物体所在层;
S23、当所述射线与当前虚拟场景帧中携带碰撞器的虚拟物体发生碰撞时,Unity引擎获取碰撞信息;所述碰撞器位于虚拟物体的表面;所述碰撞信息包括碰撞点的坐标和所述虚拟物体的唯一标识符;
其中,当从主摄像机对象的坐标发射出的射线与UI层中一虚拟物体表面的碰撞器发生碰撞时,光线投射碰撞对象RayCastHit将会捕获被碰撞物体的碰撞信息,光线投射碰撞对象RayCastHit用于存放发生物理碰撞时,返回的被碰撞物体的信息,包括碰撞点信息,射线所碰到表面的法线,碰到的碰撞器信息等;
通过transform类提供的name方法可获取光线投射碰撞对象RayCastHit所存储的被碰撞虚拟物体的名称,该名称用于唯一识别该虚拟物体;通过RayCastHit.point提取被碰撞虚拟物体的碰撞点的坐标;
S24、当预设的虚拟物体信息表中不存在所述虚拟物体的唯一标识符时,添加所述虚拟物体的唯一标识符、所述碰撞点的坐标和所述主摄像机对象的坐标至所述参数集合;否则播放下一虚拟场景帧;所述虚拟物体信息表用于存储已采集对应碰撞信息的虚拟物体的唯一标识符;
其中,以被碰撞虚拟物体的名称作为Key检索在初始化阶段创建的哈希表(虚拟物体信息表),如果存在以该被碰撞虚拟物体的名称作为Key的数据记录,则结束当前帧,继续播放下一帧;如果不存在以该被碰撞虚拟物体的名称作为Key的数据记录,则添加采集到的参数至参数集合;
S3、发送所述参数集合至所述服务端;具体为:
S31、统计所述参数集合中所述虚拟物体的唯一标识符的个数,得到记录数;
S32、当所述记录数等于预设的数量阈值时,发送所述参数集合至服务端;
S4、服务端分析所述参数集合,得到虚拟场景帧中主摄像机对象与虚拟物体之间的距离;具体为:
S41、依次获取所述参数集合中的一组数据;参数集合中的每组数据由虚拟物体的唯一标识符、碰撞点的坐标和摄像机对象的坐标构成;
S42、根据所述摄像机对象的坐标和所述碰撞点的坐标计算所述主摄像机对象与所述虚拟物体之间的距离,得到第一距离;
S43、若所述第一距离大于预设的距离阈值,则标记与所述虚拟物体的唯一标识符对应的虚拟物体的布局不合理;
其中,距离阈值为不小于2米,在用户体验虚拟现实软件的过程中,主摄像机对象与当前虚拟场景帧中的界面元素(虚拟物体)的距离小于该距离阈值,用户不易产生视觉疲劳;
S44、添加所述第一距离至预设的距离集合;
S45、重复执行S41至S44,直至遍历所述参数集合。
如图3所示,本发明的实施例二为:
本实施例提供一种基于Unity引擎的远程测试距离的系统,包括采集端101和服务端102;
其中,所述采集端101包括挂载模块1、采集模块2和发送模块3;
所述挂载模块1,用于挂载预设的参数采集脚本至虚拟现实软件;
所述采集模块2,用于当获取到服务端发送的距离测试请求时,通过所述预设的参数采集脚本采集计算虚拟场景帧中主摄像机对象与虚拟物体之间的距离所需的参数,得到第一参数集合;
所述发送模块3,用于发送所述参数集合至所述服务端102;
其中,所述采集模块2包括设置单元21、绘制单元22、第一获取单元23和判断单元24;
所述设置单元21,用于Unity引擎设置所述主摄像机对象朝向正前方;
所述绘制单元22,用于Unity引擎以虚拟现实软件的主摄像机对象的坐标为起点绘制具有物理属性的射线;
所述第一获取单元23,用于当所述射线与当前虚拟场景帧中携带碰撞器的虚拟物体发生碰撞时,Unity引擎获取碰撞信息;所述碰撞器位于虚拟物体的表面;所述碰撞信息包括碰撞点的坐标和所述虚拟物体的唯一标识符;
所述判断单元24,用于当预设的虚拟物体信息表中不存在所述虚拟物体的唯一标识符时,添加所述虚拟物体的唯一标识符、所述碰撞点的坐标和所述主摄像机对象的坐标至所述参数集合;否则播放下一虚拟场景帧;所述虚拟物体信息表用于存储已采集对应碰撞信息的虚拟物体的唯一标识符。
其中,所述发送模块3包括统计单元31和发送单元32;
所述统计单元31,用于统计所述参数集合中所述虚拟物体的唯一标识符的个数,得到记录数;
所述发送单元32,用于当所述记录数等于预设的数量阈值时,发送所述参数集合至服务端;
其中,所述服务端102包括分析模块4;
所述分析模块4,用于服务端分析所述参数集合,得到虚拟场景帧中主摄像机对象与虚拟物体之间的距离;
其中,所述分析模块4包括第二获取单元41、计算单元42、标记单元43、添加单元44和重复单元45;
所述第二获取单元41,用于依次获取所述参数集合中的一组数据;参数集合中的每组数据由虚拟物体的唯一标识符、碰撞点的坐标和摄像机对象的坐标构成;
所述计算单元42,用于根据所述摄像机对象的坐标和所述碰撞点的坐标计算所述主摄像机对象与所述虚拟物体之间的距离,得到第一距离;
所述标记单元43,用于若所述第一距离大于预设的距离阈值,则标记与所述虚拟物体的唯一标识符对应的虚拟物体的布局不合理;
所述添加单元44,用于添加所述第一距离至预设的距离集合;
所述重复单元45,用于重复执行所述第二获取单元、所述计算单元、所述标记单元和所述添加单元,直至遍历所述参数集合。
综上所述,本发明提供的一种基于Unity引擎的远程测试距离的方法及系统,只将参数采集脚本挂载至虚拟现实软件,由服务端对采集到的参数进行数据分析,降低了虚拟现实软件在测试过程中的运行负荷,使得在测试虚拟场景帧中主摄像机对象与虚拟物体之间的距离的过程中,虚拟现实软件可流畅运行,从而提高了测试效率。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等同变换,或直接或间接运用在相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (8)

1.一种基于Unity引擎的远程测试距离的方法,其特征在于,包括:
S1、挂载预设的参数采集脚本至虚拟现实软件;
S2、当获取到服务端发送的距离测试请求时,通过所述预设的参数采集脚本采集计算虚拟场景帧中主摄像机对象与虚拟物体之间的距离所需的参数,得到第一参数集合;
S3、发送所述参数集合至所述服务端;
S4、服务端分析所述参数集合,得到虚拟场景帧中主摄像机对象与虚拟物体之间的距离;
其中,所述S2具体为:
Unity引擎以虚拟现实软件的主摄像机对象的坐标为起点绘制具有物理属性的射线;
当所述射线与当前虚拟场景帧中携带碰撞器的虚拟物体发生碰撞时,Unity引擎获取碰撞信息;所述碰撞器位于虚拟物体的表面;所述碰撞信息包括碰撞点的坐标和所述虚拟物体的唯一标识符;
当预设的虚拟物体信息表中不存在所述虚拟物体的唯一标识符时,添加所述虚拟物体的唯一标识符、所述碰撞点的坐标和所述主摄像机对象的坐标至所述参数集合;否则:
播放下一虚拟场景帧;
所述虚拟物体信息表用于存储已采集对应碰撞信息的虚拟物体的唯一标识符。
2.根据权利要求1所述的基于Unity引擎的远程测试距离的方法,其特征在于,所述S3具体为:
统计所述参数集合中所述虚拟物体的唯一标识符的个数,得到记录数;
当所述记录数等于预设的数量阈值时,发送所述参数集合至服务端。
3.根据权利要求1所述的基于Unity引擎的远程测试距离的方法,其特征在于,还包括:
Unity引擎设置所述主摄像机对象朝向正前方。
4.根据权利要求1所述的基于Unity引擎的远程测试距离的方法,其特征在于,所述S4具体为:
S41、依次获取所述参数集合中的一组数据;参数集合中的每组数据由虚拟物体的唯一标识符、碰撞点的坐标和摄像机对象的坐标构成;
S42、根据所述摄像机对象的坐标和所述碰撞点的坐标计算所述主摄像机对象与所述虚拟物体之间的距离,得到第一距离;
S43、添加所述第一距离至预设的距离集合;
S44、重复执行S41至S43,直至遍历所述参数集合。
5.根据权利要求4所述的基于Unity引擎的远程测试距离的方法,其特征在于,还包括:
若所述第一距离大于预设的距离阈值,则标记与所述虚拟物体的唯一标识符对应的虚拟物体的布局不合理。
6.一种基于Unity引擎的远程测试距离的系统,其特征在于,包括:
挂载模块,用于挂载预设的参数采集脚本至虚拟现实软件;
采集模块,用于当获取到服务端发送的距离测试请求时,通过所述预设的参数采集脚本采集计算虚拟场景帧中主摄像机对象与虚拟物体之间的距离所需的参数,得到第一参数集合;
发送模块,用于发送所述参数集合至所述服务端;
分析模块,用于服务端分析所述参数集合,得到虚拟场景帧中主摄像机对象与虚拟物体之间的距离;
其中,所述采集模块包括:
设置单元,用于Unity引擎设置所述主摄像机对象朝向正前方;
绘制单元,用于Unity引擎以虚拟现实软件的主摄像机对象的坐标为起点绘制具有物理属性的射线;
第一获取单元,用于当所述射线与当前虚拟场景帧中携带碰撞器的虚拟物体发生碰撞时,Unity引擎获取碰撞信息;所述碰撞器位于虚拟物体的表面;所述碰撞信息包括碰撞点的坐标和所述虚拟物体的唯一标识符;
判断单元,用于当预设的虚拟物体信息表中不存在所述虚拟物体的唯一标识符时,添加所述虚拟物体的唯一标识符、所述碰撞点的坐标和所述主摄像机对象的坐标至所述参数集合;否则播放下一虚拟场景帧;所述虚拟物体信息表用于存储已采集对应碰撞信息的虚拟物体的唯一标识符。
7.根据权利要求6所述的基于Unity引擎的远程测试距离的系统,其特征在于,所述发送模块包括:
统计单元,用于统计所述参数集合中所述虚拟物体的唯一标识符的个数,得到记录数;
发送单元,用于当所述记录数等于预设的数量阈值时,发送所述参数集合至服务端。
8.根据权利要求6所述的基于Unity引擎的远程测试距离的系统,其特征在于,所述分析模块包括:
第二获取单元,用于依次获取所述参数集合中的一组数据;参数集合中的每组数据由虚拟物体的唯一标识符、碰撞点的坐标和摄像机对象的坐标构成;
计算单元,用于根据所述摄像机对象的坐标和所述碰撞点的坐标计算所述主摄像机对象与所述虚拟物体之间的距离,得到第一距离;
标记单元,用于若所述第一距离大于预设的距离阈值,则标记与所述虚拟物体的唯一标识符对应的虚拟物体的布局不合理;
添加单元,用于添加所述第一距离至预设的距离集合;
重复单元,用于重复执行所述第二获取单元、所述计算单元、所述标记单元和所述添加单元,直至遍历所述参数集合。
CN201710458021.1A 2017-06-16 2017-06-16 一种基于Unity引擎的远程测试距离的方法及系统 Active CN107423688B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710458021.1A CN107423688B (zh) 2017-06-16 2017-06-16 一种基于Unity引擎的远程测试距离的方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710458021.1A CN107423688B (zh) 2017-06-16 2017-06-16 一种基于Unity引擎的远程测试距离的方法及系统

Publications (2)

Publication Number Publication Date
CN107423688A CN107423688A (zh) 2017-12-01
CN107423688B true CN107423688B (zh) 2020-03-17

Family

ID=60428939

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710458021.1A Active CN107423688B (zh) 2017-06-16 2017-06-16 一种基于Unity引擎的远程测试距离的方法及系统

Country Status (1)

Country Link
CN (1) CN107423688B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108170592B (zh) * 2017-12-20 2020-02-21 福建天晴数码有限公司 一种虚拟现实软件性能的远程测试方法及终端
CN115531877B (zh) * 2022-11-21 2023-03-07 北京蔚领时代科技有限公司 一种虚拟引擎中距离测量的方法及其系统

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014194341A (ja) * 2011-07-27 2014-10-09 Sanyo Electric Co Ltd 物体検出装置および情報取得装置
CN104571532B (zh) * 2015-02-04 2018-01-30 网易有道信息技术(北京)有限公司 一种实现增强现实或虚拟现实的方法及装置
KR101892735B1 (ko) * 2015-02-05 2018-08-28 한국전자통신연구원 직관적인 상호작용 장치 및 방법
CN105959595A (zh) * 2016-05-27 2016-09-21 西安宏源视讯设备有限责任公司 一种虚拟现实实时交互中虚拟对现实自主响应方法

Also Published As

Publication number Publication date
CN107423688A (zh) 2017-12-01

Similar Documents

Publication Publication Date Title
CN107392888B (zh) 一种基于Unity引擎的距离测试方法及系统
CN109922354A (zh) 直播互动方法、装置、直播系统及电子设备
CN104615538B (zh) 一种基于手机界面控件元素的手机应用测试方法
CN102938844B (zh) 利用立体成像生成自由视点视频
CN110119700B (zh) 虚拟形象控制方法、虚拟形象控制装置和电子设备
CN105284108B (zh) 影像监视系统、监视装置
US10607401B2 (en) Multi line trace gaze to object mapping for determining gaze focus targets
KR102111079B1 (ko) 복수의 모델들에 근거하는 객체들의 디스플레이
JP2016517580A (ja) コンテンツ配信のセグメンテーション
CN107423688B (zh) 一种基于Unity引擎的远程测试距离的方法及系统
CN104143074A (zh) 一种用于基于运动特征信息生成运动特征码的方法和设备
KR20120064641A (ko) 영상 처리 장치, 조명 처리 장치 및 그 방법
CN106203024A (zh) 一种远程视频面签方法及系统
Li et al. Enhancing 3d applications using stereoscopic 3d and motion parallax
Zerman et al. User behaviour analysis of volumetric video in augmented reality
US11657568B2 (en) Methods and systems for augmented reality tracking based on volumetric feature descriptor data
KR20200117685A (ko) 가상 객체 인식 방법, 상기 가상 객체를 이용한 증강 현실 콘텐츠 제공 방법 및 이를 위한 증강 방송 시스템
JP6800599B2 (ja) 情報処理装置、方法及びプログラム
CN115904201A (zh) 虚拟现实设备及其控制方法、装置以及计算机存储介质
KR101868520B1 (ko) 손 제스처 인식 방법 및 그 장치
JP2021140539A (ja) 情報システム、端末、サーバ及びプログラム
CN115531877B (zh) 一种虚拟引擎中距离测量的方法及其系统
CN105138215B (zh) 一种信息处理方法及电子设备
CN116109756B (zh) 光线追踪方法、装置、设备及存储介质
US11688128B2 (en) Multi line trace gaze to object mapping for determining gaze focus targets

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant