CN105824417A - 一种采用虚拟现实技术的人与物的结合方法 - Google Patents
一种采用虚拟现实技术的人与物的结合方法 Download PDFInfo
- Publication number
- CN105824417A CN105824417A CN201610150149.7A CN201610150149A CN105824417A CN 105824417 A CN105824417 A CN 105824417A CN 201610150149 A CN201610150149 A CN 201610150149A CN 105824417 A CN105824417 A CN 105824417A
- Authority
- CN
- China
- Prior art keywords
- virtual reality
- scene
- reference point
- virtual
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
Abstract
本发明公开了一种采用虚拟现实技术的人与物的结合方法,它包括场景映射步骤、定位步骤、运动方式映射步骤和特定物件定位步骤。本发明将虚拟实现的世界与真实世界进行关联,通过定位在虚拟实现的世界的小地图进行实时显示,同时用户可以实时观察到自己的行为动作;具体地,采用小地图的方式将真实世界的建筑进行三维视图的展示,并且与定位相关联,形象直观;采用应用现实场景传感技术以及相应的运算处理技术理解分析现实环境,将现实环境中的一些特征映射到展现给用户的虚拟场景中,从而提高了用户体验。
Description
技术领域
本发明涉及一种采用虚拟现实技术的人与物的结合方法。
背景技术
虚拟现实技术是一种可以创建和体验虚拟世界的计算机仿真系统它利用计算机生成一种模拟环境是一种多源信息融合的交互式的三维动态视景和实体行为的系统仿真使用户沉浸到该环境中。同时,虚拟现实是利用电脑模拟产生一个三维空间的虚拟世界,提供使用者关于视觉、听觉、触觉等感官的模拟,让使用者如同身历其境一般,可以及时、没有限制地观察三度空间内的事物。虚拟现实是多种技术的综合,包括实时三维计算机图形技术,广角(宽视野)立体显示技术,对观察者头、眼和手的跟踪技术,以及触觉/力觉反馈、立体声、网络传输、语音输入输出技术等。
在虚拟现实技术中,当使用者进行位置移动时,电脑可以立即进行复杂的运算,将精确的3D世界影像传回产生临场感。该技术集成了计算机图形(CG)技术、计算机仿真技术、人工智能、传感技术、显示技术、网络并行处理等技术的最新发展成果,是一种由计算机技术辅助生成的高技术模拟系统。
然而现有的虚拟现实技术无法与真正的现实世界进行关联,用户无法将虚拟现实中的世界与现实世界连接起来,因此总会产生距离感。同时也无法与现实世界的物体进行交互。
发明内容
本发明的目的在于克服现有技术的不足,提供一种采用虚拟现实技术的人与物的结合方法,将虚拟现实的世界与现实中真实的世界进行关联。
本发明的目的是通过以下技术方案来实现的:一种采用虚拟现实技术的人与物的结合方法,它包括场景映射步骤、定位步骤和运动方式映射步骤;所述的场景映射步骤用于将虚拟场景以及用户周围的区域在虚拟现实终端进行虚拟现实显示,包括用于将虚拟的网络元素与现实的实体对象显示于地理信息系统之中形成复合空间的第一场景映射子步骤和用于将周围场景映射为虚拟场景的第二场景映射步骤;
所述的地理信息系统包括三维电子地图,所述的第一场景映射子步骤包括以下子步骤:
S111:将所述的网络元素进行GIS化,所述的网络元素为不存在于现实中的虚拟物体;
S112:将所述的复合空间进行三维可视化;
S113:虚拟现实终端呈现三维可视化后的复合空间和虚拟物体位置;
所述的第二场景映射步骤包括以下子步骤:
S121:通过现实场景传感模块捕获用户周边环境的现实场景信息;
S122:计算处理模块从所述的现实场景信息中提取出现实场景特征,基于预先设定的映射关系,将所述的现实场景特征映射为用于构建虚拟场景的特征,并基于所述用于构建虚拟场景的特征构建虚拟现实场景信息;
S123:虚拟现实终端呈现所述虚拟现实场景信息;
所述的定位步骤包括:
S21:初始化室内参考点,载入数据库中参考点信息;
S22:设置队列和滤波器参数,采集WIFI信号数据到队列;
S23:利用采集的数据队列,计算当前位置上各个AP对应的RSSI均值;
S24:遍历所有参考点,根据步骤S23计算的RSSI均值是否在所对应AP关于某参考点的RSSI区间之内,判断该参考点是否在对应AP的判断集中;
S25:求各个AP判断集的交集:
(1)若交集中只有一个参考点,将该参考点坐标作为算法的估计输出,并结束;
(2)若交集中不止一个参考点,则计算RSSI误差向量,根据误差对交集中的参考点排序,并选择其中误差最小的k个点,以加权k近邻算法计算估计结果,并结束;
(3)若交集为空集,计算各个判断集的中心,并将这些集中心的中心作为全局中心,利用欧拉距离排除中心距全局中心最远的判断集,并对剩余的判断集作步骤S25中子步骤(1)、子步骤(2)和子步骤(3)的交集运算,直到得到估计结果,并结束;若执行到最后一层仍得不到结果,执行子步骤(4);
(4)若子步骤(3)执行到最后一层时,交集仍为空集,则利用当前RSSI均值与参考点RSSI均值间的误差距离,根据RSSI误差最小原则,利用加权k近邻算法计算估计结果;
S26:将定位信息与三维可视化后的复合空间进行映射,在复合空间中显示当前定位信息;
所述的运动方式定位步骤包括以下子步骤:
S31:在人身关节处设置多个与虚拟现实终端关联的传感组件;
S32:各个传感组件的信息实时发送至虚拟现实终端;
S33:虚拟现实终端接收到信息之后进行解析,并呈现在所述虚拟现实场景信息中。
所述的虚拟现实终端为虚拟现实头盔或者移动终端。
所述的特定物件为实体物体,所述的特定物件定位步骤包括:
S41:在特定物件上设置定位模块;
S42:根据步骤S21~步骤S26的方法将特定物件在复合空间中显示。
所述的定位步骤还包括一个离线训练步骤:
S201:离散化待定位区域,在待定位区域中均匀的取N个位置作为参考点;
S202:在每个步骤S201所述的参考点扫描WIFI信号,记录连续一段时间内各个AP的接收信号强度指示值RSSI;
S203:处理步骤202中所得的RSSI向量,计算各个AP在该参考点的RSSI均值、方差以及最大最小区间,将这些参数连同对应AP的标识SSID一起保存到数据库中;
S204:对所有的参考点进行S203和步骤S204操作,直到所有的参考点都训练完毕,从而建立待定位区域完整的RSSI分布地图。
所述的三维可视化后的复合空间为建筑的三维视图。
所述的虚拟现实终端呈现三维可视化后的复合空间的视角可调整。
步骤S121中所述的捕获用户周边环境的现实场景信息为捕获用户周边环境图像的时序列帧数据;所述的计算处理模块从所述的现实场景信息中提取出现实场景特征对所述时序列帧数据进行模式识别分析,以提取出现实场景特征。
所述的现实场景传感模块包括:深度摄像传感器、深度摄像传感器与RGB摄像传感器的结合实体、超声波定位传感模块、热成像定位传感模块和电磁定位传感模块中的一种或者多种的组合。
所述的传感组件包括三轴加速度传感器、三轴角速度传感器、三轴地磁传感器的一种或者多种。
所述的特定物件定位步骤还包括一个子步骤S43:当用户携带所述特定物件并且移动时,在复合空间中进行显示;其中,判断人物携带特定物件的步骤包括判断设置于手部的传感器与特定物件的相对位置的距离是否在一段时间内保持在一定范围内。
本发明的有益效果是:
本发明将虚拟实现的世界与真实世界进行关联,通过定位在虚拟实现的世界的小地图进行实时显示,同时用户可以实时观察到自己的行为动作。
具体地,采用小地图的方式将真实世界的建筑进行三维视图的展示,并且与定位相关联,形象直观;采用应用现实场景传感技术以及相应的运算处理技术理解分析现实环境,将现实环境中的一些特征映射到展现给用户的虚拟场景中,从而提高了用户体验;并且,其中的定位方式实现移动目标(人、设备)的定位和三维位置显示,为虚拟现实终端的基于位置服务应用提供坐标估计,具备较高的精度和较低的延时(延时可以通过扫描周期来间接设置);同时,本发明还将现实世界的物体与虚拟现实进行关联显示。
附图说明
图1为本发明方法流程图。
具体实施方式
下面结合附图进一步详细描述本发明的技术方案:
如图1所示,一种采用虚拟现实技术的人与物的结合方法,它包括场景映射步骤、定位步骤、运动方式映射步骤和特定物件定位步骤;所述的场景映射步骤用于将虚拟场景以及用户周围的区域在虚拟现实终端进行虚拟现实显示,包括用于将虚拟的网络元素与现实的实体对象显示于地理信息系统之中形成复合空间的第一场景映射子步骤和用于将周围场景映射为虚拟场景的第二场景映射步骤;
所述的地理信息系统包括三维电子地图,所述的第一场景映射子步骤包括以下子步骤:
S111:将所述的网络元素进行GIS化,所述的网络元素为不存在于现实中的虚拟物体;
S112:将所述的复合空间进行三维可视化;
S113:虚拟现实终端呈现三维可视化后的复合空间和虚拟物体位置;
所述的第二场景映射步骤包括以下子步骤:
S121:通过现实场景传感模块捕获用户周边环境的现实场景信息;
S122:计算处理模块从所述的现实场景信息中提取出现实场景特征,基于预先设定的映射关系,将所述的现实场景特征映射为用于构建虚拟场景的特征,并基于所述用于构建虚拟场景的特征构建虚拟现实场景信息;
S123:虚拟现实终端呈现所述虚拟现实场景信息;
所述的定位步骤包括:
S21:初始化室内参考点,载入数据库中参考点信息;
S22:设置队列和滤波器参数,采集WIFI信号数据到队列;
S23:利用采集的数据队列,计算当前位置上各个AP对应的RSSI均值;
S24:遍历所有参考点,根据步骤S23计算的RSSI均值是否在所对应AP关于某参考点的RSSI区间之内,判断该参考点是否在对应AP的判断集中;
S25:求各个AP判断集的交集:
(1)若交集中只有一个参考点,将该参考点坐标作为算法的估计输出,并结束;
(2)若交集中不止一个参考点,则计算RSSI误差向量,根据误差对交集中的参考点排序,并选择其中误差最小的k个点,以加权k近邻算法计算估计结果,并结束;
(3)若交集为空集,计算各个判断集的中心,并将这些集中心的中心作为全局中心,利用欧拉距离排除中心距全局中心最远的判断集,并对剩余的判断集作步骤S25中子步骤(1)、子步骤(2)和子步骤(3)的交集运算,直到得到估计结果,并结束;若执行到最后一层仍得不到结果,执行子步骤(4);
(4)若子步骤(3)执行到最后一层时,交集仍为空集,则利用当前RSSI均值与参考点RSSI均值间的误差距离,根据RSSI误差最小原则,利用加权k近邻算法计算估计结果;
S26:将定位信息与三维可视化后的复合空间进行映射,在复合空间中显示当前定位信息;
所述的运动方式定位步骤包括以下子步骤:
S31:在人身关节处设置多个与虚拟现实终端关联的传感组件;
S32:各个传感组件的信息实时发送至虚拟现实终端;
S33:虚拟现实终端接收到信息之后进行解析,并呈现在所述虚拟现实场景信息中。、
所述的特定物件为实体物体,所述的特定物件定位步骤包括:
S41:在特定物件上设置定位模块;
S42:根据步骤S21~步骤S26的方法将特定物件在复合空间中显示。
所述的虚拟现实终端为虚拟现实头盔或者移动终端。
所述的定位步骤还包括一个离线训练步骤:
S201:离散化待定位区域,在待定位区域中均匀的取N个位置作为参考点;
S202:在每个步骤S201所述的参考点扫描WIFI信号,记录连续一段时间内各个AP的接收信号强度指示值RSSI;
S203:处理步骤202中所得的RSSI向量,计算各个AP在该参考点的RSSI均值、方差以及最大最小区间,将这些参数连同对应AP的标识SSID一起保存到数据库中;
S204:对所有的参考点进行S203和步骤S204操作,直到所有的参考点都训练完毕,从而建立待定位区域完整的RSSI分布地图。
所述的三维可视化后的复合空间为建筑的三维视图。
所述的虚拟现实终端呈现三维可视化后的复合空间的视角可调整。
步骤S121中所述的捕获用户周边环境的现实场景信息为捕获用户周边环境图像的时序列帧数据;所述的计算处理模块从所述的现实场景信息中提取出现实场景特征对所述时序列帧数据进行模式识别分析,以提取出现实场景特征。
所述的现实场景传感模块包括:深度摄像传感器、深度摄像传感器与RGB摄像传感器的结合实体、超声波定位传感模块、热成像定位传感模块和电磁定位传感模块中的一种或者多种的组合。
所述的传感组件包括三轴加速度传感器、三轴角速度传感器、三轴地磁传感器的一种或者多种。
所述的特定物件定位步骤还包括一个子步骤S43:当用户携带所述特定物件并且移动时,在复合空间中进行显示;其中,判断人物携带特定物件的步骤包括判断设置于手部的传感器与特定物件的相对位置的距离是否在一段时间内保持在一定范围内。
本实施例为应用于商场活动,某商场举行活动,需要使用到虚拟现实,用户需要通过本发明的方法寻找到特定位置的特定物件。比如,寻找虚拟NPC等。
首先,用户获取第一场景映射,即整个商场的形状以及楼层以及虚拟NPC的特定位置。
S111:将网络元素进行GIS化,所述的网络元素为不存在于现实中的虚拟物体,在本实施例中的网络元素即为虚拟NPC;
S112:将所述的复合空间进行三维可视化,即获取整个商场的形状以及楼层,也可以包括商场外部的部分地形;
S113:虚拟现实终端呈现三维可视化后的整个商场的形状以及楼层和虚拟NPC在商场中的某个位置,在本实施例中通过小地图的方式实现(即在虚拟现实终端中占据的画面为一个角落)。
所述的虚拟现实终端呈现三维可视化后的复合空间的视角可调整。
接着,用户获取第二场景映射,即获取周围环境的虚拟现实信息。
S121:通过现实场景传感模块捕获用户周边环境的现实场景信息;
S122:计算处理模块从所述的现实场景信息中提取出现实场景特征,基于预先设定的映射关系,将所述的现实场景特征映射为用于构建虚拟场景的特征,并基于所述用于构建虚拟场景的特征构建虚拟现实场景信息;
S123:虚拟现实终端呈现所述虚拟现实场景信息,在本实施例中,通过虚拟动画的形式进行实现并占据整个画面除小地图部分外的所有画面。
其中,步骤S121中所述的捕获用户周边环境的现实场景信息为捕获用户周边环境图像的时序列帧数据;所述的计算处理模块从所述的现实场景信息中提取出现实场景特征对所述时序列帧数据进行模式识别分析,以提取出现实场景特征。
然后,用户对自己进行定位。
所述的定位步骤包括:
S21:初始化室内参考点,载入数据库中参考点信息;
S22:设置队列和滤波器参数,采集WIFI信号数据到队列;
S23:利用采集的数据队列,计算当前位置上各个AP对应的RSSI均值;
S24:遍历所有参考点,根据步骤S23计算的RSSI均值是否在所对应AP关于某参考点的RSSI区间之内,判断该参考点是否在对应AP的判断集中;
S25:求各个AP判断集的交集:
(1)若交集中只有一个参考点,将该参考点坐标作为算法的估计输出,并结束;
(2)若交集中不止一个参考点,则计算RSSI误差向量,根据误差对交集中的参考点排序,并选择其中误差最小的k个点,以加权k近邻算法计算估计结果,并结束;
(3)若交集为空集,计算各个判断集的中心,并将这些集中心的中心作为全局中心,利用欧拉距离排除中心距全局中心最远的判断集,并对剩余的判断集作步骤S25中子步骤(1)、子步骤(2)和子步骤(3)的交集运算,直到得到估计结果,并结束;若执行到最后一层仍得不到结果,执行子步骤(4);
(4)若子步骤(3)执行到最后一层时,交集仍为空集,则利用当前RSSI均值与参考点RSSI均值间的误差距离,根据RSSI误差最小原则,利用加权k近邻算法计算估计结果;
S26:将定位信息与三维可视化后的复合空间进行映射,在复合空间中显示当前定位信息。即用户将自己定位位置在小地图中进行实时显示。
其中,所述的数据库需要一个离线训练步骤:
S201:离散化待定位区域,在待定位区域中均匀的取N个位置作为参考点;
S202:在每个步骤S201所述的参考点扫描WIFI信号,记录连续一段时间内各个AP的接收信号强度指示值RSSI;
S203:处理步骤202中所得的RSSI向量,计算各个AP在该参考点的RSSI均值、方差以及最大最小区间,将这些参数连同对应AP的标识SSID一起保存到数据库中;
S204:对所有的参考点进行S203和步骤S204操作,直到所有的参考点都训练完毕,从而建立待定位区域完整的RSSI分布地图。
接着,需要实时将自己的运动方式在复合空间中体现:
S31:在人身关节处设置多个与虚拟现实终端关联的传感组件;
S32:各个传感组件的信息实时发送至虚拟现实终端;
S33:虚拟现实终端接收到信息之后进行解析,并呈现在所述虚拟现实场景信息中。
所述的传感组件包括三轴加速度传感器、三轴角速度传感器、三轴地磁传感器的一种或者多种。
此时用户的动作可以在虚拟现实场景信息中进行体现。
最后,还包括一个对实体物体进行定位的步骤。
所述的特定物件为实体物体,所述的特定物件定位步骤包括:
S41:在特定物件上设置定位模块;
S42:根据步骤S21~步骤S26的方法将特定物件在复合空间中显示。
当上述都完成之后,用户可以开始进行向虚拟NPC处移动。
当用户携带所述特定物件并且移动时,在复合空间中进行显示;其中,判断人物携带特定物件的步骤包括判断设置于手部的传感器与特定物件的相对位置的距离是否在一段时间内保持在一定范围内。
在本实施例中,所述的虚拟现实终端为虚拟现实头盔或者移动终端。具体选择根据商家的成本进行考量。
如果采用虚拟现实头盔,需要采购专用的设备,但是效果更佳。用户可戴上虚拟现实头盔进行虚拟NPC寻找。并且此种方法适用于人员较少的情况下。
如果是采用移动终端,比如手机或者平板电脑,则需要安装相应的软件,方便快捷但是效果相对于采用虚拟现实头盔的方法来说较差。此种方法适用于人员较多的情况下。
Claims (9)
1.一种采用虚拟现实技术的人与物的结合方法,其特征在于:它包括场景映射步骤、定位步骤、运动方式映射步骤和特定物件定位步骤;所述的场景映射步骤用于将虚拟场景以及用户周围的区域在虚拟现实终端进行虚拟现实显示,包括用于将虚拟的网络元素与现实的实体对象显示于地理信息系统之中形成复合空间的第一场景映射子步骤和用于将周围场景映射为虚拟场景的第二场景映射步骤;
所述的地理信息系统包括三维电子地图,所述的第一场景映射子步骤包括以下子步骤:
S111:将所述的网络元素进行GIS化,所述的网络元素为不存在于现实中的虚拟物体;
S112:将所述的复合空间进行三维可视化;
S113:虚拟现实终端呈现三维可视化后的复合空间和虚拟物体位置;
所述的第二场景映射步骤包括以下子步骤:
S121:通过现实场景传感模块捕获用户周边环境的现实场景信息;
S122:计算处理模块从所述的现实场景信息中提取出现实场景特征,基于预先设定的映射关系,将所述的现实场景特征映射为用于构建虚拟场景的特征,并基于所述用于构建虚拟场景的特征构建虚拟现实场景信息;
S123:虚拟现实终端呈现所述虚拟现实场景信息;
所述的定位步骤包括:
S21:初始化室内参考点,载入数据库中参考点信息;
S22:设置队列和滤波器参数,采集WIFI信号数据到队列;
S23:利用采集的数据队列,计算当前位置上各个AP对应的RSSI均值;
S24:遍历所有参考点,根据步骤S23计算的RSSI均值是否在所对应AP关于某参考点的RSSI区间之内,判断该参考点是否在对应AP的判断集中;
S25:求各个AP判断集的交集:
(1)若交集中只有一个参考点,将该参考点坐标作为算法的估计输出,并结束;
(2)若交集中不止一个参考点,则计算RSSI误差向量,根据误差对交集中的参考点排序,并选择其中误差最小的k个点,以加权k近邻算法计算估计结果,并结束;
(3)若交集为空集,计算各个判断集的中心,并将这些集中心的中心作为全局中心,利用欧拉距离排除中心距全局中心最远的判断集,并对剩余的判断集作步骤S25中子步骤(1)、子步骤(2)和子步骤(3)的交集运算,直到得到估计结果,并结束;若执行到最后一层仍得不到结果,执行子步骤(4);
(4)若子步骤(3)执行到最后一层时,交集仍为空集,则利用当前RSSI均值与参考点RSSI均值间的误差距离,根据RSSI误差最小原则,利用加权k近邻算法计算估计结果;
S26:将定位信息与三维可视化后的复合空间进行映射,在复合空间中显示当前定位信息;
所述的运动方式定位步骤包括以下子步骤:
S31:在人身关节处设置多个与虚拟现实终端关联的传感组件;
S32:各个传感组件的信息实时发送至虚拟现实终端;
S33:虚拟现实终端接收到信息之后进行解析,并呈现在所述虚拟现实场景信息中;
所述的特定物件为实体物体,所述的特定物件定位步骤包括:
S41:在特定物件上设置定位模块;
S42:根据步骤S21~步骤S26的方法将特定物件在复合空间中显示。
2.根据权利要求1所述的一种采用虚拟现实技术的人与物的结合方法,其特征在于:所述的虚拟现实终端为虚拟现实头盔或者移动终端。
3.根据权利要求1所述的一种采用虚拟现实技术的人与物的结合方法,其特征在于:所述的定位步骤还包括一个离线训练步骤:
S201:离散化待定位区域,在待定位区域中均匀的取N个位置作为参考点;
S202:在每个步骤S201所述的参考点扫描WIFI信号,记录连续一段时间内各个AP的接收信号强度指示值RSSI;
S203:处理步骤202中所得的RSSI向量,计算各个AP在该参考点的RSSI均值、方差以及最大最小区间,将这些参数连同对应AP的标识SSID一起保存到数据库中;
S204:对所有的参考点进行S203和步骤S204操作,直到所有的参考点都训练完毕,从而建立待定位区域完整的RSSI分布地图。
4.根据权利要求1所述的一种采用虚拟现实技术的人与物的结合方法,其特征在于:所述的三维可视化后的复合空间为建筑的三维视图。
5.根据权利要求1所述的一种采用虚拟现实技术的人与物的结合方法,其特征在于:所述的虚拟现实终端呈现三维可视化后的复合空间的视角可调整。
6.根据权利要求1所述的一种采用虚拟现实技术的人与物的结合方法,其特征在于:步骤S121中所述的捕获用户周边环境的现实场景信息为捕获用户周边环境图像的时序列帧数据;所述的计算处理模块从所述的现实场景信息中提取出现实场景特征对所述时序列帧数据进行模式识别分析,以提取出现实场景特征。
7.根据权利要求1所述的一种采用虚拟现实技术的人与物的结合方法,其特征在于:所述的现实场景传感模块包括:深度摄像传感器、深度摄像传感器与RGB摄像传感器的结合实体、超声波定位传感模块、热成像定位传感模块和电磁定位传感模块中的一种或者多种的组合。
8.根据权利要求1所述的一种采用虚拟现实技术的人与物的结合方法,其特征在于:所述的传感组件包括三轴加速度传感器、三轴角速度传感器、三轴地磁传感器的一种或者多种。
9.根据权利要求1所述的一种采用虚拟现实技术的人与物的结合方法,其特征在于:所述的特定物件定位步骤还包括一个子步骤S43:当用户携带所述特定物件并且移动时,在复合空间中进行显示;其中,判断人物携带特定物件的步骤包括判断设置于手部的传感器与特定物件的相对位置的距离是否在一段时间内保持在一定范围内。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610150149.7A CN105824417B (zh) | 2016-03-16 | 2016-03-16 | 一种采用虚拟现实技术的人与物的结合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610150149.7A CN105824417B (zh) | 2016-03-16 | 2016-03-16 | 一种采用虚拟现实技术的人与物的结合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105824417A true CN105824417A (zh) | 2016-08-03 |
CN105824417B CN105824417B (zh) | 2019-12-10 |
Family
ID=56523820
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610150149.7A Active CN105824417B (zh) | 2016-03-16 | 2016-03-16 | 一种采用虚拟现实技术的人与物的结合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105824417B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106327291A (zh) * | 2016-08-10 | 2017-01-11 | 深圳市豆娱科技有限公司 | 一种基于虚拟现实商城的导购交互系统及其应用方法 |
CN107066094A (zh) * | 2017-03-22 | 2017-08-18 | 深圳市魔眼科技有限公司 | 一种场景融合显示方法及显示装置 |
CN107168532A (zh) * | 2017-05-05 | 2017-09-15 | 武汉秀宝软件有限公司 | 一种基于增强现实的虚拟同步显示方法及系统 |
CN109559370A (zh) * | 2017-09-26 | 2019-04-02 | 华为技术有限公司 | 一种三维建模方法及装置 |
CN113906370A (zh) * | 2019-05-29 | 2022-01-07 | 苹果公司 | 为物理元素生成内容 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1285504A (zh) * | 2000-10-09 | 2001-02-28 | 清华大学 | 一种人手运动图像三维实时检测方法 |
CN101024125A (zh) * | 2007-03-28 | 2007-08-29 | 深圳市飞达荣电子有限公司 | 多平台无线影音虚拟现实游戏系统 |
CN101034309A (zh) * | 2007-04-10 | 2007-09-12 | 南京航空航天大学 | 基于多加速度传感器的虚拟现实头盔防眩晕系统及方法 |
CN101174332A (zh) * | 2007-10-29 | 2008-05-07 | 张建中 | 一种将真实世界实时场景与虚拟现实场景结合交互的方法和装置以及系统 |
CN102150072A (zh) * | 2008-07-10 | 2011-08-10 | 实景成像有限公司 | 宽视角显示和用户接口 |
CN102279697A (zh) * | 2010-06-09 | 2011-12-14 | Lg电子株式会社 | 移动终端及该移动终端的显示方法 |
US20120214515A1 (en) * | 2011-02-23 | 2012-08-23 | Davis Bruce L | Mobile Device Indoor Navigation |
CN103034344A (zh) * | 2012-11-16 | 2013-04-10 | 浙江工商大学 | 一种可佩戴无线运动传感器与视频融合系统 |
CN103384358A (zh) * | 2013-06-25 | 2013-11-06 | 云南大学 | 一种基于虚拟现实和wifi空间场强的室内定位方法 |
CN103440037A (zh) * | 2013-08-21 | 2013-12-11 | 中国人民解放军第二炮兵工程大学 | 一种基于有限输入信息的虚拟人体运动实时交互控制方法 |
CN103810353A (zh) * | 2014-03-09 | 2014-05-21 | 杨智 | 一种虚拟现实中的现实场景映射系统和方法 |
CN103823818A (zh) * | 2012-11-19 | 2014-05-28 | 大连鑫奇辉科技有限公司 | 一种基于虚拟现实的图书系统 |
CN104063466A (zh) * | 2014-06-27 | 2014-09-24 | 深圳先进技术研究院 | 虚拟-现实一体化的三维显示方法及系统 |
CN204360325U (zh) * | 2015-01-15 | 2015-05-27 | 深圳市掌网立体时代视讯技术有限公司 | 一种头戴式多通道交互系统 |
CN105096384A (zh) * | 2015-07-22 | 2015-11-25 | 深圳多新哆技术有限责任公司 | 调整虚拟物件位置及姿态角的方法及装置 |
-
2016
- 2016-03-16 CN CN201610150149.7A patent/CN105824417B/zh active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1285504A (zh) * | 2000-10-09 | 2001-02-28 | 清华大学 | 一种人手运动图像三维实时检测方法 |
CN101024125A (zh) * | 2007-03-28 | 2007-08-29 | 深圳市飞达荣电子有限公司 | 多平台无线影音虚拟现实游戏系统 |
CN101034309A (zh) * | 2007-04-10 | 2007-09-12 | 南京航空航天大学 | 基于多加速度传感器的虚拟现实头盔防眩晕系统及方法 |
CN101174332A (zh) * | 2007-10-29 | 2008-05-07 | 张建中 | 一种将真实世界实时场景与虚拟现实场景结合交互的方法和装置以及系统 |
CN102150072A (zh) * | 2008-07-10 | 2011-08-10 | 实景成像有限公司 | 宽视角显示和用户接口 |
CN102279697A (zh) * | 2010-06-09 | 2011-12-14 | Lg电子株式会社 | 移动终端及该移动终端的显示方法 |
US20120214515A1 (en) * | 2011-02-23 | 2012-08-23 | Davis Bruce L | Mobile Device Indoor Navigation |
CN103034344A (zh) * | 2012-11-16 | 2013-04-10 | 浙江工商大学 | 一种可佩戴无线运动传感器与视频融合系统 |
CN103823818A (zh) * | 2012-11-19 | 2014-05-28 | 大连鑫奇辉科技有限公司 | 一种基于虚拟现实的图书系统 |
CN103384358A (zh) * | 2013-06-25 | 2013-11-06 | 云南大学 | 一种基于虚拟现实和wifi空间场强的室内定位方法 |
CN103440037A (zh) * | 2013-08-21 | 2013-12-11 | 中国人民解放军第二炮兵工程大学 | 一种基于有限输入信息的虚拟人体运动实时交互控制方法 |
CN103810353A (zh) * | 2014-03-09 | 2014-05-21 | 杨智 | 一种虚拟现实中的现实场景映射系统和方法 |
CN104063466A (zh) * | 2014-06-27 | 2014-09-24 | 深圳先进技术研究院 | 虚拟-现实一体化的三维显示方法及系统 |
CN204360325U (zh) * | 2015-01-15 | 2015-05-27 | 深圳市掌网立体时代视讯技术有限公司 | 一种头戴式多通道交互系统 |
CN105096384A (zh) * | 2015-07-22 | 2015-11-25 | 深圳多新哆技术有限责任公司 | 调整虚拟物件位置及姿态角的方法及装置 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106327291A (zh) * | 2016-08-10 | 2017-01-11 | 深圳市豆娱科技有限公司 | 一种基于虚拟现实商城的导购交互系统及其应用方法 |
CN107066094A (zh) * | 2017-03-22 | 2017-08-18 | 深圳市魔眼科技有限公司 | 一种场景融合显示方法及显示装置 |
CN107066094B (zh) * | 2017-03-22 | 2020-07-14 | 深圳市魔眼科技有限公司 | 一种场景融合显示方法及显示装置 |
CN107168532A (zh) * | 2017-05-05 | 2017-09-15 | 武汉秀宝软件有限公司 | 一种基于增强现实的虚拟同步显示方法及系统 |
CN107168532B (zh) * | 2017-05-05 | 2020-09-11 | 武汉秀宝软件有限公司 | 一种基于增强现实的虚拟同步显示方法及系统 |
CN109559370A (zh) * | 2017-09-26 | 2019-04-02 | 华为技术有限公司 | 一种三维建模方法及装置 |
CN113906370A (zh) * | 2019-05-29 | 2022-01-07 | 苹果公司 | 为物理元素生成内容 |
Also Published As
Publication number | Publication date |
---|---|
CN105824417B (zh) | 2019-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105608746B (zh) | 一种将现实进行虚拟实现的方法 | |
CN105807931B (zh) | 一种虚拟现实的实现方法 | |
CN105824416A (zh) | 一种将虚拟现实技术与云服务技术结合的方法 | |
CN105797378A (zh) | 一种基于虚拟现实技术的游戏视频实现方法 | |
CN104699247B (zh) | 一种基于机器视觉的虚拟现实交互系统及方法 | |
KR101229283B1 (ko) | 가상 3차원 객체들의 시각화를 위한 방법 및 시스템 | |
CN105824417A (zh) | 一种采用虚拟现实技术的人与物的结合方法 | |
EP2579128B1 (en) | Portable device, virtual reality system and method | |
CN105094335B (zh) | 场景提取方法、物体定位方法及其系统 | |
WO2015180497A1 (zh) | 一种基于立体视觉的动作采集和反馈方法及系统 | |
US20150070274A1 (en) | Methods and systems for determining 6dof location and orientation of head-mounted display and associated user movements | |
CN103810353A (zh) | 一种虚拟现实中的现实场景映射系统和方法 | |
CN104781849A (zh) | 单眼视觉同时定位与建图(slam)的快速初始化 | |
CN109671118A (zh) | 一种虚拟现实多人交互方法、装置及系统 | |
CN105027030A (zh) | 用于三维成像、映射、建网和界面连接的无线腕式计算和控制设备和方法 | |
CN106484115A (zh) | 用于增强和虚拟现实的系统和方法 | |
JP7316282B2 (ja) | 拡張現実のためのシステムおよび方法 | |
CN106548675A (zh) | 虚拟军事训练方法及装置 | |
US20220277525A1 (en) | User-exhibit distance based collaborative interaction method and system for augmented reality museum | |
CN109445598B (zh) | 一种基于视觉的增强现实系统装置 | |
CN105797379A (zh) | 一种基于虚拟现实技术的游戏视频处理方法 | |
Singla | Virtual reality based novel use case in remote sensing and GIS | |
US11847792B2 (en) | Location determination and mapping with 3D line junctions | |
Wright et al. | Leap motion performance in an augmented reality workspace: Integrating devices with an interactive platform | |
CN109840943B (zh) | 三维可视化分析方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20220803 Address after: 450000 floor 18, block B, national intellectual property creative industry pilot park, No. 60, Guoji Road, Jinshui District, Zhengzhou City, Henan Province Patentee after: Henan network radio and television station Co.,Ltd. Address before: 610000 No. 6, D District, Tianfu Software Park, 599 Century City South Road, Chengdu High-tech Zone, Sichuan, China. Patentee before: CHENGDU CHAINSAW INTERACTIVE TECHNOLOGY Co.,Ltd. |