CN105608746B - 一种将现实进行虚拟实现的方法 - Google Patents
一种将现实进行虚拟实现的方法 Download PDFInfo
- Publication number
- CN105608746B CN105608746B CN201610150130.2A CN201610150130A CN105608746B CN 105608746 B CN105608746 B CN 105608746B CN 201610150130 A CN201610150130 A CN 201610150130A CN 105608746 B CN105608746 B CN 105608746B
- Authority
- CN
- China
- Prior art keywords
- reality
- virtual
- scene
- reference point
- rssi
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
Landscapes
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种将现实进行虚拟实现的方法,它包括场景映射步骤、定位步骤和运动方式映射步骤。本发明将虚拟实现的世界与真实世界进行关联,通过定位在虚拟实现的世界的小地图进行实时显示,同时用户可以实时观察到自己的行为动作;具体地,采用小地图的方式将真实世界的建筑进行三维视图的展示,并且与定位相关联,形象直观;采用应用现实场景传感技术以及相应的运算处理技术理解分析现实环境,将现实环境中的一些特征映射到展现给用户的虚拟场景中,从而提高了用户体验;并且,其中的定位方式实现移动目标(人、设备)的定位和三维位置显示,为虚拟现实终端的基于位置服务应用提供坐标估计,具备较高的精度和较低的延时(延时可以通过扫描周期来间接设置)。
Description
技术领域
本发明涉及一种将现实进行虚拟实现的方法。
背景技术
虚拟现实技术是一种可以创建和体验虚拟世界的计算机仿真系统它利用计算机生成一种模拟环境是一种多源信息融合的交互式的三维动态视景和实体行为的系统仿真使用户沉浸到该环境中。同时,虚拟现实是利用电脑模拟产生一个三维空间的虚拟世界,提供使用者关于视觉、听觉、触觉等感官的模拟,让使用者如同身历其境一般,可以及时、没有限制地观察三度空间内的事物。虚拟现实是多种技术的综合,包括实时三维计算机图形技术,广角(宽视野)立体显示技术,对观察者头、眼和手的跟踪技术,以及触觉/ 力觉反馈、立体声、网络传输、语音输入输出技术等。
在虚拟现实技术中,当使用者进行位置移动时,电脑可以立即进行复杂的运算,将精确的3D 世界影像传回产生临场感。该技术集成了计算机图形(CG)技术、计算机仿真技术、人工智能、传感技术、显示技术、网络并行处理等技术的最新发展成果,是一种由计算机技术辅助生成的高技术模拟系统。
然而现有的虚拟现实技术无法与真正的现实世界进行关联,用户无法将虚拟现实中的世界与现实世界连接起来,因此总会产生距离感。
发明内容
本发明的目的在于克服现有技术的不足,提供一种将现实进行虚拟实现的方法,将虚拟现实的世界与现实中真实的世界进行关联。
本发明的目的是通过以下技术方案来实现的:一种将现实进行虚拟实现的方法,它包括场景映射步骤、定位步骤和运动方式映射步骤;所述的场景映射步骤用于将虚拟场景以及用户周围的区域在虚拟现实终端进行虚拟现实显示,包括用于将虚拟的网络元素与现实的实体对象显示于地理信息系统之中形成复合空间的第一场景映射子步骤和用于将周围场景映射为虚拟场景的第二场景映射步骤;
所述的地理信息系统包括三维电子地图,所述的第一场景映射子步骤包括以下子步骤:
S111:将所述的网络元素进行GIS化,所述的网络元素为不存在于现实中的虚拟物体;
S112:将所述的复合空间进行三维可视化;
S113:虚拟现实终端呈现三维可视化后的复合空间和虚拟物体位置;
所述的第二场景映射步骤包括以下子步骤:
S121:通过现实场景传感模块捕获用户周边环境的现实场景信息;
S122:计算处理模块从所述的现实场景信息中提取出现实场景特征,基于预先设定的映射关系,将所述的现实场景特征映射为用于构建虚拟场景的特征,并基于所述用于构建虚拟场景的特征构建虚拟现实场景信息;
S123:虚拟现实终端呈现所述虚拟现实场景信息;
所述的定位步骤包括:
S21:初始化室内参考点,载入数据库中参考点信息;
S22:设置队列和滤波器参数,采集WIFI信号数据到队列;
S23:利用采集的数据队列,计算当前位置上各个AP对应的RSSI均值;
S24:遍历所有参考点,根据步骤S23计算的RSSI均值是否在所对应AP关于某参考点的RSSI区间之内,判断该参考点是否在对应AP的判断集中;
S25:求各个AP判断集的交集:
(1)若交集中只有一个参考点,将该参考点坐标作为算法的估计输出,并结束;
(2)若交集中不止一个参考点,则计算RSSI误差向量,根据误差对交集中的参考点排序,并选择其中误差最小的k个点,以加权k近邻算法计算估计结果,并结束;
(3)若交集为空集,计算各个判断集的中心,并将这些集中心的中心作为全局中心,利用欧拉距离排除中心距全局中心最远的判断集,并对剩余的判断集作步骤S25中子步骤(1)、子步骤(2)和子步骤(3)的交集运算,直到得到估计结果,并结束;若执行到最后一层仍得不到结果,执行子步骤(4);
(4)若子步骤(3)执行到最后一层时,交集仍为空集,则利用当前RSSI均值与参考点RSSI均值间的误差距离,根据RSSI误差最小原则,利用加权k近邻算法计算估计结果;
S26:将定位信息与三维可视化后的复合空间进行映射,在复合空间中显示当前定位信息;
所述的运动方式定位步骤包括以下子步骤:
S31:在人身关节处设置多个与虚拟现实终端关联的传感组件;
S32:各个传感组件的信息实时发送至虚拟现实终端;
S33:虚拟现实终端接收到信息之后进行解析,并呈现在所述虚拟现实场景信息中。
所述的虚拟现实终端为虚拟现实头盔或者移动终端。
所述的定位步骤还包括一个离线训练步骤:
S201:离散化待定位区域,在待定位区域中均匀的取N个位置作为参考点;
S202:在每个步骤S201所述的参考点扫描WIFI 信号,记录连续一段时间内各个AP的接收信号强度指示值RSSI;
S203:处理步骤202中所得的RSSI向量,计算各个AP在该参考点的RSSI均值、方差以及最大最小区间,将这些参数连同对应AP 的标识SSID一起保存到数据库中;
S204:对所有的参考点进行S203和步骤S204操作,直到所有的参考点都训练完毕,从而建立待定位区域完整的RSSI 分布地图。
所述的三维可视化后的复合空间为建筑的三维视图。
所述的虚拟现实终端呈现三维可视化后的复合空间的视角可调整。
步骤S121中所述的捕获用户周边环境的现实场景信息为捕获用户周边环境图像的时序列帧数据;所述的计算处理模块从所述的现实场景信息中提取出现实场景特征对所述时序列帧数据进行模式识别分析,以提取出现实场景特征。
所述的现实场景传感模块包括:深度摄像传感器、深度摄像传感器与RGB 摄像传感器的结合实体、超声波定位传感模块、热成像定位传感模块和电磁定位传感模块中的一种或者多种的组合。
所述的传感组件包括三轴加速度传感器、三轴角速度传感器、三轴地磁传感器的一种或者多种。
本发明的有益效果是:
本发明将虚拟实现的世界与真实世界进行关联,通过定位在虚拟实现的世界的小地图进行实时显示,同时用户可以实时观察到自己的行为动作。
具体地,采用小地图的方式将真实世界的建筑进行三维视图的展示,并且与定位相关联,形象直观;采用应用现实场景传感技术以及相应的运算处理技术理解分析现实环境,将现实环境中的一些特征映射到展现给用户的虚拟场景中,从而提高了用户体验;并且,其中的定位方式实现移动目标(人、设备)的定位和三维位置显示,为虚拟现实终端的基于位置服务应用提供坐标估计,具备较高的精度和较低的延时(延时可以通过扫描周期来间接设置)。
附图说明
图1为本发明方法流程图。
具体实施方式
下面结合附图进一步详细描述本发明的技术方案:
如图1所示,一种将现实进行虚拟实现的方法,它包括场景映射步骤、定位步骤和运动方式映射步骤;所述的场景映射步骤用于将虚拟场景以及用户周围的区域在虚拟现实终端进行虚拟现实显示,包括用于将虚拟的网络元素与现实的实体对象显示于地理信息系统之中形成复合空间的第一场景映射子步骤和用于将周围场景映射为虚拟场景的第二场景映射步骤;
所述的地理信息系统包括三维电子地图,所述的第一场景映射子步骤包括以下子步骤:
S111:将所述的网络元素进行GIS化,所述的网络元素为不存在于现实中的虚拟物体;
S112:将所述的复合空间进行三维可视化;
S113:虚拟现实终端呈现三维可视化后的复合空间和虚拟物体位置;
所述的第二场景映射步骤包括以下子步骤:
S121:通过现实场景传感模块捕获用户周边环境的现实场景信息;
S122:计算处理模块从所述的现实场景信息中提取出现实场景特征,基于预先设定的映射关系,将所述的现实场景特征映射为用于构建虚拟场景的特征,并基于所述用于构建虚拟场景的特征构建虚拟现实场景信息;
S123:虚拟现实终端呈现所述虚拟现实场景信息;
所述的定位步骤包括:
S21:初始化室内参考点,载入数据库中参考点信息;
S22:设置队列和滤波器参数,采集WIFI信号数据到队列;
S23:利用采集的数据队列,计算当前位置上各个AP对应的RSSI均值;
S24:遍历所有参考点,根据步骤S23计算的RSSI均值是否在所对应AP关于某参考点的RSSI区间之内,判断该参考点是否在对应AP的判断集中;
S25:求各个AP判断集的交集:
(1)若交集中只有一个参考点,将该参考点坐标作为算法的估计输出,并结束;
(2)若交集中不止一个参考点,则计算RSSI误差向量,根据误差对交集中的参考点排序,并选择其中误差最小的k个点,以加权k近邻算法计算估计结果,并结束;
(3)若交集为空集,计算各个判断集的中心,并将这些集中心的中心作为全局中心,利用欧拉距离排除中心距全局中心最远的判断集,并对剩余的判断集作步骤S25中子步骤(1)、子步骤(2)和子步骤(3)的交集运算,直到得到估计结果,并结束;若执行到最后一层仍得不到结果,执行子步骤(4);
(4)若子步骤(3)执行到最后一层时,交集仍为空集,则利用当前RSSI均值与参考点RSSI均值间的误差距离,根据RSSI误差最小原则,利用加权k近邻算法计算估计结果;
S26:将定位信息与三维可视化后的复合空间进行映射,在复合空间中显示当前定位信息;
所述的运动方式定位步骤包括以下子步骤:
S31:在人身关节处设置多个与虚拟现实终端关联的传感组件;
S32:各个传感组件的信息实时发送至虚拟现实终端;
S33:虚拟现实终端接收到信息之后进行解析,并呈现在所述虚拟现实场景信息中。
所述的虚拟现实终端为虚拟现实头盔或者移动终端。
所述的定位步骤还包括一个离线训练步骤:
S201:离散化待定位区域,在待定位区域中均匀的取N个位置作为参考点;
S202:在每个步骤S201所述的参考点扫描WIFI 信号,记录连续一段时间内各个AP的接收信号强度指示值RSSI;
S203:处理步骤202中所得的RSSI向量,计算各个AP在该参考点的RSSI均值、方差以及最大最小区间,将这些参数连同对应AP 的标识SSID一起保存到数据库中;
S204:对所有的参考点进行S203和步骤S204操作,直到所有的参考点都训练完毕,从而建立待定位区域完整的RSSI 分布地图。
所述的三维可视化后的复合空间为建筑的三维视图。
所述的虚拟现实终端呈现三维可视化后的复合空间的视角可调整。
步骤S121中所述的捕获用户周边环境的现实场景信息为捕获用户周边环境图像的时序列帧数据;所述的计算处理模块从所述的现实场景信息中提取出现实场景特征对所述时序列帧数据进行模式识别分析,以提取出现实场景特征。
所述的现实场景传感模块包括:深度摄像传感器、深度摄像传感器与RGB 摄像传感器的结合实体、超声波定位传感模块、热成像定位传感模块和电磁定位传感模块中的一种或者多种的组合。
所述的传感组件包括三轴加速度传感器、三轴角速度传感器、三轴地磁传感器的一种或者多种。
本实施例为应用于商场活动,某商场举行活动,需要使用到虚拟现实,用户需要通过本发明的方法寻找到特定位置的特定物件。比如,寻找虚拟NPC等。
首先,用户获取第一场景映射,即整个商场的形状以及楼层以及虚拟NPC的特定位置。
S111:将网络元素进行GIS化,所述的网络元素为不存在于现实中的虚拟物体,在本实施例中的网络元素即为虚拟NPC;
S112:将所述的复合空间进行三维可视化,即获取整个商场的形状以及楼层,也可以包括商场外部的部分地形;
S113:虚拟现实终端呈现三维可视化后的整个商场的形状以及楼层和虚拟NPC在商场中的某个位置,在本实施例中通过小地图的方式实现(即在虚拟现实终端中占据的画面为一个角落)。
所述的虚拟现实终端呈现三维可视化后的复合空间的视角可调整。
接着,用户获取第二场景映射,即获取周围环境的虚拟现实信息。
S121:通过现实场景传感模块捕获用户周边环境的现实场景信息;
S122:计算处理模块从所述的现实场景信息中提取出现实场景特征,基于预先设定的映射关系,将所述的现实场景特征映射为用于构建虚拟场景的特征,并基于所述用于构建虚拟场景的特征构建虚拟现实场景信息;
S123:虚拟现实终端呈现所述虚拟现实场景信息,在本实施例中,通过虚拟动画的形式进行实现并占据整个画面除小地图部分外的所有画面。
其中,步骤S121中所述的捕获用户周边环境的现实场景信息为捕获用户周边环境图像的时序列帧数据;所述的计算处理模块从所述的现实场景信息中提取出现实场景特征对所述时序列帧数据进行模式识别分析,以提取出现实场景特征。
然后,用户对自己进行定位。
所述的定位步骤包括:
S21:初始化室内参考点,载入数据库中参考点信息;
S22:设置队列和滤波器参数,采集WIFI信号数据到队列;
S23:利用采集的数据队列,计算当前位置上各个AP对应的RSSI均值;
S24:遍历所有参考点,根据步骤S23计算的RSSI均值是否在所对应AP关于某参考点的RSSI区间之内,判断该参考点是否在对应AP的判断集中;
S25:求各个AP判断集的交集:
(1)若交集中只有一个参考点,将该参考点坐标作为算法的估计输出,并结束;
(2)若交集中不止一个参考点,则计算RSSI误差向量,根据误差对交集中的参考点排序,并选择其中误差最小的k个点,以加权k近邻算法计算估计结果,并结束;
(3)若交集为空集,计算各个判断集的中心,并将这些集中心的中心作为全局中心,利用欧拉距离排除中心距全局中心最远的判断集,并对剩余的判断集作步骤S25中子步骤(1)、子步骤(2)和子步骤(3)的交集运算,直到得到估计结果,并结束;若执行到最后一层仍得不到结果,执行子步骤(4);
(4)若子步骤(3)执行到最后一层时,交集仍为空集,则利用当前RSSI均值与参考点RSSI均值间的误差距离,根据RSSI误差最小原则,利用加权k近邻算法计算估计结果;
S26:将定位信息与三维可视化后的复合空间进行映射,在复合空间中显示当前定位信息。即用户将自己定位位置在小地图中进行实时显示。
其中,所述的数据库需要一个离线训练步骤:
S201:离散化待定位区域,在待定位区域中均匀的取N个位置作为参考点;
S202:在每个步骤S201所述的参考点扫描WIFI 信号,记录连续一段时间内各个AP的接收信号强度指示值RSSI;
S203:处理步骤202中所得的RSSI向量,计算各个AP在该参考点的RSSI均值、方差以及最大最小区间,将这些参数连同对应AP 的标识SSID一起保存到数据库中;
S204:对所有的参考点进行S203和步骤S204操作,直到所有的参考点都训练完毕,从而建立待定位区域完整的RSSI 分布地图。
最后,需要实时将自己的运动方式在复合空间中体现:
S31:在人身关节处设置多个与虚拟现实终端关联的传感组件;
S32:各个传感组件的信息实时发送至虚拟现实终端;
S33:虚拟现实终端接收到信息之后进行解析,并呈现在所述虚拟现实场景信息中。
所述的传感组件包括三轴加速度传感器、三轴角速度传感器、三轴地磁传感器的一种或者多种。
此时用户的动作可以在虚拟现实场景信息中进行体现。
当上述都完成之后,用户可以开始进行向虚拟NPC处移动。
在本实施例中,所述的虚拟现实终端为虚拟现实头盔或者移动终端。具体选择根据商家的成本进行考量。
如果采用虚拟现实头盔,需要采购专用的设备,但是效果更佳。用户可戴上虚拟现实头盔进行虚拟NPC寻找。并且此种方法适用于人员较少的情况下。
如果是采用移动终端,比如手机或者平板电脑,则需要安装相应的软件,方便快捷但是效果相对于采用虚拟现实头盔的方法来说较差。此种方法适用于人员较多的情况下。
Claims (8)
1.一种将现实进行虚拟实现的方法,其特征在于:它包括场景映射步骤、定位步骤和运动方式映射步骤;所述的场景映射步骤用于将虚拟场景以及用户周围的区域在虚拟现实终端进行虚拟现实显示,包括用于将虚拟的网络元素与现实的实体对象显示于地理信息系统之中形成复合空间的第一场景映射子步骤和用于将周围场景映射为虚拟场景的第二场景映射步骤;
所述的地理信息系统包括三维电子地图,所述的第一场景映射子步骤包括以下子步骤:
S111:将所述的网络元素进行GIS化,所述的网络元素为不存在于现实中的虚拟物体;
S112:将所述的复合空间进行三维可视化;
S113:虚拟现实终端呈现三维可视化后的复合空间和虚拟物体位置;
所述的第二场景映射步骤包括以下子步骤:
S121:通过现实场景传感模块捕获用户周边环境的现实场景信息;
S122:计算处理模块从所述的现实场景信息中提取出现实场景特征,基于预先设定的映射关系,将所述的现实场景特征映射为用于构建虚拟场景的特征,并基于所述用于构建虚拟场景的特征构建虚拟现实场景信息;
S123:虚拟现实终端呈现所述虚拟现实场景信息;
所述的定位步骤包括:
S21:初始化室内参考点,载入数据库中参考点信息;
S22:设置队列和滤波器参数,采集WIFI信号数据到队列;
S23:利用采集的数据队列,计算当前位置上各个AP对应的RSSI均值;
S24:遍历所有参考点,根据步骤S23计算的RSSI均值是否在所对应AP关于某参考点的RSSI区间之内,判断该参考点是否在对应AP的判断集中;
S25:求各个AP判断集的交集:
(1)若交集中只有一个参考点,将该参考点坐标作为算法的估计输出,并结束;
(2)若交集中不止一个参考点,则计算RSSI误差向量,根据误差对交集中的参考点排序,并选择其中误差最小的k个点,以加权k近邻算法计算估计结果,并结束;
(3)若交集为空集,计算各个判断集的中心,并将这些集中心的中心作为全局中心,利用欧拉距离排除中心距全局中心最远的判断集,并对剩余的判断集作步骤S25中子步骤(1)、子步骤(2)和子步骤(3)的交集运算,直到得到估计结果,并结束;若执行到最后一层仍得不到结果,执行子步骤(4);
(4)若子步骤(3)执行到最后一层时,交集仍为空集,则利用当前RSSI均值与参考点RSSI均值间的误差距离,根据RSSI误差最小原则,利用加权k近邻算法计算估计结果;
S26:将定位信息与三维可视化后的复合空间进行映射,在复合空间中显示当前定位信息;
所述的运动方式定位步骤包括以下子步骤:
S31:在人身关节处设置多个与虚拟现实终端关联的传感组件;
S32:各个传感组件的信息实时发送至虚拟现实终端;
S33:虚拟现实终端接收到信息之后进行解析,并呈现在所述虚拟现实场景信息中。
2.根据权利要求1所述的一种将现实进行虚拟实现的方法,其特征在于:所述的虚拟现实终端为虚拟现实头盔或者移动终端。
3.根据权利要求1所述的一种将现实进行虚拟实现的方法,其特征在于:所述的定位步骤还包括一个离线训练步骤:
S201:离散化待定位区域,在待定位区域中均匀的取N个位置作为参考点;
S202:在每个步骤S201所述的参考点扫描WIFI 信号,记录连续一段时间内各个AP 的接收信号强度指示值RSSI;
S203:处理步骤S 202中所得的RSSI向量,计算各个AP在该参考点的RSSI均值、方差以及最大最小区间,将这些参数连同对应AP 的标识SSID一起保存到数据库中;
S204:对所有的参考点进行S203和步骤S204操作,直到所有的参考点都训练完毕,从而建立待定位区域完整的RSSI 分布地图。
4.根据权利要求1所述的一种将现实进行虚拟实现的方法,其特征在于:所述的三维可视化后的复合空间为建筑的三维视图。
5.根据权利要求1所述的一种将现实进行虚拟实现的方法,其特征在于:所述的虚拟现实终端呈现三维可视化后的复合空间的视角可调整。
6.根据权利要求1所述的一种将现实进行虚拟实现的方法,其特征在于:步骤S121中所述的捕获用户周边环境的现实场景信息为捕获用户周边环境图像的时序列帧数据;所述的计算处理模块从所述的现实场景信息中提取出现实场景特征对所述时序列帧数据进行模式识别分析,以提取出现实场景特征。
7.根据权利要求1所述的一种将现实进行虚拟实现的方法,其特征在于:所述的现实场景传感模块包括:深度摄像传感器、深度摄像传感器与RGB 摄像传感器的结合实体、超声波定位传感模块、热成像定位传感模块和电磁定位传感模块中的一种或者多种的组合。
8.根据权利要求1所述的一种将现实进行虚拟实现的方法,其特征在于:所述的传感组件包括三轴加速度传感器、三轴角速度传感器、三轴地磁传感器的一种或者多种。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610150130.2A CN105608746B (zh) | 2016-03-16 | 2016-03-16 | 一种将现实进行虚拟实现的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610150130.2A CN105608746B (zh) | 2016-03-16 | 2016-03-16 | 一种将现实进行虚拟实现的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105608746A CN105608746A (zh) | 2016-05-25 |
CN105608746B true CN105608746B (zh) | 2019-10-11 |
Family
ID=55988657
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610150130.2A Active CN105608746B (zh) | 2016-03-16 | 2016-03-16 | 一种将现实进行虚拟实现的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105608746B (zh) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106406513B (zh) * | 2016-06-29 | 2024-01-19 | 车广为 | 三维数据积木 |
CN106447786A (zh) * | 2016-09-14 | 2017-02-22 | 同济大学 | 一种基于虚拟现实技术的平行空间创建及共享系统 |
CN106598229B (zh) * | 2016-11-11 | 2020-02-18 | 歌尔科技有限公司 | 一种虚拟现实场景的生成方法、设备及虚拟现实系统 |
CN106815678A (zh) * | 2016-12-16 | 2017-06-09 | 武汉微诚科技股份有限公司 | 基于增强现实和虚拟现实技术的资产管控方法及系统 |
CN106657060A (zh) * | 2016-12-21 | 2017-05-10 | 惠州Tcl移动通信有限公司 | 一种基于现实场景的vr通讯方法及系统 |
CN107180372A (zh) * | 2017-04-11 | 2017-09-19 | 歌尔科技有限公司 | 远程购物方法、设备及系统 |
DK201870350A1 (en) | 2018-05-07 | 2019-12-05 | Apple Inc. | Devices and Methods for Measuring Using Augmented Reality |
CN109974581B (zh) * | 2018-05-07 | 2021-07-13 | 苹果公司 | 使用增强现实进行测量的设备和方法 |
CN110826375B (zh) * | 2018-08-10 | 2022-08-12 | 广东虚拟现实科技有限公司 | 显示方法、装置、终端设备及存储介质 |
US10785413B2 (en) | 2018-09-29 | 2020-09-22 | Apple Inc. | Devices, methods, and graphical user interfaces for depth-based annotation |
CN111274910B (zh) * | 2020-01-16 | 2024-01-30 | 腾讯科技(深圳)有限公司 | 场景互动方法、装置及电子设备 |
US11080879B1 (en) | 2020-02-03 | 2021-08-03 | Apple Inc. | Systems, methods, and graphical user interfaces for annotating, measuring, and modeling environments |
US11727650B2 (en) | 2020-03-17 | 2023-08-15 | Apple Inc. | Systems, methods, and graphical user interfaces for displaying and manipulating virtual objects in augmented reality environments |
US11615595B2 (en) | 2020-09-24 | 2023-03-28 | Apple Inc. | Systems, methods, and graphical user interfaces for sharing augmented reality environments |
CN112948515B (zh) * | 2021-02-07 | 2023-02-03 | 张帆 | 基于定位技术的轨迹映射方法、装置、设备及存储介质 |
US11941764B2 (en) | 2021-04-18 | 2024-03-26 | Apple Inc. | Systems, methods, and graphical user interfaces for adding effects in augmented reality environments |
CN116597119A (zh) * | 2022-12-30 | 2023-08-15 | 北京津发科技股份有限公司 | 可穿戴扩展现实设备的人机交互采集方法、装置和系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103384358A (zh) * | 2013-06-25 | 2013-11-06 | 云南大学 | 一种基于虚拟现实和wifi空间场强的室内定位方法 |
CN103810353A (zh) * | 2014-03-09 | 2014-05-21 | 杨智 | 一种虚拟现实中的现实场景映射系统和方法 |
CN103823818A (zh) * | 2012-11-19 | 2014-05-28 | 大连鑫奇辉科技有限公司 | 一种基于虚拟现实的图书系统 |
CN104063466A (zh) * | 2014-06-27 | 2014-09-24 | 深圳先进技术研究院 | 虚拟-现实一体化的三维显示方法及系统 |
-
2016
- 2016-03-16 CN CN201610150130.2A patent/CN105608746B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103823818A (zh) * | 2012-11-19 | 2014-05-28 | 大连鑫奇辉科技有限公司 | 一种基于虚拟现实的图书系统 |
CN103384358A (zh) * | 2013-06-25 | 2013-11-06 | 云南大学 | 一种基于虚拟现实和wifi空间场强的室内定位方法 |
CN103810353A (zh) * | 2014-03-09 | 2014-05-21 | 杨智 | 一种虚拟现实中的现实场景映射系统和方法 |
CN104063466A (zh) * | 2014-06-27 | 2014-09-24 | 深圳先进技术研究院 | 虚拟-现实一体化的三维显示方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN105608746A (zh) | 2016-05-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105608746B (zh) | 一种将现实进行虚拟实现的方法 | |
CN105807931B (zh) | 一种虚拟现实的实现方法 | |
CN105824416B (zh) | 一种将虚拟现实技术与云服务技术结合的方法 | |
AU2023200677B2 (en) | System and method for augmented and virtual reality | |
US11262841B2 (en) | Wireless wrist computing and control device and method for 3D imaging, mapping, networking and interfacing | |
CN104699247B (zh) | 一种基于机器视觉的虚拟现实交互系统及方法 | |
CN105824417B (zh) | 一种采用虚拟现实技术的人与物的结合方法 | |
JP5934368B2 (ja) | 可搬装置、仮想現実システムおよび方法 | |
CN105797378A (zh) | 一种基于虚拟现实技术的游戏视频实现方法 | |
WO2015180497A1 (zh) | 一种基于立体视觉的动作采集和反馈方法及系统 | |
CN107016704A (zh) | 一种基于增强现实的虚拟现实实现方法 | |
CN109671118A (zh) | 一种虚拟现实多人交互方法、装置及系统 | |
CN103810353A (zh) | 一种虚拟现实中的现实场景映射系统和方法 | |
CN106484115A (zh) | 用于增强和虚拟现实的系统和方法 | |
CN109358754B (zh) | 一种混合现实头戴显示系统 | |
JP2023126474A (ja) | 拡張現実のためのシステムおよび方法 | |
CN109445596A (zh) | 一种一体式混合现实头戴显示系统 | |
CN105797379A (zh) | 一种基于虚拟现实技术的游戏视频处理方法 | |
JP2019512173A (ja) | マルチメディア情報を表示する方法及び装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20220801 Address after: 450000 floor 18, block B, national intellectual property creative industry pilot park, No. 60, Guoji Road, Jinshui District, Zhengzhou City, Henan Province Patentee after: Henan network radio and television station Co.,Ltd. Address before: 610000 No. 6, D District, Tianfu Software Park, 599 Century City South Road, Chengdu High-tech Zone, Sichuan, China. Patentee before: CHENGDU CHAINSAW INTERACTIVE TECHNOLOGY Co.,Ltd. |
|
TR01 | Transfer of patent right |