CN114627270B - 一种基于ar/vr技术的虚拟空间共享方法及系统 - Google Patents

一种基于ar/vr技术的虚拟空间共享方法及系统 Download PDF

Info

Publication number
CN114627270B
CN114627270B CN202210260793.5A CN202210260793A CN114627270B CN 114627270 B CN114627270 B CN 114627270B CN 202210260793 A CN202210260793 A CN 202210260793A CN 114627270 B CN114627270 B CN 114627270B
Authority
CN
China
Prior art keywords
virtual space
control device
user control
target virtual
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210260793.5A
Other languages
English (en)
Other versions
CN114627270A (zh
Inventor
朱文臻
李文广
薛齐勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Blaz Information Technology Co ltd
Original Assignee
Shenzhen Blaz Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Blaz Information Technology Co ltd filed Critical Shenzhen Blaz Information Technology Co ltd
Priority to CN202210260793.5A priority Critical patent/CN114627270B/zh
Publication of CN114627270A publication Critical patent/CN114627270A/zh
Application granted granted Critical
Publication of CN114627270B publication Critical patent/CN114627270B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K17/00Methods or arrangements for effecting co-operative working between equipments covered by two or more of main groups G06K1/00 - G06K15/00, e.g. automatic card files incorporating conveying and reading operations
    • G06K17/0022Methods or arrangements for effecting co-operative working between equipments covered by two or more of main groups G06K1/00 - G06K15/00, e.g. automatic card files incorporating conveying and reading operations arrangements or provisious for transferring data to distant stations, e.g. from a sensing device
    • G06K17/0025Methods or arrangements for effecting co-operative working between equipments covered by two or more of main groups G06K1/00 - G06K15/00, e.g. automatic card files incorporating conveying and reading operations arrangements or provisious for transferring data to distant stations, e.g. from a sensing device the arrangement consisting of a wireless interrogation device in combination with a device for optically marking the record carrier
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Architecture (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开一种基于AR/VR技术的虚拟空间共享方法及系统,本发明通过获取各用户操控设备对应目标虚拟空间内通用定位图中各特征点的空间坐标和向量,分析各用户操控设备对应目标虚拟空间内通用定位图中各特征点的坐标偏移距离和各特征点向量与对应虚拟空间坐标轴的偏转夹角,并根据各用户操控设备对应目标虚拟空间内虚拟物品的重心偏移距离和方向偏转角度,对各用户操控设备对应目标虚拟空间进行虚拟物品还原处理和虚拟空间坐标系校准,从而有效解决不同操控设备具有不同参考坐标系的问题,使得多个用户彼此能够实时交流互动,在极大程度上增加用户对虚拟空间的共享体验,提高用户的虚拟空间体验感和代入感。

Description

一种基于AR/VR技术的虚拟空间共享方法及系统
技术领域
本发明涉及虚拟空间共享技术领域,涉及到一种基于AR/VR技术的虚拟空间共享方法及系统。
背景技术
AR/VR技术是一种将真实世界信息和虚拟世界信息“无缝”集成的技术,是把原本在现实世界的一定时间空间范围内很难体验到的实体信息,通过计算机技术,将真实环境和虚拟物体实时地叠加到同一个空间中,被人类感官所感知的过程,以达到超越现实感官体验的目的。
目前,现有的AR/VR设备不具备空间锚点保存的能力,即设备运行程序后在现实空间摆放的虚拟物品,无法在下一次打开程序时,在同样空间内显示上次摆放的虚拟物品,且无法将此虚拟空间与他人共享,因此现有技术存在虚拟空间功能单一的问题,从而导致虚拟空间缺乏多样性和趣味性,同时无法实现多个用户之间的虚拟空间共享,导致多个用户彼此不能实时交流互动,进而导致用户对虚拟空间的共享体验不佳,降低用户的虚拟空间体验感和代入感,进一步使得用户对虚拟空间的黏度受到影响。
为了解决以上问题,现设计一种基于AR/VR技术的虚拟空间共享方法及系统。
发明内容
本发明的目的在于提供一种基于AR/VR技术的虚拟空间共享方法及系统,解决了背景技术中存在的问题。
本发明解决其技术问题采用的技术方案是:
第一方面,本发明提供一种基于AR/VR技术的虚拟空间共享方法,包括以下步骤:
S1、目标虚拟空间数字编号:将虚拟空间云平台中目标虚拟空间进行数字编号,并构成目标虚拟空间的二维码标识;
S2、目标虚拟空间虚拟数据获得:通过各用户操控对应设备登录虚拟空间云平台,扫描虚拟空间云平台中目标虚拟空间的二维码标识,并依次下载获得目标虚拟空间的虚拟数据;
S3、定位图特征点坐标获取分析:获取各用户操控设备对应目标虚拟空间内通用定位图中各特征点的空间坐标,分析各用户操控设备对应目标虚拟空间内通用定位图中各特征点的坐标偏移距离;
S4、定位图特征点向量夹角获取:获取各用户操控设备对应目标虚拟空间内通用定位图中各特征点的向量,分析各用户操控设备对应目标虚拟空间内通用定位图中各特征点向量与对应虚拟空间坐标轴的夹角;
S5、定位图特征点向量夹角分析:根据目标虚拟空间的虚拟数据,分析各用户操控设备对应目标虚拟空间内通用定位图中各特征点向量与对应虚拟空间坐标轴的偏转夹角;
S6、虚拟物品重心偏移距离获取:根据目标虚拟空间的虚拟数据,得到各用户操控设备对应目标虚拟空间内虚拟物品的重心偏移距离;
S7、虚拟物品还原处理:根据目标虚拟空间的虚拟数据,得到各用户操控设备对应目标虚拟空间内虚拟物品的方向偏转角度,并对各用户操控设备对应目标虚拟空间内虚拟物品进行还原处理;
S8、虚拟空间坐标系校准:根据各用户操控设备对应目标虚拟空间内通用定位图中各特征点的坐标偏移距离和各特征点向量与对应虚拟空间坐标轴的偏转夹角,对各用户操控设备对应目标虚拟空间进行虚拟空间坐标系校准。
可选地,所述步骤S2中目标虚拟空间的虚拟数据具体包括:通用定位图的预设固定位置、通用定位图中各特征点的标准坐标、通用定位图中各特征点向量的标准朝向、通用定位图的标准重心坐标、虚拟物品的标准重心坐标、虚拟物品相对于通用定位图的标准重心间距和虚拟物品相对于通用定位图的标准重心朝向。
可选地,所述步骤S3中获取各用户操控设备对应目标虚拟空间内通用定位图中各特征点的空间坐标,具体获取步骤包括:
根据目标虚拟空间的虚拟数据中通用定位图的预设固定位置,将通用定位图分别导入各用户操控设备对应的目标虚拟空间内;
识别各用户操控设备对应目标虚拟空间内通用定位图中各特征点,获取各用户操控设备对应目标虚拟空间内通用定位图中各特征点的空间坐标,将各用户操控设备对应目标虚拟空间内通用定位图中各特征点的空间坐标标记为piaj,其中i=1,2,...,n,i表示为第i个用户操控设备,j=1,2,...,m,j表示为第j个特征点,m表示为预设的通用定位图中特征点数量。
可选地,所述步骤S3中分析各用户操控设备对应目标虚拟空间内通用定位图中各特征点的坐标偏移距离,包括:
将各用户操控设备对应目标虚拟空间内通用定位图中各特征点的空间坐标piaj(xiaj,yiaj,ziaj)代入公式
Figure GDA0003885438890000041
得到各用户操控设备对应目标虚拟空间内通用定位图中各特征点与对应虚拟空间坐标系原点的间距diaj
提取目标虚拟空间的虚拟数据中通用定位图中各特征点的标准坐标,将通用定位图中各特征点的标准坐标标记为p′a′j(x′a′j,y′a′j,z′a′j),并得到通用定位图中各特征点与对应虚拟空间坐标系原点的间距d′a′j
分析各用户操控设备对应目标虚拟空间内通用定位图中各特征点的坐标偏移距离Liaj=diaj-d′aj′,其中Liaj表示为第i个用户操控设备对应目标虚拟空间内通用定位图中第j个特征点的坐标偏移距离。
可选地,所述步骤S4中获取各用户操控设备对应目标虚拟空间内通用定位图中各特征点的向量,具体获得方式为:
根据各用户操控设备对应目标虚拟空间内通用定位图中各特征点的空间坐标,获取各用户操控设备对应目标虚拟空间内通用定位图中各特征点的向量,将各用户操控设备对应目标虚拟空间内通用定位图中各特征点的向量标记为
Figure GDA0003885438890000042
分析得到各用户操控设备对应目标虚拟空间内通用定位图中各特征点向量与对应虚拟空间坐标系中x轴、y轴、z轴的夹角,并分别记为θxaij、θyaij、θzaij
可选地,所述步骤S5中对应的详细具体步骤包括:
提取目标虚拟空间的虚拟数据中通用定位图中各特征点向量的标准朝向,得到通用定位图中各特征点向量与对应虚拟空间坐标系中x轴、y轴、z轴的标准夹角,将通用定位图中各特征点向量与对应虚拟空间坐标系中x轴、y轴、z轴的标准夹角依次标记为θ′xa′j、θ′ya′j、θ′za′j
分析得到各用户操控设备对应目标虚拟空间内通用定位图中各特征点向量与对应虚拟空间坐标系中x轴、y轴、z轴的偏转夹角Δθxaij、Δθyaij、Δθzaij
可选地,所述步骤S6中得到各用户操控设备对应目标虚拟空间内虚拟物品的重心偏移距离,具体包括:
提取目标虚拟空间的虚拟数据中虚拟物品相对于通用定位图的标准重心间距,将虚拟物品相对于通用定位图的标准重心间距标记为Δh
将虚拟物品相对于通用定位图的标准重心间距和各用户操控设备对应目标虚拟空间内通用定位图中各特征点的坐标偏移距离代入公式
Figure GDA0003885438890000051
得到各用户操控设备对应目标虚拟空间内虚拟物品的重心偏移距离hi
可选地,所述步骤S7中对应的详细具体步骤包括:
提取目标虚拟空间的虚拟数据中通用定位图的标准重心坐标和虚拟物品的标准重心坐标,得到虚拟物品重心与通用定位图重心的向量,记为虚拟物品对应目标重心向量;
提取目标虚拟空间的虚拟数据中虚拟物品相对于通用定位图的标准中心朝向,获取虚拟物品对应目标重心向量与对应虚拟空间坐标系中x轴、y轴、z轴的标准夹角,将虚拟物品对应目标重心向量与对应虚拟空间坐标系中x轴、y轴、z轴的标准夹角分别标记为
Figure GDA0003885438890000061
分析得到各用户操控设备对应目标虚拟空间内虚拟物品的目标重心向量与对应虚拟空间坐标系中x轴、y轴、z轴的方向偏移角度
Figure GDA0003885438890000062
根据各用户操控设备对应目标虚拟空间内虚拟物品的重心偏移距离和目标重心向量与对应虚拟空间坐标系中x轴、y轴、z轴的方向偏移角度,分别对各用户操控设备对应目标虚拟空间内虚拟物品进行重心偏移距离和方向偏移角度还原处理。
可选地,所述步骤S8中对各用户操控设备对应目标虚拟空间进行虚拟空间坐标系校准,具体包括:
根据各用户操控设备对应目标虚拟空间内通用定位图中各特征点的坐标偏移距离,通过平均值计算公式得到各用户操控设备对应目标虚拟空间内通用定位图的平均坐标偏移距离;
根据各用户操控设备对应目标虚拟空间内通用定位图中各特征点向量与对应虚拟空间坐标轴的偏转夹角,通过平均值计算公式得到各用户操控设备对应目标虚拟空间内通用定位图与对应虚拟空间坐标轴的平均偏转夹角;
基于各用户操控设备对应目标虚拟空间内通用定位图的平均坐标偏移距离和通用定位图与对应虚拟空间坐标轴的平均偏移夹角,对各用户操控设备对应目标虚拟空间进行虚拟空间坐标系校准。
第二方面,本发明还提供一种基于AR/VR技术的虚拟空间共享系统,包括:
目标虚拟空间数字编号模块:用于将虚拟空间云平台中目标虚拟空间进行数字编号,并构成目标虚拟空间的二维码标识;
目标虚拟空间虚拟数据获得模块:用于通过各用户操控对应设备登录虚拟空间云平台,扫描虚拟空间云平台中目标虚拟空间的二维码标识,并依次下载获得目标虚拟空间的虚拟数据;
定位图特征点坐标获取分析模块:用于获取各用户操控设备对应目标虚拟空间内通用定位图中各特征点的空间坐标,分析各用户操控设备对应目标虚拟空间内通用定位图中各特征点的坐标偏移距离;
定位图特征点向量夹角获取模块:用于获取各用户操控设备对应目标虚拟空间内通用定位图中各特征点的向量,分析各用户操控设备对应目标虚拟空间内通用定位图中各特征点向量与对应虚拟空间坐标轴的夹角;
定位图特征点向量夹角分析模块:用于根据目标虚拟空间的虚拟数据,分析各用户操控设备对应目标虚拟空间内通用定位图中各特征点向量与对应虚拟空间坐标轴的偏转夹角;
虚拟物品重心偏移距离获取模块:用于根据目标虚拟空间的虚拟数据,得到各用户操控设备对应目标虚拟空间内虚拟物品的重心偏移距离;
虚拟物品还原处理模块:用于根据目标虚拟空间的虚拟数据,得到各用户操控设备对应目标虚拟空间内虚拟物品的方向偏转角度,并对各用户操控设备对应目标虚拟空间内虚拟物品进行还原处理;
虚拟空间坐标系校准模块:用于根据各用户操控设备对应目标虚拟空间内通用定位图中各特征点的坐标偏移距离和各特征点向量与对应虚拟空间坐标轴的偏转夹角,对各用户操控设备对应目标虚拟空间进行虚拟空间坐标系校准。
相对于现有技术,本发明具有以下有益效果:
本发明提供的一种基于AR/VR技术的虚拟空间共享方法及系统,通过各用户操控对应设备扫描目标虚拟空间的二维码标识,并下载获得目标虚拟空间的虚拟数据,同时获取各用户操控设备对应目标虚拟空间内通用定位图中各特征点的空间坐标和向量,分析各用户操控设备对应目标虚拟空间内通用定位图中各特征点的坐标偏移距离和各特征点向量与对应虚拟空间坐标轴的偏转夹角,并对各用户操控设备对应目标虚拟空间进行虚拟空间坐标系校准,从而有效解决不同操控设备具有不同参考坐标系的问题,确保多个用户在共享虚拟空间内虚拟空间坐标系能够统一,进而解决现有技术存在虚拟空间功能性单一的问题,增加虚拟空间的多样性和趣味性,在极大程度上为虚拟空间的良好发展提供奠基石。
本发明提供的一种基于AR/VR技术的虚拟空间共享方法及系统,通过目标虚拟空间的虚拟数据,分析各用户操控设备对应目标虚拟空间内虚拟物品的重心偏移距离和方向偏转角度,并对各用户操控设备对应目标虚拟空间内虚拟物品进行还原处理,从而实现后期多个用户之间的虚拟空间共享,保证共享虚拟空间的统一性,进一步使得多个用户彼此能够实时交流互动,在极大程度上增加用户对虚拟空间的共享体验,提高用户的虚拟空间体验感和代入感,进而满足用户对共享虚拟空间的体验需求,提高用户对虚拟空间的黏度。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的方法流程示意图;
图2为本发明的系统模块连接图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
请参阅图1所示,本发明的第一方面提供一种基于AR/VR技术的虚拟空间共享方法,包括如下步骤:
S1、目标虚拟空间数字编号:将虚拟空间云平台中目标虚拟空间进行数字编号,并构成目标虚拟空间的二维码标识。
在本实施例中,所述步骤S1中将虚拟空间云平台中待共享的虚拟空间记为虚拟空间云平台中目标虚拟空间,对目标虚拟空间进行数字编号,并采用二维码转换技术将目标虚拟空间的数字编号转换成二维码,构成目标虚拟空间的二维码标识。
S2、目标虚拟空间虚拟数据获得:通过各用户操控对应设备登录虚拟空间云平台,扫描虚拟空间云平台中目标虚拟空间的二维码标识,并依次下载获得目标虚拟空间的虚拟数据。
在本实施例中,所述步骤S2中目标虚拟空间的虚拟数据具体包括:通用定位图的预设固定位置、通用定位图中各特征点的标准坐标、通用定位图中各特征点向量的标准朝向、通用定位图的标准重心坐标、虚拟物品的标准重心坐标、虚拟物品相对于通用定位图的标准重心间距和虚拟物品相对于通用定位图的标准重心朝向。
S3、定位图特征点坐标获取分析:获取各用户操控设备对应目标虚拟空间内通用定位图中各特征点的空间坐标,分析各用户操控设备对应目标虚拟空间内通用定位图中各特征点的坐标偏移距离。
在本实施例中,所述步骤S3中获取各用户操控设备对应目标虚拟空间内通用定位图中各特征点的空间坐标,具体获取步骤包括:
根据目标虚拟空间的虚拟数据中通用定位图的预设固定位置,将通用定位图分别导入各用户操控设备对应的目标虚拟空间内;
识别各用户操控设备对应目标虚拟空间内通用定位图中各特征点,获取各用户操控设备对应目标虚拟空间内通用定位图中各特征点的空间坐标,将各用户操控设备对应目标虚拟空间内通用定位图中各特征点的空间坐标标记为piaj,其中i=1,2,...,n,i表示为第i个用户操控设备,j=1,2,...,m,j表示为第j个特征点,m表示为预设的通用定位图中特征点数量。
在本实施例中,所述步骤S3中分析各用户操控设备对应目标虚拟空间内通用定位图中各特征点的坐标偏移距离,包括:
将各用户操控设备对应目标虚拟空间内通用定位图中各特征点的空间坐标piaj(xiaj,yiaj,ziaj)代入公式
Figure GDA0003885438890000111
得到各用户操控设备对应目标虚拟空间内通用定位图中各特征点与对应虚拟空间坐标系原点的间距diaj
提取目标虚拟空间的虚拟数据中通用定位图中各特征点的标准坐标,将通用定位图中各特征点的标准坐标标记为p′a′j(x′a′j,y′a′j,z′a′j),并得到通用定位图中各特征点与对应虚拟空间坐标系原点的间距d′a′j
分析各用户操控设备对应目标虚拟空间内通用定位图中各特征点的坐标偏移距离Liaj=diaj-d′aj′,其中Liaj表示为第i个用户操控设备对应目标虚拟空间内通用定位图中第j个特征点的坐标偏移距离。
S4、定位图特征点向量夹角获取:获取各用户操控设备对应目标虚拟空间内通用定位图中各特征点的向量,分析各用户操控设备对应目标虚拟空间内通用定位图中各特征点向量与对应虚拟空间坐标轴的夹角。
在本实施例中,所述步骤S4中获取各用户操控设备对应目标虚拟空间内通用定位图中各特征点的向量,具体获得方式为:
根据各用户操控设备对应目标虚拟空间内通用定位图中各特征点的空间坐标,获取各用户操控设备对应目标虚拟空间内通用定位图中各特征点的向量,将各用户操控设备对应目标虚拟空间内通用定位图中各特征点的向量标记为
Figure GDA0003885438890000121
分析得到各用户操控设备对应目标虚拟空间内通用定位图中各特征点向量与对应虚拟空间坐标系中x轴、y轴、z轴的夹角,并分别记为θxaij、θyaij、θzaij
在一种可能的设计中,上述中各用户操控设备对应目标虚拟空间内通用定位图中各特征点的向量为各用户操控设备对应目标虚拟空间内通用定位图中各特征点与对应虚拟空间坐标系原点之间的向量。
进一步地,所述各用户操控设备对应目标虚拟空间内通用定位图中各特征点向量与对应虚拟空间坐标系中x轴的夹角公式方式为
Figure GDA0003885438890000122
其中
Figure GDA0003885438890000123
表示为预设的虚拟空间坐标系中x轴向量。
S5、定位图特征点向量夹角分析:根据目标虚拟空间的虚拟数据,分析各用户操控设备对应目标虚拟空间内通用定位图中各特征点向量与对应虚拟空间坐标轴的偏转夹角。
在本实施例中,所述步骤S5中对应的详细具体步骤包括:
提取目标虚拟空间的虚拟数据中通用定位图中各特征点向量的标准朝向,得到通用定位图中各特征点向量与对应虚拟空间坐标系中x轴、y轴、z轴的标准夹角,将通用定位图中各特征点向量与对应虚拟空间坐标系中x轴、y轴、z轴的标准夹角依次标记为θ′xa′j、θ′ya′j、θ′za′j
分析得到各用户操控设备对应目标虚拟空间内通用定位图中各特征点向量与对应虚拟空间坐标系中x轴、y轴、z轴的偏转夹角Δθxaij、Δθyaij、Δθzaij
在一种可能的设计中,上述中各用户操控设备对应目标虚拟空间内通用定位图中各特征点向量与对应虚拟空间坐标系中x轴的偏转夹角分析公式为Δθxaij=θxaij-θ′xa′j
S6、虚拟物品重心偏移距离获取:根据目标虚拟空间的虚拟数据,得到各用户操控设备对应目标虚拟空间内虚拟物品的重心偏移距离。
在本实施例中,所述步骤S6中得到各用户操控设备对应目标虚拟空间内虚拟物品的重心偏移距离,具体包括:
提取目标虚拟空间的虚拟数据中虚拟物品相对于通用定位图的标准重心间距,将虚拟物品相对于通用定位图的标准重心间距标记为Δh
将虚拟物品相对于通用定位图的标准重心间距和各用户操控设备对应目标虚拟空间内通用定位图中各特征点的坐标偏移距离代入公式
Figure GDA0003885438890000131
得到各用户操控设备对应目标虚拟空间内虚拟物品的重心偏移距离hi
S7、虚拟物品还原处理:根据目标虚拟空间的虚拟数据,得到各用户操控设备对应目标虚拟空间内虚拟物品的方向偏转角度,并对各用户操控设备对应目标虚拟空间内虚拟物品进行还原处理。
在本实施例中,所述步骤S7中对应的详细具体步骤包括:
提取目标虚拟空间的虚拟数据中通用定位图的标准重心坐标和虚拟物品的标准重心坐标,得到虚拟物品重心与通用定位图重心的向量,记为虚拟物品对应目标重心向量;
提取目标虚拟空间的虚拟数据中虚拟物品相对于通用定位图的标准中心朝向,获取虚拟物品对应目标重心向量与对应虚拟空间坐标系中x轴、y轴、z轴的标准夹角,将虚拟物品对应目标重心向量与对应虚拟空间坐标系中x轴、y轴、z轴的标准夹角分别标记为
Figure GDA0003885438890000141
分析得到各用户操控设备对应目标虚拟空间内虚拟物品的目标重心向量与对应虚拟空间坐标系中x轴、y轴、z轴的方向偏移角度
Figure GDA0003885438890000142
根据各用户操控设备对应目标虚拟空间内虚拟物品的重心偏移距离和目标重心向量与对应虚拟空间坐标系中x轴、y轴、z轴的方向偏移角度,分别对各用户操控设备对应目标虚拟空间内虚拟物品进行重心偏移距离和方向偏移角度还原处理。
在一种可能的设计中,上述中各用户操控设备对应目标虚拟空间内虚拟物品的目标重心向量与对应虚拟空间坐标系中x轴的方向偏移角度
Figure GDA0003885438890000143
需要说明的是,本发明通过目标虚拟空间的虚拟数据,分析各用户操控设备对应目标虚拟空间内虚拟物品的重心偏移距离和方向偏转角度,并对各用户操控设备对应目标虚拟空间内虚拟物品进行还原处理,从而实现后期多个用户之间的虚拟空间共享,保证共享虚拟空间的统一性,进一步使得多个用户彼此能够实时交流互动,在极大程度上增加用户对虚拟空间的共享体验,提高用户的虚拟空间体验感和代入感,进而满足用户对共享虚拟空间的体验需求,提高用户对虚拟空间的黏度。
S8、虚拟空间坐标系校准:根据各用户操控设备对应目标虚拟空间内通用定位图中各特征点的坐标偏移距离和各特征点向量与对应虚拟空间坐标轴的偏转夹角,对各用户操控设备对应目标虚拟空间进行虚拟空间坐标系校准。
在本实施例中,所述步骤S8中对各用户操控设备对应目标虚拟空间进行虚拟空间坐标系校准,具体包括:
根据各用户操控设备对应目标虚拟空间内通用定位图中各特征点的坐标偏移距离,通过平均值计算公式得到各用户操控设备对应目标虚拟空间内通用定位图的平均坐标偏移距离;
根据各用户操控设备对应目标虚拟空间内通用定位图中各特征点向量与对应虚拟空间坐标轴的偏转夹角,通过平均值计算公式得到各用户操控设备对应目标虚拟空间内通用定位图与对应虚拟空间坐标轴的平均偏转夹角;
基于各用户操控设备对应目标虚拟空间内通用定位图的平均坐标偏移距离和通用定位图与对应虚拟空间坐标轴的平均偏移夹角,对各用户操控设备对应目标虚拟空间进行虚拟空间坐标系校准。
进一步地,上述中当某用户操控设备对应目标虚拟空间内通用定位图的平均坐标偏移距离大于零时,则将该用户操控设备对应目标虚拟空间内虚拟空间坐标系以靠近通用定位图方向进行校准;当某用户操控设备对应目标虚拟空间内通用定位图的平均坐标偏移距离小于零时,则将该用户操控设备对应目标虚拟空间内虚拟空间坐标系以远离通用定位图方向进行校准;当某用户操控设备对应目标虚拟空间内通用定位图的平均坐标偏移距离等于零时,则不对该用户操控设备对应目标虚拟空间内虚拟空间坐标系进行校准。
进一步地,上述中当某用户操控设备对应目标虚拟空间内通用定位图与对应虚拟空间坐标系中x轴的平均偏移夹角大于零时,则将该用户操控设备对应目标虚拟空间内虚拟空间坐标系中x轴以逆时针旋转方式进行校准;当某用户操控设备对应目标虚拟空间内通用定位图与对应虚拟空间坐标系中x轴的平均偏移夹角小于零时,则将该用户操控设备对应目标虚拟空间内虚拟空间坐标系中x轴以顺时针旋转方式进行校准;当某用户操控设备对应目标虚拟空间内通用定位图与对应虚拟空间坐标系中x轴的平均偏移夹角等于零时,则不对该用户操控设备对应目标虚拟空间内虚拟空间坐标系中x轴进行校准。
需要说明的是,本发明通过各用户操控对应设备扫描目标虚拟空间的二维码标识,并下载获得目标虚拟空间的虚拟数据,同时获取各用户操控设备对应目标虚拟空间内通用定位图中各特征点的空间坐标和向量,分析各用户操控设备对应目标虚拟空间内通用定位图中各特征点的坐标偏移距离和各特征点向量与对应虚拟空间坐标轴的偏转夹角,并对各用户操控设备对应目标虚拟空间进行虚拟空间坐标系校准,从而有效解决不同操控设备具有不同参考坐标系的问题,确保多个用户在共享虚拟空间内虚拟空间坐标系能够统一,进而解决现有技术存在虚拟空间功能性单一的问题,增加虚拟空间的多样性和趣味性,在极大程度上为虚拟空间的良好发展提供奠基石。
第二方面,本发明还提供一种基于AR/VR技术的虚拟空间共享系统,包括目标虚拟空间数字编号模块、目标虚拟空间虚拟数据获得模块、定位图特征点坐标获取分析模块、定位图特征点向量夹角获取模块、定位图特征点向量夹角分析模块、虚拟物品重心偏移距离获取模块、虚拟物品还原处理模块和虚拟空间坐标系校准模块;
所述目标虚拟空间数字编号模块与目标虚拟空间虚拟数据获得模块连接,定位图特征点坐标获取分析模块分别与目标虚拟空间虚拟数据获得模块、虚拟物品重心偏移距离获取模块和虚拟空间坐标系校准模块连接,定位图特征点向量夹角获取模块分别与目标虚拟空间虚拟数据获得模块和定位图特征点向量夹角分析模块连接,定位图特征点向量夹角分析模块分别与虚拟物品还原处理模块和虚拟空间坐标系校准模块连接,虚拟物品重心偏移距离获取模块分别与目标虚拟空间虚拟数据获得模块和虚拟物品还原处理模块连接,虚拟物品还原处理模块与目标虚拟空间虚拟数据获得模块连接;
所述目标虚拟空间数字编号模块用于将虚拟空间云平台中目标虚拟空间进行数字编号,并构成目标虚拟空间的二维码标识;
所述目标虚拟空间虚拟数据获得模块用于通过各用户操控对应设备登录虚拟空间云平台,扫描虚拟空间云平台中目标虚拟空间的二维码标识,并依次下载获得目标虚拟空间的虚拟数据;
所述定位图特征点坐标获取分析模块用于获取各用户操控设备对应目标虚拟空间内通用定位图中各特征点的空间坐标,分析各用户操控设备对应目标虚拟空间内通用定位图中各特征点的坐标偏移距离;
所述定位图特征点向量夹角获取模块用于获取各用户操控设备对应目标虚拟空间内通用定位图中各特征点的向量,分析各用户操控设备对应目标虚拟空间内通用定位图中各特征点向量与对应虚拟空间坐标轴的夹角;
所述定位图特征点向量夹角分析模块用于根据目标虚拟空间的虚拟数据,分析各用户操控设备对应目标虚拟空间内通用定位图中各特征点向量与对应虚拟空间坐标轴的偏转夹角;
所述虚拟物品重心偏移距离获取模块用于根据目标虚拟空间的虚拟数据,得到各用户操控设备对应目标虚拟空间内虚拟物品的重心偏移距离;
所述虚拟物品还原处理模块用于根据目标虚拟空间的虚拟数据,得到各用户操控设备对应目标虚拟空间内虚拟物品的方向偏转角度,并对各用户操控设备对应目标虚拟空间内虚拟物品进行还原处理;
所述虚拟空间坐标系校准模块用于根据各用户操控设备对应目标虚拟空间内通用定位图中各特征点的坐标偏移距离和各特征点向量与对应虚拟空间坐标轴的偏转夹角,对各用户操控设备对应目标虚拟空间进行虚拟空间坐标系校准。
以上内容仅仅是对本发明的构思所作的举例和说明,所属本技术领域的技术人员对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,只要不偏离发明的构思或者超越本权利要求书所定义的范围,均应属于本发明的保护范围。

Claims (10)

1.一种基于AR/VR技术的虚拟空间共享方法,其特征在于,包括如下步骤:
S1、目标虚拟空间数字编号:将虚拟空间云平台中目标虚拟空间进行数字编号,并构成目标虚拟空间的二维码标识;
S2、目标虚拟空间虚拟数据获得:通过各用户操控对应设备登录虚拟空间云平台,扫描虚拟空间云平台中目标虚拟空间的二维码标识,并依次下载获得目标虚拟空间的虚拟数据;
S3、定位图特征点坐标获取分析:获取各用户操控设备对应目标虚拟空间内通用定位图中各特征点的空间坐标,分析各用户操控设备对应目标虚拟空间内通用定位图中各特征点的坐标偏移距离;
S4、定位图特征点向量夹角获取:获取各用户操控设备对应目标虚拟空间内通用定位图中各特征点的向量,分析各用户操控设备对应目标虚拟空间内通用定位图中各特征点向量与对应虚拟空间坐标轴的夹角;
S5、定位图特征点向量夹角分析:根据目标虚拟空间的虚拟数据,分析各用户操控设备对应目标虚拟空间内通用定位图中各特征点向量与对应虚拟空间坐标轴的偏转夹角;
S6、虚拟物品重心偏移距离获取:根据目标虚拟空间的虚拟数据,得到各用户操控设备对应目标虚拟空间内虚拟物品的重心偏移距离;
S7、虚拟物品还原处理:根据目标虚拟空间的虚拟数据,得到各用户操控设备对应目标虚拟空间内虚拟物品的方向偏转角度,并对各用户操控设备对应目标虚拟空间内虚拟物品进行还原处理;
S8、虚拟空间坐标系校准:根据各用户操控设备对应目标虚拟空间内通用定位图中各特征点的坐标偏移距离和各特征点向量与对应虚拟空间坐标轴的偏转夹角,对各用户操控设备对应目标虚拟空间进行虚拟空间坐标系校准。
2.根据权利要求1所述的一种基于AR/VR技术的虚拟空间共享方法,其特征在于:所述步骤S2中目标虚拟空间的虚拟数据具体包括:通用定位图的预设固定位置、通用定位图中各特征点的标准坐标、通用定位图中各特征点向量的标准朝向、通用定位图的标准重心坐标、虚拟物品的标准重心坐标、虚拟物品相对于通用定位图的标准重心间距和虚拟物品相对于通用定位图的标准重心朝向。
3.根据权利要求1所述的一种基于AR/VR技术的虚拟空间共享方法,其特征在于:所述步骤S3中获取各用户操控设备对应目标虚拟空间内通用定位图中各特征点的空间坐标,具体获取步骤包括:
根据目标虚拟空间的虚拟数据中通用定位图的预设固定位置,将通用定位图分别导入各用户操控设备对应的目标虚拟空间内;
识别各用户操控设备对应目标虚拟空间内通用定位图中各特征点,获取各用户操控设备对应目标虚拟空间内通用定位图中各特征点的空间坐标,将各用户操控设备对应目标虚拟空间内通用定位图中各特征点的空间坐标标记为piaj,其中i=1,2,...,n,i表示为第i个用户操控设备,j=1,2,...,m,j表示为第j个特征点,m表示为预设的通用定位图中特征点数量。
4.根据权利要求3所述的一种基于AR/VR技术的虚拟空间共享方法,其特征在于:所述步骤S3中分析各用户操控设备对应目标虚拟空间内通用定位图中各特征点的坐标偏移距离,包括:
将各用户操控设备对应目标虚拟空间内通用定位图中各特征点的空间坐标piaj(xiaj,yiaj,ziaj)代入公式
Figure FDA0003885438880000031
得到各用户操控设备对应目标虚拟空间内通用定位图中各特征点与对应虚拟空间坐标系原点的间距diaj
提取目标虚拟空间的虚拟数据中通用定位图中各特征点的标准坐标,将通用定位图中各特征点的标准坐标标记为p′a′j(x′a′j,y′a′j,z′a′j),并得到通用定位图中各特征点与对应虚拟空间坐标系原点的间距d′a′j
分析各用户操控设备对应目标虚拟空间内通用定位图中各特征点的坐标偏移距离Liaj=diaj-d′aj′,其中Liaj表示为第i个用户操控设备对应目标虚拟空间内通用定位图中第j个特征点的坐标偏移距离。
5.根据权利要求3所述的一种基于AR/VR技术的虚拟空间共享方法,其特征在于:所述步骤S4中获取各用户操控设备对应目标虚拟空间内通用定位图中各特征点的向量,具体获得方式为:
根据各用户操控设备对应目标虚拟空间内通用定位图中各特征点的空间坐标,获取各用户操控设备对应目标虚拟空间内通用定位图中各特征点的向量,将各用户操控设备对应目标虚拟空间内通用定位图中各特征点的向量标记为
Figure FDA0003885438880000032
分析得到各用户操控设备对应目标虚拟空间内通用定位图中各特征点向量与对应虚拟空间坐标系中x轴、y轴、z轴的夹角,并分别记为θxaij、θyaij、θzaij
6.根据权利要求3所述的一种基于AR/VR技术的虚拟空间共享方法,其特征在于:所述步骤S5中对应的详细具体步骤包括:
提取目标虚拟空间的虚拟数据中通用定位图中各特征点向量的标准朝向,得到通用定位图中各特征点向量与对应虚拟空间坐标系中x轴、y轴、z轴的标准夹角,将通用定位图中各特征点向量与对应虚拟空间坐标系中x轴、y轴、z轴的标准夹角依次标记为θx′a′j、θy′a′j、θz′a′j
分析得到各用户操控设备对应目标虚拟空间内通用定位图中各特征点向量与对应虚拟空间坐标系中x轴、y轴、z轴的偏转夹角Δθxaij、Δθyaij、Δθzaij
7.根据权利要求4所述的一种基于AR/VR技术的虚拟空间共享方法,其特征在于:所述步骤S6中得到各用户操控设备对应目标虚拟空间内虚拟物品的重心偏移距离,具体包括:
提取目标虚拟空间的虚拟数据中虚拟物品相对于通用定位图的标准重心间距,将虚拟物品相对于通用定位图的标准重心间距标记为Δh
将虚拟物品相对于通用定位图的标准重心间距和各用户操控设备对应目标虚拟空间内通用定位图中各特征点的坐标偏移距离代入公式
Figure FDA0003885438880000041
得到各用户操控设备对应目标虚拟空间内虚拟物品的重心偏移距离hi
8.根据权利要求3所述的一种基于AR/VR技术的虚拟空间共享方法,其特征在于:所述步骤S7中对应的详细具体步骤包括:
提取目标虚拟空间的虚拟数据中通用定位图的标准重心坐标和虚拟物品的标准重心坐标,得到虚拟物品重心与通用定位图重心的向量,记为虚拟物品对应目标重心向量;
提取目标虚拟空间的虚拟数据中虚拟物品相对于通用定位图的标准中心朝向,获取虚拟物品对应目标重心向量与对应虚拟空间坐标系中x轴、y轴、z轴的标准夹角,将虚拟物品对应目标重心向量与对应虚拟空间坐标系中x轴、y轴、z轴的标准夹角分别标记为
Figure FDA0003885438880000051
分析得到各用户操控设备对应目标虚拟空间内虚拟物品的目标重心向量与对应虚拟空间坐标系中x轴、y轴、z轴的方向偏移角度
Figure FDA0003885438880000052
根据各用户操控设备对应目标虚拟空间内虚拟物品的重心偏移距离和目标重心向量与对应虚拟空间坐标系中x轴、y轴、z轴的方向偏移角度,分别对各用户操控设备对应目标虚拟空间内虚拟物品进行重心偏移距离和方向偏移角度还原处理。
9.根据权利要求1所述的一种基于AR/VR技术的虚拟空间共享方法,其特征在于:所述步骤S8中对各用户操控设备对应目标虚拟空间进行虚拟空间坐标系校准,具体包括:
根据各用户操控设备对应目标虚拟空间内通用定位图中各特征点的坐标偏移距离,通过平均值计算公式得到各用户操控设备对应目标虚拟空间内通用定位图的平均坐标偏移距离;
根据各用户操控设备对应目标虚拟空间内通用定位图中各特征点向量与对应虚拟空间坐标轴的偏转夹角,通过平均值计算公式得到各用户操控设备对应目标虚拟空间内通用定位图与对应虚拟空间坐标轴的平均偏转夹角;
基于各用户操控设备对应目标虚拟空间内通用定位图的平均坐标偏移距离和通用定位图与对应虚拟空间坐标轴的平均偏移夹角,对各用户操控设备对应目标虚拟空间进行虚拟空间坐标系校准。
10.一种基于AR/VR技术的虚拟空间共享系统,其特征在于,包括:
目标虚拟空间数字编号模块:用于将虚拟空间云平台中目标虚拟空间进行数字编号,并构成目标虚拟空间的二维码标识;
目标虚拟空间虚拟数据获得模块:用于通过各用户操控对应设备登录虚拟空间云平台,扫描虚拟空间云平台中目标虚拟空间的二维码标识,并依次下载获得目标虚拟空间的虚拟数据;
定位图特征点坐标获取分析模块:用于获取各用户操控设备对应目标虚拟空间内通用定位图中各特征点的空间坐标,分析各用户操控设备对应目标虚拟空间内通用定位图中各特征点的坐标偏移距离;
定位图特征点向量夹角获取模块:用于获取各用户操控设备对应目标虚拟空间内通用定位图中各特征点的向量,分析各用户操控设备对应目标虚拟空间内通用定位图中各特征点向量与对应虚拟空间坐标轴的夹角;
定位图特征点向量夹角分析模块:用于根据目标虚拟空间的虚拟数据,分析各用户操控设备对应目标虚拟空间内通用定位图中各特征点向量与对应虚拟空间坐标轴的偏转夹角;
虚拟物品重心偏移距离获取模块:用于根据目标虚拟空间的虚拟数据,得到各用户操控设备对应目标虚拟空间内虚拟物品的重心偏移距离;
虚拟物品还原处理模块:用于根据目标虚拟空间的虚拟数据,得到各用户操控设备对应目标虚拟空间内虚拟物品的方向偏转角度,并对各用户操控设备对应目标虚拟空间内虚拟物品进行还原处理;
虚拟空间坐标系校准模块:用于根据各用户操控设备对应目标虚拟空间内通用定位图中各特征点的坐标偏移距离和各特征点向量与对应虚拟空间坐标轴的偏转夹角,对各用户操控设备对应目标虚拟空间进行虚拟空间坐标系校准。
CN202210260793.5A 2022-03-16 2022-03-16 一种基于ar/vr技术的虚拟空间共享方法及系统 Active CN114627270B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210260793.5A CN114627270B (zh) 2022-03-16 2022-03-16 一种基于ar/vr技术的虚拟空间共享方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210260793.5A CN114627270B (zh) 2022-03-16 2022-03-16 一种基于ar/vr技术的虚拟空间共享方法及系统

Publications (2)

Publication Number Publication Date
CN114627270A CN114627270A (zh) 2022-06-14
CN114627270B true CN114627270B (zh) 2023-02-03

Family

ID=81902032

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210260793.5A Active CN114627270B (zh) 2022-03-16 2022-03-16 一种基于ar/vr技术的虚拟空间共享方法及系统

Country Status (1)

Country Link
CN (1) CN114627270B (zh)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112639685A (zh) * 2018-09-04 2021-04-09 苹果公司 模拟现实(sr)中的显示设备共享和交互

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3653463B2 (ja) * 2000-11-09 2005-05-25 日本電信電話株式会社 複数のユーザによる仮想空間共有システム
CN105354820B (zh) * 2015-09-30 2018-05-22 深圳多新哆技术有限责任公司 调整虚拟现实图像的方法及装置
CN109087399B (zh) * 2018-07-17 2024-03-01 上海游七网络科技有限公司 一种通过定位图快速同步ar空间坐标系的方法
CN111739169A (zh) * 2019-10-31 2020-10-02 北京京东尚科信息技术有限公司 基于增强现实的产品展示方法、系统、介质及电子设备
CN112686947B (zh) * 2020-12-30 2024-04-16 大唐融合通信股份有限公司 一种虚拟空间中物体标注方法、装置和电子设备
CN114047824A (zh) * 2022-01-13 2022-02-15 北京悉见科技有限公司 多终端用户在虚拟空间交互的方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112639685A (zh) * 2018-09-04 2021-04-09 苹果公司 模拟现实(sr)中的显示设备共享和交互

Also Published As

Publication number Publication date
CN114627270A (zh) 2022-06-14

Similar Documents

Publication Publication Date Title
JP5920352B2 (ja) 情報処理装置、情報処理方法及びプログラム
WO2020078250A1 (zh) 用于虚拟场景的数据处理方法以及设备
WO2020237574A1 (zh) 相机的内参及相对姿态的标定方法、装置、无人机和存储装置
CN104395932B (zh) 对准数据的方法
EP1596329B1 (en) Marker placement information estimating method and information processing device
US20120210254A1 (en) Information processing apparatus, information sharing method, program, and terminal device
CN109313417A (zh) 帮助机器人定位
US20220319050A1 (en) Calibration method and apparatus, processor, electronic device, and storage medium
CN111459269B (zh) 一种增强现实显示方法、系统及计算机可读存储介质
CN108351791A (zh) 具有用户输入配件的计算设备
CN108693958B (zh) 一种手势识别方法、装置及系统
WO2020149270A1 (ja) 拡張現実空間に配置される3dオブジェクトを生成する方法
CN108882156B (zh) 一种校准定位基站坐标系的方法及装置
CN107886501A (zh) 视觉定位方法及终端设备
US20210174599A1 (en) Mixed reality system, program, mobile terminal device, and method
KR102585821B1 (ko) 증강 현실 장치 및 위치 설정 방법
US20220319118A1 (en) Electronic device for providing indoor positioning and method therefor
CN114627270B (zh) 一种基于ar/vr技术的虚拟空间共享方法及系统
CN113658194B (zh) 一种基于参照物的点云拼接方法、装置及存储介质
CN109445432A (zh) 基于图像的无人机和地面移动机器人编队定位方法
CN107145706B (zh) 虚拟现实vr设备融合算法性能参数的评估方法及装置
CN105229706B (zh) 图像处理装置、图像处理方法和程序
CN108564661B (zh) 一种基于增强现实场景的记录方法
CN113570659B (zh) 拍摄装置位姿估计方法、装置、计算机设备和存储介质
KR101406855B1 (ko) 다차원 입력장치를 이용한 컴퓨터 시스템

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant