CN112882569A - Ar交互方法、终端设备及云端地图管理系统 - Google Patents
Ar交互方法、终端设备及云端地图管理系统 Download PDFInfo
- Publication number
- CN112882569A CN112882569A CN202110117711.7A CN202110117711A CN112882569A CN 112882569 A CN112882569 A CN 112882569A CN 202110117711 A CN202110117711 A CN 202110117711A CN 112882569 A CN112882569 A CN 112882569A
- Authority
- CN
- China
- Prior art keywords
- map data
- visual map
- visual
- interaction
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 166
- 238000000034 method Methods 0.000 title claims abstract description 59
- 230000000007 visual effect Effects 0.000 claims abstract description 385
- 238000004590 computer program Methods 0.000 claims description 19
- 238000005457 optimization Methods 0.000 claims description 8
- 238000005259 measurement Methods 0.000 claims description 6
- 238000004891 communication Methods 0.000 abstract description 5
- 230000002452 interceptive effect Effects 0.000 abstract description 3
- 230000004927 fusion Effects 0.000 description 14
- 230000008569 process Effects 0.000 description 8
- 238000010276 construction Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000007499 fusion processing Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 230000032683 aging Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Remote Sensing (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Data Mining & Analysis (AREA)
- Computer Hardware Design (AREA)
- Human Computer Interaction (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请提供一种AR交互方法、终端设备及云端地图管理系统,涉及多媒体通信技术领域,该方法包括:基于获取的多个关键帧图像和与所述关键帧图像对应的至少两种与地理位置相关的参数,构建第一视觉地图数据;向云端地图管理系统发送AR交互信息,AR交互信息包括第一视觉地图数据和用户选择的AR交互场景;显示第二视觉地图数据,第二视觉地图数据包括云端地图管理系统根据所述AR交互场景将第一视觉地图数据与第三视觉地图数据融合后的地图数据,第三视觉地图数据为述第一视觉地图数据具有至少一个相同特征的视觉地图数据。本申请的方案解决了现有的AR互动方式单一,用户使用体验差的问题。
Description
技术领域
本申请涉及多媒体通信技术领域,尤其是涉及一种AR交互方法、终端设备及云端地图管理系统。
背景技术
现有的增强现实(Augmented Reality,AR)交互一般是传统的单机AR方式或多机交互的AR方式。单机AR方式主要是终端设备或者AR设备将虚拟信息与真实世界融合,多机交互的AR方式主要是对多设备进行全球定位系统(Global Positioning System,GPS)定位,由后台统一调配不同GPS位置进行交互,然而,上述两种方式的AR互动方式单一,无法给用户带来较好的使用体验。
发明内容
本申请实施例提供一种AR交互方法、终端设备及云端地图管理系统,以解决现有AR互动方式单一,用户使用体验差的问题。
为了解决上述问题,本申请是这样实现的:
第一方面,本申请的实施例提供了一种AR交互方法,应用于终端设备,包括:
基于获取的多个关键帧图像和与所述关键帧图像对应的至少两种与地理位置相关的参数,构建第一视觉地图数据;
向云端地图管理系统发送AR交互信息,所述AR交互信息包括所述第一视觉地图数据和用户选择的AR交互场景;
显示第二视觉地图数据,所述第二视觉地图数据包括所述云端地图管理系统根据所述AR交互场景将所述第一视觉地图数据与第三视觉地图数据融合后的地图数据,所述第三视觉地图数据为与所述第一视觉地图数据具有至少一个相同特征的视觉地图数据。
可选地,基于实时获取的关键帧图像和实时获取的至少两种与地理位置相关的参数,构建第一视觉地图数据,包括:
根据当前获取的至少两种与地理位置相关的参数,生成多模态位置标签;
通过将当前获取的所述关键帧图像与所述多模态位置标签融合,构建所述第一视觉地图数据;
其中,所述第一视觉地图数据的地图标签为与第一关键帧图像融合的所述多模态位置标签,所述第一关键帧图像为多个所述关键帧图像中的中心关键帧图像。
可选地,根据当前获取的至少两种与地理位置相关的参数,生成多模态位置标签,包括:
将各个所述与地理位置相关的参数分别转换为二进制数据;
将各个所述与地理位置相关的参数所转换的二进制数据融合,生成所述多模态位置标签。
可选地,所述与地理位置相关的参数包括惯性测量单元IMU气压计数据,所述与地理位置相关的参数还包括以下至少一项:
无线保真标识WIFI ID;
移动基站定位数据;
全球定位系统GPS定位数据。
依据本申请的另一方面,提供了一种AR交互方法,应用于云端地图管理系统,包括:
接收第一终端设备发送的AR交互信息,所述AR交互信息包括第一视觉地图数据和用户选择的AR交互场景;
根据所述AR交互场景,确定与所述第一视觉地图数据融合的第三视觉地图数据;
将所述第一视觉地图数据和所述第三视觉地图数据融合生成第二视觉地图数据;
将所述第二视觉地图数据发送至第一终端设备和第二终端设备,其中,所述第二终端设备为发送所述第三视觉地图数据的终端设备。
可选地,根据所述AR交互场景,确定与所述第一视觉地图数据融合的第三视觉地图数据,包括:
获取符合所述AR交互场景的候选视觉地图数据列表;
将所述第一视觉地图数据的地图标签分别与所述候选视觉地图数据列表中的各视觉地图数据的地图标签进行汉明距离匹配,确定至少一个候选视觉地图数据;
将所述第一视觉地图数据中的关键帧图像分别与每一个所述候选视觉地图数据的关键帧图像匹配,确定所述第三视觉地图数据。
可选地,将所述第一视觉地图数据的地图标签分别与所述候选视觉地图数据列表中的各视觉地图数据的地图标签进行汉明距离匹配,确定至少一个候选视觉地图数据,包括:
将所述候选视觉地图数据列表中,与所述第一视觉地图数据的地图标签的汉明距离最小的视觉地图数据确定为所述候选视觉地图数据。
可选地,将所述第一视觉地图数据和所述第三视觉地图数据融合生成第二视觉地图数据,包括:
通过对所述第一视觉地图数据和所述第三视觉地图数据进行全局优化,将所述第一视觉地图数据和所述第三视觉地图数据融合生成所述第二视觉地图数据。
依据本申请的又一方面,提供了一种终端设备,包括:收发机、处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如上第一方面所述的AR交互方法的步骤。
依据本申请的再一个方面,提供了一种云端地图管理系统,包括:收发机、处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如上另一方面所述的AR交互方法的步骤。
依据本申请的再一个方面,提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如第一方面所述的AR交互方法或者如另一方面所述的AR交互方法的步骤。
本申请实施例的AR交互方法,首先,终端设备基于获取的多个关键帧图像和与关键帧图像对应的至少两种与地理位置相关的参数,构建第一视觉地图数据;实现了将至少两种与地理位置相关的参数融合至第一视觉地图数据中,使得第一视觉地图数据具有多模态标签属性,便于后续的视觉地图数据的融合;其次,终端设备向云端地图管理系统发送AR交互信息,AR交互信息包括第一视觉地图数据和用户选择的AR交互场景;使得云端地图管理系统能够基于该AR交互场景将第一视觉地图数据与当前保存的候选视觉地图数据的融合,最后,终端设备显示第二视觉地图数据,第二视觉地图数据包括云端地图管理系统根据AR交互场景将第一视觉地图数据与第三视觉地图数据融合后的地图数据,第三视觉地图数据为与第一视觉地图数据具有至少一个相同特征的视觉地图数据。如此,实现了多用户在不同时空的AR互动,使得AR互动方式多样化,给用户带来更好的使用体验。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1表示本申请实施例提供的AR互动方法的流程示意图之一;
图2表示本申请实施例提供的AR互动方法的流程示意图之二;
图3表示本申请实施例提供的AR互动装置的结构示意图之一;
图4表示本申请实施例提供的终端设备的实施结构示意图;
图5表示本申请实施例提供的AR互动装置的结构示意图之二;
图6表示本申请实施例提供的云端地图管理系统的实施结构示意图。
具体实施方式
为使本申请要解决的技术问题、技术方案和优点更加清楚,下面将结合附图及具体实施例进行详细描述。在下面的描述中,提供诸如具体的配置和组件的特定细节仅仅是为了帮助全面理解本申请的实施例。因此,本领域技术人员应该清楚,可以对这里描述的实施例进行各种改变和修改而不脱离本申请的范围和精神。另外,为了清楚和简洁,省略了对已知功能和构造的描述。
应理解,说明书通篇中提到的“一个实施例”或“一实施例”意味着与实施例有关的特定特征、结构或特性包括在本申请的至少一个实施例中。因此,在整个说明书各处出现的“在一个实施例中”或“在一实施例中”未必一定指相同的实施例。此外,这些特定的特征、结构或特性可以任意适合的方式结合在一个或多个实施例中。
在本申请的各种实施例中,应理解,下述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。另外,本文中术语“系统”和“网络”在本文中常可互换使用。
如图1所示,本申请的实施例提供了一种AR交互方法,应用于终端设备,这里,终端设备可以为用户设备、个人数字助理(PDA)、无线通信装置、手持装置、膝上型计算机、无绳电话、无线本地回路(WLL)站、能够将移动信号转换为WIFI信号的CPE(Customer PremiseEquipment,客户终端)或移动智能热点等,本申请实施例的AR交互方法可具体包括以下步骤:
步骤101:基于获取的多个关键帧图像和与关键帧图像对应的至少两种与地理位置相关的参数,构建第一视觉地图数据;
本步骤具体可以通过同步定位与建图(Simultaneous Localization AndMapping,SLAM)系统进行多模态信息融合,以实现第一视觉地图数据的构建。
相对于单一的与地理位置相关的参数,本步骤中的至少两种与地理位置相关的参数能够实现更精确的定位,使得本申请的AR交互能够适用于更小的地理位置单元,如楼宇内的楼层或房间等。
具体的,本步骤中,首先,终端设备可以通过相机采集针对某一空间的视频图像,与此同时,终端设备还利用终端设备上的多种传感器采集与地理位置相关的参数,以使每帧图像均对应至少两种与地理位置相关的参数,其次,终端设备对该视频图像进行处理,以获得多个关键帧图像,最后,基于多个关键帧图像和与其对应的至少两种与地理位置相关的参数,构建第一视觉地图数据,如此,实现在构建的第一视觉地图数据中融合有位置信息。
步骤102:向云端地图管理系统发送AR交互信息,AR交互信息包括第一视觉地图数据和用户选择的AR交互场景;
本步骤中,AR交互场景包括但不限于以下场景:WIFI场景、好友场景、附近的人场景,云端地图管理系统可以根据用户选择的AR交互场景确定能够与第一视觉地图数据融合的候选视觉地图数据列表,如:若用户选择的是WIFI场景,则候选视觉地图数据列表中的地图数据的WIFI ID应与第一视觉地图数据的WIFI ID相同;若用户选择的是好友场景,则候选视觉地图数据列表中的地图数据为用户的好友上传的视觉地图数据;若用户选择的是附近的人场景,则候选视觉地图数据列表中的地图数据为用户所在位置附近的用户上传的且有权限融合的视觉地图数据。
这里,需要说明的是,AR交互信息还可以包括融合权限、AR互动权限和AR互动时效等,其中,融合权限用于指定能够与用户上传的第一视觉地图数据进行融合的地图数据,如:同一WIFI ID的用户等上传的视觉地图数据能够与第一视觉地图数据融合;AR互动权限为用户指定能够通过第一视觉地图数据与用户进行AR互动的其他用户,如:设置用户的好友能够通过该第一视觉地图数据与用户进行AR互动,具体的,比如,用户在第一视觉地图数据中设置了一盆花的虚拟形象,用户的好友可以在上线后为这盆花浇水、施肥等;又比如,用户为周围陌生的人开通留言板功能或加好友功能等;AR互动时效用于指定其他用户能够通过该第一视觉地图数据与本用户进行互动的失效,比如:上传第一视觉地图数据的3天或一个月内其他用户可以与本用户互动。用户通过设置这些权限,能够进一步根据需要对AR互动的权限进行限制,实现用户在不同时间和不同空间内的AR交互。
步骤103:显示第二视觉地图数据,第二视觉地图数据包括云端地图管理系统根据AR交互场景将第一视觉地图数据与第三视觉地图数据融合后的地图数据,第三视觉地图数据为与第一视觉地图数据具有至少一个相同特征的视觉地图数据。
本步骤中,第二视觉地图数据为具有至少一个相同特征的第一视觉地图数据和第三视觉地图数据融合后的地图数据,如此,通过在终端设备上显示第二视觉地图数据,能够实现用户查看其它用户(如:同一WIFI下的用户、好友或附近的人)的AR互动信息,如:其它用户在当前位置的历史动态等,从而实现与其他用户的不同时间和不同空间的AR互动。
本申请实施例的AR交互方法,首先,终端设备基于获取的多个关键帧图像和与关键帧图像对应的至少两种与地理位置相关的参数,构建第一视觉地图数据;实现了将至少两种与地理位置相关的参数融合至第一视觉地图数据中,使得第一视觉地图数据具有多模态标签属性,便于后续的视觉地图数据的融合;其次,终端设备向云端地图管理系统发送AR交互信息,AR交互信息包括第一视觉地图数据和用户选择的AR交互场景;使得云端地图管理系统能够基于该AR交互场景将第一视觉地图数据与当前保存的候选视觉地图数据的融合,最后,终端设备显示第二视觉地图数据,第二视觉地图数据包括云端地图管理系统根据AR交互场景将第一视觉地图数据与第三视觉地图数据融合后的地图数据,第三视觉地图数据为与第一视觉地图数据具有至少一个相同特征的视觉地图数据。如此,实现了多用户在不同时空的AR互动,使得AR互动方式多样化,给用户带来更好的使用体验。
作为一个可选地实现方式,本申请实施例的方法步骤101可具体包括:
步骤一:根据当前获取的至少两种与地理位置相关的参数,生成多模态位置标签;如此,多模态位置标签能够携带不同传感器采集的与地理位置相关的信息,便于后续精确匹配能够进行融合的视觉地图数据。
步骤二:通过将当前获取的关键帧图像与多模态位置标签融合,构建第一视觉地图数据;其中,第一视觉地图数据的地图标签为与第一关键帧图像融合的多模态位置标签,第一关键帧图像为多个所述关键帧图像中的中心关键帧图像。
本步骤具体是将每一关键帧和与该关键帧对应的至少两种与地理位置相关的参数所生成的多模态位置标签进行融合,多个关键帧与多模态位置标签的融合结果组成该第一视觉地图数据,这样,使得第一视觉地图数据具有多模态标签属性,为后续的地图数据融合提供匹配依据。
这里,需要说明的是,第一视觉地图数据是由多个关键帧组成的点云地图,多个关键帧图像,则是从相机采集的视频图像中提取的帧图像,其中,中心关键帧图像可以为物理位置位于多个关键帧图像的中心的关键帧图像;下面,具体说明构建第一视觉地图数据的过程:
A)相机采集空间信息,生成图像数据;
B)相机与惯性测量元件(Inertial Measurement Unit,IMU)构成视觉惯性里程计(Visual-inertial Odometry,VIO)系统,其中,相机实时采集图像数据,IMU采集陀螺仪和加速度的数据;根据图像数据,以及,陀螺仪和加速度的数据,建立VIO系统的初始空间三维地图,同时还在里程计插入的关键帧中融合多模态位置标签供后续匹配使用;
C)通过非线性化工具优化里程计误差,使用通用图优化算法(General GraphOptimization,G2O)工具优化前端匹配过程中重投影累计误差,优化位姿使累计误差最小;
D)通过词袋模型进行回环检测,在检测到闭环的情况下,调用非线性优化进行全局优化,优化全局位姿。其中,回环检测的具体过程为:首先,训练大数据集的orb描述子词袋模型,训练得到词袋模型;其次,每次前端跟踪时提取特征点描述子,词袋模型计算当前特征点的词向量,这样相似地图点具备同样的词向量。通过词袋模型搜索即可搜索到与当前帧图像最相似的场景,若找到相同场景,则检测到闭环;
E)将第一关键帧所对应的多模态位置标签确定为视觉地图数据的地图标签(视觉地图索引)。
作为一个可选的实现方式,与地理位置相关的参数包括惯性测量单元IMU气压计数据,与地理位置相关的参数还包括以下至少一项:
无线保真标识(WIFI Identification,WIFI ID);
移动基站定位数据;
全球定位系统(Global Positioning System,GPS)定位数据。
具体的,IMU气压计数据可以表征终端设备所在的高度位置,本申请实施例中的至少两种与地理位置相关的参数中包括该IMU气压计数据,使得本申请实施例的AR交互方法能够适用于在同一楼宇中不同楼层的终端设备,相较于目前依赖于GPS地理信息进行多机AR交互的方式只能进行街道级的空间交互,本申请实施例对于楼宇内部或者私人空间中的终端设备也能进行AR交互,增大了AR交互的适用范围,提高了AR交互的趣味性。
另外,本申请实施例的至少两种与地理位置相关的参数还包括WIFI ID、移动基站定位数据和GPS定位数据中的至少一者,如此,使得第一视觉地图数据具有多模态标签属性,使得对第一视觉地图数据的定位更精准,便于后续云端地图管理系统快速匹配相似的地图数据,以实现视觉地图数据的融合。
本实施例中,多模态位置标签相对于现在主流的GPS地理信息,能够有更高的区分度(多传感器融合定位),更快的匹配速度(汉明距离计算),同时对室内GPS无法工作的场景,通过多模态位置标签和关键帧图像融合地图,可以得到精确的室内定位数据。对于像同一栋楼不同楼层,通过气压计与GPS与移动基站三角定位也能计算准确的楼层高度数据。
作为一个可选的实现方式,根据当前获取的至少两种与地理位置相关的参数,生成多模态位置标签,包括:
将各个与地理位置相关的参数分别转换为二进制数据;
这里,需要说明的是,本申请实施例的多模态位置标签可以为512位多模态位置二进制标签。如此,云端地图管理系统可以通过地图标签的汉明距离匹配确定与该第一视觉地图数据距离最近的视觉地图数据。
以至少两种与地理位置相关的参数包括IMU气压计数据、WIFI ID、移动基站定位数据和GPS定位数据为例,如下表1所示,512位多模态位置二进制标签中前128位为WIFI ID转换为的128位二进制数,129-192位是移动基站定位数据转换为的64位二进制数,193-448位是GPS定位数据转换为的256位二进制数,119-212位是IMU气压计转换为的64位二进制数。
表1
WIFI ID | 移动基站定位数据 | 全球定位系统GPS定位数据 | IMU气压计数据 |
128位 | 64位 | 256位 | 64位 |
0101...1010 | 001...100 | 110101001...1011101010 | 1101...001 |
本申请实施例的AR交互方法,首先,终端设备基于获取的多个关键帧图像和与关键帧图像对应的至少两种与地理位置相关的参数,构建第一视觉地图数据;实现了将至少两种与地理位置相关的参数融合至第一视觉地图数据中,使得第一视觉地图数据具有多模态标签属性,便于后续的视觉地图数据的融合过程中确定候选视觉地图数据;其次,终端设备向云端地图管理系统发送AR交互信息,AR交互信息包括第一视觉地图数据和用户选择的AR交互场景;使得云端地图管理系统能够基于该AR交互场景将第一视觉地图数据与当前保存的候选视觉地图数据的融合,最后,终端设备显示第二视觉地图数据,第二视觉地图数据包括云端地图管理系统根据AR交互场景将第一视觉地图数据与第三视觉地图数据融合后的地图数据,第三视觉地图数据为与第一视觉地图数据具有至少一个相同特征的视觉地图数据。如此,实现了多用户在不同时空的AR互动,使得AR互动方式多样化,给用户带来更好的使用体验。
如图2所示,本申请实施例还提供了一种AR交互方法,应用于云端地图管理系统,本申请实施例的AR交互方法具体可以包括以下步骤:
步骤201:接收第一终端设备发送的AR交互信息,AR交互信息包括第一视觉地图数据和用户选择的AR交互场景;
本步骤中,AR交互场景包括但不限于以下场景:WIFI场景、好友场景、附近的人场景。
这里,需要说明的是,本步骤中,云端地图管理系统在接收到该第一视觉地图数据后,会按照地图标签保存该第一视觉地图数据。
步骤202:根据AR交互场景,确定与第一视觉地图数据融合的第三视觉地图数据;
本步骤中,云端地图管理系统可以根据用户选择的AR交互场景确定能够与第一视觉地图数据融合的候选视觉地图数据列表,如:若检测到用户选择的是WIFI场景,则候选视觉地图数据列表中的地图数据的WIFI ID应与第一视觉地图数据的WIFI ID相同;若检测到用户选择的是好友场景,则候选视觉地图数据列表中的地图数据为用户的好友上传的视觉地图数据;若用户选择的是附近的人场景,则候选视觉地图数据列表中的地图数据为用户所在位置附近的用户上传的且有权限融合的视觉地图数据。云端地图管理系统可以在候选视觉地图列表中确定该第三视觉地图数据。
步骤203:将第一视觉地图数据和第三视觉地图数据融合生成第二视觉地图数据;
步骤204:将第二视觉地图数据发送至第一终端设备和第二终端设备,其中,第二终端设备为发送所述第三视觉地图数据的终端设备。
本步骤中,通过将第二视觉地图数据分别发送给第一终端设备和第二终端设备,一方面,保证了所有同一个场景下的用户共用一套地图,保证多用户具备场景交互能力;另一方面,实现了第一终端设备的用户查看第二终端设备的用户在该场景下的历史动态,并与其互动;同样的,第二终端设备的用户在上线后,也能查看第一终端用户在该场景下的历史动态,并与其互动,实现了位于不同空间的两个用户在不同时间的AR互动。
本申请实施例的AR互动方法,云端地图管理系统首先接收到第一终端设备发送的AR互动信息,该AR交互信息包括第一视觉地图数据和用户选择的AR交互场景;其次,根据AR交互场景,确定与第一视觉地图数据融合的第三视觉地图数据;然后,将第一视觉地图数据和第三视觉地图数据融合生成第二视觉地图数据;最后,将第二视觉地图数据发送至第一终端设备和第二终端设备,其中,第二终端设备为发送所述第三视觉地图数据的终端设备。如此,第一视觉地图数据能够与云端地图管理系统中保存的视觉地图数据的融合,实现了同一场景下的用户共用一套地图,使得多用户具备不同时间的同一空间的AR交互,提高了AR互动的趣味性。
作为一个可选的实现方式,本申请实施例的步骤202可具体包括:
步骤一,获取符合AR交互场景的候选视觉地图数据列表;
如前所述,本步骤为云端地图管理系统根据用户选择的AR交互场景,在当前保存的视觉地图数据中提取满足AR交互场景的多个视觉地图数据,以构成该候选视觉地图数据列表。具体的,WIFI场景对应的候选视觉地图数据列表中的视觉地图数据与第一视觉地图数据位于同一WIFI环境;好友场景对应的候选视觉地图数据列表中的视觉地图数据为用户的好友上传的视觉地图数据;附件的人场景对应的候选视觉地图数据列表中的视觉地图数据为在用户周围的人上传的视觉地图数据。
步骤二,将第一视觉地图数据的地图标签分别与候选视觉地图数据列表中的各视觉地图数据的地图标签进行汉明距离匹配,确定至少一个候选视觉地图数据;
这里,需要说明的是,汉明距离表示两个相同长度的字符串对应位不同的数量。本步骤具体可以为:将候选视觉地图数据列表中,与第一视觉地图数据的地图标签的汉明距离最小的视觉地图数据确定为候选视觉地图数据。也就是说,本步骤中,云端地图管理系统将汉明距离最小的视觉地图数据确定为与该第一视觉地图数据相似的地图,其中,由于会存在相同的地图标签的视觉地图数据,因此,本步骤中确定的候选视觉地图数据可以为一个或多个。
步骤三,将第一视觉地图数据中的关键帧图像分别与每一个候选视觉地图数据的关键帧图像匹配,确定第三视觉地图数据。
本步骤中,通过将第一视觉地图数据与各个候选视觉地图数据的关键帧进行图像匹配,当两个视觉地图数据有相同场景(如两个视觉地图数据中有相同的桌椅)时说明两个视觉地图数据可以进行融合,因此,将与第一视觉地图数据具有相同场景的候选视觉地图数据确定为该第三视觉地图数据。
作为一个可选的实现方式,将第一视觉地图数据和第三视觉地图数据融合生成第二视觉地图数据,包括:
通过对第一视觉地图数据和第三视觉地图数据进行全局优化,将第一视觉地图数据和第三视觉地图数据融合生成第二视觉地图数据。
本申请实施例的AR互动方法,云端地图管理系统首先接收到第一终端设备发送的AR互动信息,该AR交互信息包括第一视觉地图数据和用户选择的AR交互场景;其次,根据AR交互场景,确定与第一视觉地图数据融合的第三视觉地图数据;然后,将第一视觉地图数据和第三视觉地图数据融合生成第二视觉地图数据;最后,将所述第二视觉地图数据发送至第一终端设备和第二终端设备,其中,所述第二终端设备为发送所述第三视觉地图数据的终端设备。如此,第一视觉地图数据能够与云端地图管理系统中保存的视觉地图数据的融合,实现了同一场景下的用户共用一套地图,使得多用户具备不同时间和不同空间的AR交互,提高了AR互动的趣味性。
另外,本申请实施例的AR交互方法,用户在AR交互过程中将本地的AR数据(第一视觉地图数据)和AR交互场景上传到云端地图管理系统;云端地图管理系统判断第一视觉地图数据的地图标签,通过地图标签融合地图;比如,当检测到用户上传的地图与好友有相同的地图重合,此时会将融合地图以及好友在地图中建立的虚拟AR形象下发送用户界面,这样,就能看到好友相同现实场景的历史AR朋友圈动态,用户可以对动态进行AR形象互动,待好友上线也能收到提示,当好友到达相同现实场景也能看到用户的历史互动,这样实现了相同空间内不同时间的视觉地图数据。同时当用户与好友处于一个相同大环境,比如一栋楼宇的不同楼层或房间,因为云端地图管理系统维护了整个楼宇的完整地图,若用户与好友都选择融合完整地图,这样用户也能看到好友的楼层信息,包括好友的动态,这样就实现了不同空间下AR信息的融合。
如图3所示,本申请实施例还提供一种AR交互装置,应用于终端设备,该装置包括:
构建模块301,用于基于获取的多个关键帧图像和与关键帧图像对应的至少两种与地理位置相关的参数,构建第一视觉地图数据;
发送模块302,用于向云端地图管理系统发送AR交互信息,AR交互信息包括第一视觉地图数据和用户选择的AR交互场景;
显示模块303,用于显示第二视觉地图数据,第二视觉地图数据包括云端地图管理系统根据AR交互场景将第一视觉地图数据与第三视觉地图数据融合后的地图数据,第三视觉地图数据为与第一视觉地图数据具有至少一个相同特征的视觉地图数据。
可选地,构建模块301包括:
生成子模块,用于根据当前获取的至少两种与地理位置相关的参数,生成多模态位置标签;
构建子模块,用于通过将当前获取的关键帧图像与多模态位置标签融合,构建第一视觉地图数据;
其中,第一视觉地图数据的地图标签为与第一关键帧图像融合的多模态位置标签,第一关键帧图像为多个关键帧图像中的中心关键帧图像。
可选地,生成子模块包括:
转换单元,用于将各个与地理位置相关的参数分别转换为二进制数据;
生成单元,用于将各个与地理位置相关的参数所转换的二进制数据融合,生成多模态位置标签。
可选地,与地理位置相关的参数包括惯性测量单元IMU气压计数据,与地理位置相关的参数还包括以下至少一项:
无线保真标识WIFI ID;
移动基站定位数据;
全球定位系统GPS定位数据。
本申请实施例的AR交互装置,首先,构建模块301基于获取的多个关键帧图像和与关键帧图像对应的至少两种与地理位置相关的参数,构建第一视觉地图数据;实现了将至少两种与地理位置相关的参数融合至第一视觉地图数据中,使得第一视觉地图数据具有多模态标签属性,便于后续的视觉地图数据的融合过程中确定候选视觉地图数据;其次,发送模块302向云端地图管理系统发送AR交互信息,AR交互信息包括第一视觉地图数据和用户选择的AR交互场景;使得云端地图管理系统能够基于该AR交互场景将第一视觉地图数据与当前保存的候选视觉地图数据的融合,最后,显示模块303显示第二视觉地图数据,第二视觉地图数据包括云端地图管理系统根据AR交互场景将第一视觉地图数据与第三视觉地图数据融合后的地图数据,第三视觉地图数据为与第一视觉地图数据具有至少一个相同特征的视觉地图数据。如此,实现了多用户在不同时空的AR互动,使得AR互动方式多样化,给用户带来更好的使用体验。
如图4所示,本申请实施例还提供一种终端设备,包括:收发机401、处理器402、存储器403及存储在存储器403上并可在处理器402上运行的计算机程序,计算机程序被所述处理器执行时实现如前应用于终端设备的AR交互方法的步骤。具体的,处理器402用于基于获取的多个关键帧图像和与关键帧图像对应的至少两种与地理位置相关的参数,构建第一视觉地图数据;收发机401用于向云端地图管理系统发送AR交互信息,AR交互信息包括所述第一视觉地图数据和用户选择的AR交互场景;处理器402还用于显示第二视觉地图数据,所述第二视觉地图数据包括所述云端地图管理系统根据所述AR交互场景将所述第一视觉地图数据与第三视觉地图数据融合后的地图数据,所述第三视觉地图数据为与所述第一视觉地图数据具有至少一个相同特征的视觉地图数据。
可选地,处理器402在用于基于实时获取的关键帧图像和实时获取的至少两种与地理位置相关的参数,构建第一视觉地图数据时,具体用于:
根据当前获取的至少两种与地理位置相关的参数,生成多模态位置标签;
通过将当前获取的关键帧图像与多模态位置标签融合,构建第一视觉地图数据;
其中,所述第一视觉地图数据的地图标签为与第一关键帧图像融合的所述多模态位置标签,所述第一关键帧图像为多个所述关键帧图像中的中心关键帧图像。
可选地,处理器402在用于根据当前获取的至少两种与地理位置相关的参数,生成多模态位置标签时,具体用于:
将各个与地理位置相关的参数分别转换为二进制数据;
将各个与地理位置相关的参数所转换的二进制数据融合,生成多模态位置标签。
可选地,与地理位置相关的参数包括惯性测量单元IMU气压计数据,与地理位置相关的参数还包括以下至少一项:
无线保真标识WIFI ID;
移动基站定位数据;
全球定位系统GPS定位数据。
其中,总线架构可以包括任意数量的互联的总线和桥,具体由处理器401代表的一个或多个处理器401和存储器402代表的存储器402的各种电路链接在一起。总线架构还可以将诸如外围设备、稳压器和功率管理电路等之类的各种其他电路链接在一起,这些都是本领域所公知的,因此,本文不再对其进行进一步描述。总线接口提供接口。收发机403可以是多个元件,即包括发送机和收发机,提供用于在传输介质上与各种其他装置通信的单元。处理器401负责管理总线架构和通常的处理,存储器402可以存储处理器在执行操作时所使用的数据。
如图5所示,本申请实施例还提供一种AR交互装置,应用于云端地图管理系统,包括:
接收模块501,用于接收第一终端设备发送的AR交互信息,AR交互信息包括第一视觉地图数据和用户选择的AR交互场景;
确定模块502,用于根据AR交互场景,确定与第一视觉地图数据融合的第三视觉地图数据;
生成模块503,用于将第一视觉地图数据和第三视觉地图数据融合生成第二视觉地图数据;
发送模块504,用于将第二视觉地图数据发送至第一终端设备和第二终端设备,其中,第二终端设备为发送第三视觉地图数据的终端设备。
可选地,确定模块502包括:
获取子模块,用于获取符合所述AR交互场景的候选视觉地图数据列表;
第一确定子模块,用于将第一视觉地图数据的地图标签分别与候选视觉地图数据列表中的各视觉地图数据的地图标签进行汉明距离匹配,确定至少一个候选视觉地图数据;
第二确定子模块,用于将第一视觉地图数据中的关键帧图像分别与每一个候选视觉地图数据的关键帧图像匹配,确定第三视觉地图数据。
可选地,第一确定子模块具体用于:
将候选视觉地图数据列表中,与第一视觉地图数据的地图标签的汉明距离最小的视觉地图数据确定为候选视觉地图数据。
可选地,生成模块503具体用于:
通过对第一视觉地图数据和第三视觉地图数据进行全局优化,将第一视觉地图数据和第三视觉地图数据融合生成所述第二视觉地图数据。
本申请实施例的AR互动装置,首先,接收模块501接收第一终端设备发送的AR互动信息,该AR交互信息包括第一视觉地图数据和用户选择的AR交互场景;其次,确定模块502,根据AR交互场景,确定与第一视觉地图数据融合的第三视觉地图数据;然后,生成模块503将第一视觉地图数据和第三视觉地图数据融合生成第二视觉地图数据;最后,发送模块504将第二视觉地图数据发送至第一终端设备和第二终端设备,其中,第二终端设备为发送第三视觉地图数据的终端设备。如此,第一视觉地图数据能够与云端地图管理系统中保存的视觉地图数据的融合,实现了同一场景下的用户共用一套地图,使得多用户具备不同时间的同一空间的AR交互,提高了AR互动的趣味性。
如图6所示,本申请实施例还提供一种云端地图管理系统,包括:收发机601、处理器602、存储器603及存储在所述存储器603上并可在处理器上602运行的计算机程序,计算机程序被处理器602执行时实现如前所述的应用于云端地图管理系统的AR交互方法的步骤。具体的,收发机601用于接收第一终端设备发送的AR交互信息,AR交互信息包括第一视觉地图数据和用户选择的AR交互场景;处理器602用于根据AR交互场景,确定与第一视觉地图数据融合的第三视觉地图数据;将第一视觉地图数据和第三视觉地图数据融合生成第二视觉地图数据;收发机601还用于将第二视觉地图数据发送至第一终端设备和第二终端设备,其中,第二终端设备为发送第三视觉地图数据的终端设备。
可选地,处理器602在用于根据AR交互场景,确定与第一视觉地图数据融合的第三视觉地图数据时具体用于:
获取符合所述AR交互场景的候选视觉地图数据列表;
将第一视觉地图数据的地图标签分别与候选视觉地图数据列表中的各视觉地图数据的地图标签进行汉明距离匹配,确定至少一个候选视觉地图数据;
将第一视觉地图数据中的关键帧图像分别与每一个候选视觉地图数据的关键帧图像匹配,确定第三视觉地图数据。
可选地,处理器602在用于将第一视觉地图数据的地图标签分别与候选视觉地图数据列表中的各视觉地图数据的地图标签进行汉明距离匹配,确定至少一个候选视觉地图数据时,具体用于:
将候选视觉地图数据列表中,与第一视觉地图数据的地图标签的汉明距离最小的视觉地图数据确定为候选视觉地图数据。
可选地,处理器602在用于将第一视觉地图数据和第三视觉地图数据融合生成第二视觉地图数据时,具体用于:
通过对第一视觉地图数据和第三视觉地图数据进行全局优化,将第一视觉地图数据和第三视觉地图数据融合生成所述第二视觉地图数据。
其中,总线架构可以包括任意数量的互联的总线和桥,具体由处理器601代表的一个或多个处理器601和存储器602代表的存储器602的各种电路链接在一起。总线架构还可以将诸如外围设备、稳压器和功率管理电路等之类的各种其他电路链接在一起,这些都是本领域所公知的,因此,本文不再对其进行进一步描述。总线接口提供接口。收发机603可以是多个元件,即包括发送机和收发机,提供用于在传输介质上与各种其他装置通信的单元。处理器601负责管理总线架构和通常的处理,存储器602可以存储处理器在执行操作时所使用的数据。
本领域技术人员可以理解,实现上述实施例的全部或者部分步骤可以通过硬件来完成,也可以通过计算机程序来指示相关的硬件来完成,所述计算机程序包括执行上述方法的部分或者全部步骤的指令;且该计算机程序可以存储于一可读存储介质中,存储介质可以是任何形式的存储介质。
另外,本发明具体实施例还提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述的AR互动方法中的步骤。且能达到相同的技术效果,为避免重复,这里不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露方法和装置,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理包括,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述收发方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述的是本发明的优选实施方式,应当指出对于本技术领域的普通人员来说,在不脱离本发明所述的原理前提下还可以作出若干改进和润饰,这些改进和润饰也在本发明的保护范围内。
Claims (11)
1.一种AR交互方法,应用于终端设备,其特征在于,包括:
基于获取的多个关键帧图像和与所述关键帧图像对应的至少两种与地理位置相关的参数,构建第一视觉地图数据;
向云端地图管理系统发送AR交互信息,所述AR交互信息包括所述第一视觉地图数据和用户选择的AR交互场景;
显示第二视觉地图数据,所述第二视觉地图数据包括所述云端地图管理系统根据所述AR交互场景将所述第一视觉地图数据与第三视觉地图数据融合后的地图数据,所述第三视觉地图数据为与所述第一视觉地图数据具有至少一个相同特征的视觉地图数据。
2.根据权利要求1所述的方法,其特征在于,基于实时获取的关键帧图像和实时获取的至少两种与地理位置相关的参数,构建第一视觉地图数据,包括:
根据当前获取的至少两种与地理位置相关的参数,生成多模态位置标签;
通过将当前获取的所述关键帧图像与所述多模态位置标签融合,构建所述第一视觉地图数据;
其中,所述第一视觉地图数据的地图标签为与第一关键帧图像融合的所述多模态位置标签,所述第一关键帧图像为多个所述关键帧图像中的中心关键帧图像。
3.根据权利要求2所述的方法,其特征在于,根据当前获取的至少两种与地理位置相关的参数,生成多模态位置标签,包括:
将各个所述与地理位置相关的参数分别转换为二进制数据;
将各个所述与地理位置相关的参数所转换的二进制数据融合,生成所述多模态位置标签。
4.根据权利要求1至3任一项所述的方法,其特征在于,所述与地理位置相关的参数包括惯性测量单元IMU气压计数据,所述与地理位置相关的参数还包括以下至少一项:
无线保真标识WIFIID;
移动基站定位数据;
全球定位系统GPS定位数据。
5.一种AR交互方法,应用于云端地图管理系统,其特征在于,包括:
接收第一终端设备发送的AR交互信息,所述AR交互信息包括第一视觉地图数据和用户选择的AR交互场景;
根据所述AR交互场景,确定与所述第一视觉地图数据融合的第三视觉地图数据;
将所述第一视觉地图数据和所述第三视觉地图数据融合生成第二视觉地图数据;
将所述第二视觉地图数据发送至第一终端设备和第二终端设备,其中,所述第二终端设备为发送所述第三视觉地图数据的终端设备。
6.根据权利要求5所述的方法,其特征在于,根据所述AR交互场景,确定与所述第一视觉地图数据融合的第三视觉地图数据,包括:
获取符合所述AR交互场景的候选视觉地图数据列表;
将所述第一视觉地图数据的地图标签分别与所述候选视觉地图数据列表中的各视觉地图数据的地图标签进行汉明距离匹配,确定至少一个候选视觉地图数据;
将所述第一视觉地图数据中的关键帧图像分别与每一个所述候选视觉地图数据的关键帧图像匹配,确定所述第三视觉地图数据。
7.根据权利要求6所述的方法,其特征在于,将所述第一视觉地图数据的地图标签分别与所述候选视觉地图数据列表中的各视觉地图数据的地图标签进行汉明距离匹配,确定至少一个候选视觉地图数据,包括:
将所述候选视觉地图数据列表中,与所述第一视觉地图数据的地图标签的汉明距离最小的视觉地图数据确定为所述候选视觉地图数据。
8.根据权利要求5所述的方法,其特征在于,将所述第一视觉地图数据和所述第三视觉地图数据融合生成第二视觉地图数据,包括:
通过对所述第一视觉地图数据和所述第三视觉地图数据进行全局优化,将所述第一视觉地图数据和所述第三视觉地图数据融合生成所述第二视觉地图数据。
9.一种终端设备,其特征在于,包括:收发机、处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至4中任一项所述的AR交互方法的步骤。
10.一种云端地图管理系统,其特征在于,包括:收发机、处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求5至8中任一项所述的AR交互方法的步骤。
11.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至4中任一项所述的AR交互方法或者如权利要求5至8中任一项所述的AR交互方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110117711.7A CN112882569B (zh) | 2021-01-28 | 2021-01-28 | Ar交互方法、终端设备及云端地图管理系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110117711.7A CN112882569B (zh) | 2021-01-28 | 2021-01-28 | Ar交互方法、终端设备及云端地图管理系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112882569A true CN112882569A (zh) | 2021-06-01 |
CN112882569B CN112882569B (zh) | 2024-02-23 |
Family
ID=76052977
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110117711.7A Active CN112882569B (zh) | 2021-01-28 | 2021-01-28 | Ar交互方法、终端设备及云端地图管理系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112882569B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106937531A (zh) * | 2014-06-14 | 2017-07-07 | 奇跃公司 | 用于产生虚拟和增强现实的方法和系统 |
CN108144294A (zh) * | 2017-12-26 | 2018-06-12 | 优视科技有限公司 | 互动操作实现方法、装置及客户端设备 |
WO2018155931A1 (ko) * | 2017-02-24 | 2018-08-30 | 스케이프플로우 | 지식 맵 기반의 멀티 유저 게임 서비스 제공 장치 및 그 방법 |
CN109599047A (zh) * | 2019-01-28 | 2019-04-09 | 温州大学 | 一种基于ar技术的交互式导游解说系统 |
CN111161421A (zh) * | 2019-12-11 | 2020-05-15 | 江苏艾佳家居用品有限公司 | 一种基于ar的移动端在线空间漫游方法 |
CN111459269A (zh) * | 2020-03-24 | 2020-07-28 | 视辰信息科技(上海)有限公司 | 一种增强现实显示方法、系统及计算机可读存储介质 |
-
2021
- 2021-01-28 CN CN202110117711.7A patent/CN112882569B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106937531A (zh) * | 2014-06-14 | 2017-07-07 | 奇跃公司 | 用于产生虚拟和增强现实的方法和系统 |
WO2018155931A1 (ko) * | 2017-02-24 | 2018-08-30 | 스케이프플로우 | 지식 맵 기반의 멀티 유저 게임 서비스 제공 장치 및 그 방법 |
CN108144294A (zh) * | 2017-12-26 | 2018-06-12 | 优视科技有限公司 | 互动操作实现方法、装置及客户端设备 |
CN109599047A (zh) * | 2019-01-28 | 2019-04-09 | 温州大学 | 一种基于ar技术的交互式导游解说系统 |
CN111161421A (zh) * | 2019-12-11 | 2020-05-15 | 江苏艾佳家居用品有限公司 | 一种基于ar的移动端在线空间漫游方法 |
CN111459269A (zh) * | 2020-03-24 | 2020-07-28 | 视辰信息科技(上海)有限公司 | 一种增强现实显示方法、系统及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112882569B (zh) | 2024-02-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102247675B1 (ko) | 혼합 현실 시스템들을 위한 로컬화 결정 | |
CN109426333B (zh) | 一种基于虚拟空间场景的信息交互方法及装置 | |
US9558559B2 (en) | Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system | |
US9699375B2 (en) | Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system | |
CN110908504B (zh) | 一种增强现实博物馆协作交互方法与系统 | |
CN111832447B (zh) | 建筑图纸构件识别方法、电子设备及相关产品 | |
CN103761539B (zh) | 一种基于环境特征物体的室内定位方法 | |
US10467311B2 (en) | Communication system and method of generating geographic social networks in virtual space | |
KR101413011B1 (ko) | 위치 정보 기반 증강현실 시스템 및 제공 방법 | |
CN105466414B (zh) | 一种导航路线的推荐方法及服务器 | |
CN104936283A (zh) | 室内定位方法、服务器和系统 | |
WO2021139328A1 (zh) | 一种虚拟道具分配的方法和相关装置 | |
CN103197980B (zh) | 一种呈现增强现实技术内容的方法、装置及系统 | |
CN103562957B (zh) | 信息提供装置、信息提供方法以及信息提供系统 | |
US20130329061A1 (en) | Method and apparatus for storing image data | |
CN109029466A (zh) | 室内导航方法和装置 | |
CN107430631A (zh) | 从位置报告确定语义地点名称 | |
CN111832579A (zh) | 地图兴趣点数据处理方法、装置、电子设备以及可读介质 | |
KR20180056728A (ko) | 이미지 처리 장치를 제어하는 방법 | |
KR20190029412A (ko) | 네트워크를 통한 오프라인 매장 정보 제공 방법 및 이에 사용되는 관리 서버 | |
CN112882569B (zh) | Ar交互方法、终端设备及云端地图管理系统 | |
CN115272667B (zh) | 农田图像分割模型训练方法、装置、电子设备和介质 | |
Khan et al. | Indoor navigation systems using annotated maps in mobile augmented reality | |
CN110366025A (zh) | 显示内容的配置方法、智能终端及计算机可读存储介质 | |
WO2019127320A1 (zh) | 信息处理方法、装置、云处理设备及计算机程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |