CN117029815A - 基于空间互联网的场景定位方法和相关设备 - Google Patents
基于空间互联网的场景定位方法和相关设备 Download PDFInfo
- Publication number
- CN117029815A CN117029815A CN202211402001.XA CN202211402001A CN117029815A CN 117029815 A CN117029815 A CN 117029815A CN 202211402001 A CN202211402001 A CN 202211402001A CN 117029815 A CN117029815 A CN 117029815A
- Authority
- CN
- China
- Prior art keywords
- scene
- area
- positioning
- space
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 58
- 230000004927 fusion Effects 0.000 claims abstract description 43
- 230000004807 localization Effects 0.000 claims description 7
- 238000003860 storage Methods 0.000 claims description 6
- 230000003213 activating effect Effects 0.000 claims description 3
- 230000000694 effects Effects 0.000 description 12
- 238000004590 computer program Methods 0.000 description 5
- 238000009826 distribution Methods 0.000 description 4
- 238000005286 illumination Methods 0.000 description 4
- 239000003550 marker Substances 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 3
- 238000010276 construction Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000004080 punching Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Abstract
本申请涉及一种基于空间互联网的场景定位方法和相关设备,该场景定位方法包括以下步骤:基于定位装置获取初步定位信息,并基于初步定位信息判断是否进入到场景定位区,场景定位区为现实空间中的划定区域;进行实时图像采集,并对实时场景图像进行匹配识别,全域互联空间中对应于场景定位区的区域划定为空间定位区;基于匹配识别结果获取场景精确定位信息;基于场景精确定位信息显示识别区,识别区划定于空间定位区内,且在场景定位区中对应有服务区;获取卫星定位信息,并基于卫星定位信息或精确定位信息判断是否进入到服务区;基于判断结果,显示对应的融合区图像。本申请具有可移植性更强、成本更低的优点。
Description
技术领域
本申请涉及空间互联网的领域,尤其是涉及一种基于空间互联网的场景定位方法和相关设备。
背景技术
长期以来,各地的地标建筑或地区名片通常作为旅游打卡点,比如北京故宫、上海外滩、广州小蛮腰等,其在部分时段会推出有灯光秀、烟花秀、无人机等活动,以提高游客体验,带动当地的旅游产业。但是,在一方面,由于该类城市夜景活动或占用大量的电力资源,或污染环境等,在当今节能环保的大环境下则不再开展;另一方面,由于疫情的影响下,为了避免旅客大量聚集,景点也不适合再提供相关服务。这无疑对当地的旅游产业造成不利影响。
因此,利用增强现实技术来为游客提供服务成为了可选项。增强现实(AugmentedReality,简称AR),是一种将真实世界信息和虚拟世界信息“无缝”集成的新技术,是把原本在现实世界的一定时间空间范围内很难体验到的实体信息(视觉信息、声音、味道、触觉等,主要是视觉),通过电脑等科学技术,模拟仿真后再叠加,将虚拟的信息应用到真实世界,被人类感官所感知,从而达到超越现实的感官体验。真实的环境和虚拟的物体实时地叠加到了同一个画面或空间同时存在。它不仅展现了真实世界的信息,而且将虚拟的信息同时显示出来,两种信息相互补充、叠加。
目前,常规设计通常基于手机、AR眼镜等终端设备实现现实场景与虚拟场景的叠加,并对于预先设计好的数字创作内容与采集到的实时场景图像进行精确匹配,以提高用户使用体验。比如,相关技术中采用点云建模的方法,可以在事前扫描大区域的全场景特征以进行建模,该模型基于空间坐标系表现场景各点的信息,然后在该模型中设置数字创作内容,用户能够利用终端设备看到数字创作内容。但是,当场景区域很大时,虚拟空间中存储的点云模型数据量将会很大且在区域的不同位置分布不均匀,在人流稀少的区域,高密度的点云模型利用率低,造成浪费;在人流密集的区域,可能存在可利用的点云模型数量不足,而导致难以准确定位的问题。因此,亟需一种能够只依赖少量点云模型进行精确定位的定位方法。
发明内容
为了在虚拟空间与现实空间相融合所形成复合空间系统中,采用可移植性更强、成本更低的方式对用户进行定位,本申请提供一种基于空间互联网的场景定位方法和相关设备。
第一方面,本申请提供的一种基于空间互联网的场景定位方法,采用如下的技术方案:
一种基于空间互联网的场景定位方法,包括以下步骤:
基于定位装置获取初步定位信息,并基于初步定位信息判断是否进入到场景定位区;其中,场景定位区为现实空间中的划定区域;
基于判断结果进行实时图像采集,并对实时场景图像进行匹配识别;其中,现实空间与全域互联空间基于相同坐标系建立,全域互联空间中对应于场景定位区的区域划定为空间定位区,空间定位区内设定有用于进行图像识别的匹配模型;
基于匹配识别结果获取场景精确定位信息;
基于场景精确定位信息显示识别区,其中,识别区划定于空间定位区内,且在场景定位区中对应有服务区;
获取卫星定位信息,并基于卫星定位信息或精确定位信息判断是否进入到服务区;
基于判断结果,显示对应的融合区图像,其中,融合区设置于全域互联空间中且一一对应于服务区,融合区内用于设置数字创作内容。
通过采用上述技术方案,终端在场景定位区外时,通过利用初步定位信息来进行定位。初步定位信息用于大范围而相对粗略地确定终端在现实空间的位置,无需用户到达指定地点附近即可以利用外部装置远程地显示相对位置。在初步定位时,能够对用户前往的区域位置进行圈定,以使得流量集中,该类区域通常为具有较高观赏价值的区域,有利于后期进行维护和开发。而对于公路、原野等缺乏人流的内容,由于利用率较低,当其现实场景发生变更时,通常难以及时进行模型更新,一方面造成成本的浪费,另一方面也会降低用户体验。因此,对人流密集区域进行圈定以在对应的空间定位区内设置匹配模型,能够有效地提高节约匹配模型的设置,从而实现数据的高效利用。
终端在进入到场景定位区后则开始采集实时场景图像,来利用空间定位区中的匹配模型进行定位。终端在空间定位区中能够精确到厘米级的定位,以便于后期数字创作内容能够与实时场景图像能够进行精确对位。
由于服务区对应的范围较小,通常只有一米见方或者几平米的大小,因此需要对用户进行精确的指引。模型匹配步骤中即已经将终端和实时场景图像中的场景精确定位于空间识别区的坐标系中。因此在空间定位区中对识别区进行显示,该识别区能够与实时场景图像中服务区的位置精确配位,即可精确地反应出服务区在现实空间中的位置。
当场景定位区中的匹配模型足够丰富时,即在采集到的实时场景图像发生变化时也能捕捉到新的匹配模型进行匹配定位,则可以通过场景精确定位信息来判断是否进入到服务区中。当采集到的实时场景图像发生变化而无法重新进行精确定位时,则基于卫星定位星系来判断是否进入到服务区中。因此,无论在匹配模型多或者少的区域都能进行精确定位,该定位方法具有可移植性强的特点。
这里卫星定位信息之所以能够替代场景精确定位信息进行定位,是由于终端所处位置与识别区标志的相对距离小,只需要通过卫星定位信息获取到终端的移动量,再结合终端初始定位在空间定位区中的位置,即可判断是否进入到服务区。这里之所以能够选择卫星定位信息进行定位,是由于在该步骤中,只需要利用卫星定位导航系统获取终端的移动量,而非终端在世界坐标系中的真实坐标。卫星定位导航系统的测量误差的来源可分卫星部分、信号传播部分、信号接收部分和其它部分,因此需要尽可能多颗卫星进行配合,来消除误差。在实际应用中发现,当对于终端真实位置进行定位时,该定位结果会由于各种原因在地图上发生漂移,这种漂移对于小范围区域定位会产生显著的影响。在只需要计算位移量的情况下,由于终端到服务区之间的移动为短时间小距离的移动,误差部分将会被较大程度地避免,从而产生更为精确的定位效果,以便于终端进入服务区时能够准确识别并发起下一步骤。
可选的,该场景定位方法还包括以下步骤:
选定主题空间,其中,不同的主题空间在同一服务区处对应有不同的融合区。
可选的,所述的选定主题空间的步骤,包括:
进行场景模式选定;
基于场景模式显示可选的主题空间;
获取主题空间选择信息。
可选的,所述场景模式包括白昼模式和黑夜模式。
可选的,在所述黑夜模式下,所述匹配模型为夜间匹配模型且分散分布于空间定位区中。
通过上述技术方案,由于夜间场景在进行匹配模型的采集和建立时,由于处于良好光照条件下的夜间匹配模型才能够被良好识别,因此在通常情况下,夜间匹配模型通常是分散分布于空间定位区中的,用户所获得的实时场景图像将会容易丢失对夜间匹配模型对应场景的采集。
可选的,所述的基于定位装置获取初步定位信息,并基于初步定位信息判断是否进入到场景定位区的步骤,包括:
读取场景定位区列表,其中,场景定位区列表内存储有各场景定位区的范围信息;
获取卫星定位信息,并对卫星定位信息和场景定位区列表进行匹配,基于匹配结果确定所进入场景定位区的判断结果。
可选的,所述场景定位方法还包括以下步骤:
显示地图信息,并基于主题空间选择信息在地图上显示相应的场景定位区范围。
可选的,所述的基于判断结果进行实时图像采集,并对实时场景图像进行匹配识别的步骤,包括以下步骤:
取消地图信息显示,并激活摄像模块;
进行实时图像采集,并实时显示实时场景图像;
基于选定的场景模式对实时场景图像进行点云识别。
可选的,所述的基于场景精确定位信息显示识别区的步骤,包括:
基于场景精确定位信息确定当前位置坐标,其中,空间定位区基于世界坐标系设定;
基于当前位置坐标信息进行空间定位区的坐标空间初始化;
获取识别区在空间定位区的坐标空间的坐标信息,并在空间定位区的相应的位置生成识别区标志。
可选的,所述的基于场景精确定位信息显示识别区的步骤中,还包括:
显示与当前位置坐标相距预设距离内的识别区标志。
可选的,所述的基于场景精确定位信息显示识别区的步骤中,还包括:
显示与当前位置坐标相距预设距离外的识别区标志,并设置与当前位置坐标相距预设距离内外的识别区标志为不同样式。
可选的,所述预设距离为10~15米。
通过采用上述技术方案,由于卫星信号在进行小范围定位时,会随着被定位点的移动而逐渐增大误差,且这个误差与定位时间相关。也就是说,在利用匹配模型进行精确定位后,需要在短时间内移动到识别区标志的位置,在长时间且长距离移动过程中,可能会发生识别区标志的漂移而导致定位发生偏差。因此,通过仅仅显示近处的识别区标志来引导用户进行小范围移动,或者通过同时显示并区别显示近处和远处的识别区标志,以引导用户在移动到远处识别区标志处时,再一次获取实时场景图像并利用匹配模型再次进行精确定位。特别的,在夜间时由于匹配模型分布较为分散,通常仅为灯光照明条件较好的场景可以作为匹配对象,用户所获得的实时场景图像将会容易丢失对夜间匹配模型对应场景的采集,故难以在任意角度随时进行精确定位,因此本方案能有效地减少误差。
可选的,所述的基于判断结果,显示对应的融合区图像的步骤包括:
若判断进入到服务区,则隐藏空间定位区中的识别区标志;
加载该识别区所对应的融合区;
获取陀螺仪信息,基于陀螺仪信息显示融合区相应位置的数字创作内容。
第三方面,本申请提供的一种基于空间互联网的场景定位系统,采用如下的技术方案:
一种基于空间互联网的场景定位系统,包括:
第一定位模块,用于基于定位装置获取初步定位信息,并基于初步定位信息判断是否进入到场景定位区;其中,场景定位区为现实空间中的划定区域;
采集识别模块,用于基于判断结果进行实时图像采集,并对实时场景图像进行匹配识别;其中,现实空间与全域互联空间基于相同坐标系建立,全域互联空间中对应于场景定位区的区域划定为空间定位区,空间定位区内设定有用于进行图像识别的匹配模型;
第二定位模块,用于基于匹配识别结果获取场景精确定位信息;
第一显示模块,用于基于场景精确定位信息显示识别区,其中,识别区划定于空间定位区内,且在场景定位区中对应有服务区;
第三定位模块,用于获取卫星定位信息,并基于卫星定位信息或精确定位信息判断是否进入到服务区;
第二显示模块,用于基于判断结果,显示对应的融合区图像,其中,融合区设置于全域互联空间中且一一对应于服务区,融合区内用于设置数字创作内容。
第三方面,本申请提供的一种电子设备,采用如下的技术方案:
一种电子设备,其包括:
一个或多个处理器;
存储器;
一个或多个应用程序,其中所述一个或多个应用程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序配置用于:
执行上述的基于空间互联网的场景定位方法。
第四方面,本申请提供的一种计算机可读存储介质,采用如下的技术方案:
一种计算机可读存储介质,存储有能够被处理器加载并执行如上的上述方法的计算机程序。
所述存储介质存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现:
如上述的基于空间互联网的场景定位方法。
综上所述,本申请包括以下至少一种有益技术效果:
1、识别准确:能够利用多种定位方式进行有机组合,利用更少的资源来对场景进行更好的识别,从而将现实空间与虚拟空间更好的融合;
2、化繁为简:在建立新的场景识别区时,无需对场景进行大范围扫描以生成匹配模型,能够有效节约成本。同时,采用最简便的采集方式,定制开发工具,让更多的人能使用;
3、拓展性强:对于同一个场景识别区,能够与不同的融合区空间进行对应,不同的融合区空间能够容纳不同的内容,通过一区多用的方式,即能够有效节约成本,也能够便于在后期让更多的开发者使用;
4、分类明确:对白天和黑夜两种场景进行区分,并分别生成相应的匹配模型,避免了白天模型在黑夜中难以被识别的问题。同时,在不同时间段进入不同空间,有利于呈现相应时间段所对应的不同内容效果,使得数字创作内容与实际场景的融合更加和谐,表现效果更好;
5、传输便捷:采用实时数据传输的形式,调取云端内容进行预加载或者实时加载,以减小庞大的模型数据对手机内容的影响;
6、范围精准:进行场景定位区和服务区的双重划分,能够将人群引流到观赏价值较高的场景区域,再通过分散设置的服务区进行人群分流,实现引流和分流之间的平衡,在有限的范围内避免人群聚集。
附图说明
图1是本申请实施例中一种基于空间互联网的场景定位方法的流程图。
图2是本申请实施例中S1子步骤的流程图。
图3是本申请实施例中S3子步骤的流程图。
图4是本申请实施例中S4子步骤的流程图。
图5是本申请实施例中S6子步骤的流程图。
图6是本申请实施例中S8子步骤的流程图。
具体实施方式
以下结合附图,对本申请作进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
图1为某一个实施例中基于空间互联网的场景定位方法的流程示意图。应该理解的是,虽然图1的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行;除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行;并且图1中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
另外,本实施例中各步骤的标号仅为方便说明,不代表对各步骤执行顺序的限定,在实际应用时,可以根据需要各步骤执行顺序进行调整,或同时进行,这些调整或者替换均属于本发明的保护范围。
本申请实施例公开一种基于空间互联网的场景定位方法和相关设备。该场景定位方法可以应用于虚拟空间与现实空间相融合所形成复合空间系统中以进行定位,但凡需要在多空间系统进行精确定位时均可采用本方法。在本方案中,以作为一种全域互联空间和现实空间相融合所形成的空间互联网的场景定位方法。
全域互联空间是计算机以数码的形式进行模拟和再现,所形成的用于容纳数字的文本、图形、图像和景观等的空间。作为示例的,在一些实施例中,全域互联空间由服务器或终端中的既定的计算机程序定义生成,即全域互联空间的构建以计算机代码的形式执行得到,全域互联空间的内容以计算机数据的形式存储在存储器中。对于全域互联空间而言,其所使用的参考系相对于现实空间更为多样,可以是均匀的或者是非均匀的坐标系,但是在本方案中优选为与现实空间相同的坐标系,以便于确定现实空间和全域互联空间各点的对应关系。
全域互联空间内设置有若干的空间定位区,该空间定位区为全域互联空间的某一局部区域,在现实空间中对应有场景定位区,场景定位区是基于现实空间划定的一个具有边界的区域。在本申请的优选实施例中,空间定位区在现实空间的对应区域与场景定位区相重叠。空间定位区内容置有与现实空间内的场景相对应的模型,也就是说,空间定位区内模型与场景定位区内的场景的道路、建筑、空间、景观、坐标轴等各类信息相对应。在本申请的优选实施例中,全域互联空间的模型各点坐标和现实空间场景的各点坐标一一对应。现实空间中的场景在建模之后,场景各点的坐标能够进行精确的数字化,具体反映在空间定位区的模型中。当终端获取到场景的实时图像时,实时图像与模型进行比对,从而计算得到终端所在的实时位置。
全域互联空间包含有一个或多个主题空间,不同的主题空间之间的关系可以类比为不同的平行世界之间的关系,在数据层面上则相当于对应于不同的数据库,因此在本申请中,不同的主题空间之间互不干扰,相对独立。进一步的,不同主题空间可以分别对应于不同的主题内容,比如为内置广告主题素材的主题空间,或为内置星空主题素材的主题空间,或为内置节庆主题素材的主题空间。
每个主题空间包含有一个或多个融合区,不同的融合区可以理解为主题空间内的不同区域,且在不同的实施例中,不同的融合区可以相互平行,互不干涉,也可以设置在同一个空间中。具体而言,空间定位区内可以划分出一个或多个局部区域作为识别区,各个主题空间在各个识别区附近均设置有一个融合区,且该融合区和现实空间一样,均以世界坐标系作为参考系,也就是说,融合区内的空间坐标与现实空间坐标一一对应。每个融合区内均对应设置有数字创作内容,数字创作内容用于与现实空间中的场景配合,以在融合呈现在终端上给予用户更好的体验。
另外,识别区在现实空间中对应有服务区,服务区是基于现实空间划定的一个具有边界的区域,作为用于融合现实空间和全域互联空间内景象的通道。在一些实施例中,可以采用定位装置进行精确定位,以在世界坐标系上标定服务区具体的坐标位置,生成数据并上传存储到服务器中。终端可以通过某种融合方法,来使得现实空间和全域互联空间内的图像相互叠加,并在终端设备上形成相应的图像,以供使用者观看使用,比如进行拍照或进行视频录制。
参照图1,该场景定位方法包括以下步骤:
S1.选定主题空间,其中,不同的主题空间在同一服务区处对应有不同的融合区。
由于主题空间的种类繁复多样,且不同的主题空间所对应的有效空间定位区各有不同。举个例子,场景定位区为在现实空间中所划定的区域,因此场景定位区可以为不相连通的多个区域,而空间定位区与场景定位区相对应,因此空间定位区在全域互联空间中也可以是不相连通的多个区域。需要注意的是,分区块的空间定位区对应的数据可以设定多个资源包的形式进行分别加载,也可以设定为单个资源包的形式进行统一加载。
不同的主题空间可以设置为能够统一利用上空间定位区的所有数据,也就是在所有划定的场景定位区中均能够进入到所有的主题空间。但是,对于一些空间定位区而言,其内的数据是难以被所有主题同时利用的,比如在江景区则无法利用山川主题,在室内则无法利用星空主题。而且,目前常见的终端存在有容量和算力的限制,因此不同的主题空间可以设置为分别对应于空间定位区的不同局部区域,也就是说,所对应的局部区域为有效区域,其它区域为被屏蔽的区域。
因此,在进行定位前,可以对主题空间进行选定,以便于筛选出所适合进入的场景定位区,以及所需要进入的主题空间。
作为示例的,参照图2,这里具体但不限定地提出用于实现S1的子步骤S11-S13。
S11.进行场景模式选定。
在不同的光照条件下,空间定位区内的模型实际上需要在相应光照条件下进行重新采集,重新构建,以便于用于在相应光照条件作为定位参考。因此,场景模式可以分为白昼模式和黑夜模式,当然,也可以包括有其它的模式,但凡以光照强度作为区分所产生的模式即可。
具体的,在一些实施例中,可以通过在终端上显示相应的操作界面,操作界面上显示场景模式选项来供用户选择。用户对操作界面输入后,终端即获得场景模式选择信息。在另一些实施例中,终端可以利用终端上的摄像模组获取图像信息,并基于图像信息判断当前所处场景为白昼还是黑夜,并基于判断结果进入对应的场景模式。在另一些实施例中,终端还可以获取当前时间,并基于当前时间判断当前所处场景为白昼还是黑夜,基于判断结果进入对应的场景模式。
S12.基于场景模式显示可选的主题空间。
S13.获取主题空间选择信息。
在选择进入到白昼模式和黑夜模式后,终端在显示界面上可以列举出相应的主题空间列表,以供用户进行选择。用户对操作界面输入后,终端即获得主题空间选择信息。
S2.显示地图信息,并基于主题空间选择信息在地图上显示相应的场景定位区范围。
地图信息可以预加载于终端,当地图加载在显示屏幕上时,终端能够在显示屏幕上显示相应的范围。比如,地图上可以通过线条围合相应的区域以对场景定位区的范围进行示意,或者相应的区域上色以对场景定位区的范围进行示意。通过对地图进行标识,能方便用户了解场景定位区的分布和范围,以便于进行路线规划。
进一步的,该地图信息可以为导航软件上的地图信息,即终端上用于实现空间互联网的软件通过接口与导航软件连接,或者将相应的资源包导入到导航软件上以在导航软件中对场景定位区进行示意,以便于进行推广。
需要注意的是,在不同的实施例中,可以选择在地图上显示所有的场景定位区范围,也可以隐藏部分场景定位区范围。对于隐藏的场景定位区范围,可以设定为在地图上始终隐藏,或者靠近一定距离后在地图上显示相应的范围,靠近的距离可以基于实际需求所设定。
S3.基于定位装置获取初步定位信息,并基于初步定位信息判断是否进入到场景定位区。
终端在现实空间的定位信息可以通过多种方式测得,并经过该定位信息判断是否进入到场景定位区。需要注意的是,该初步定位信息是大范围而相对粗略的,无需用户到达指定地点而可以利用外部装置远程地显示相对位置的。在不同的实施例中,该信息可以由GPS定位仪、手机、AR眼镜等具有远程定位模块,通过接收外部装置的发出的定位信息而生成。当然,初步定位信息也可以不依赖于空间定位坐标进行生成,在某些实施例中,也可以由现实场景中布置的实体定位设备生成,比如基站、蓝牙设备等信号发出源,其发出的信号内包含有唯一识别信息,以便于终端设备在靠近其一定距离时即可判定为进入到对应的场景定位区。也就是说,初步定位信息也可以基于该唯一识别信息进行设定。
作为示例的,参照图3,这里具体但不限定地提出用于实现S3的子步骤S31-S32。
S31.读取场景定位区列表,其中,场景定位区列表内存储有各场景定位区的范围信息。
S32.获取卫星定位信息,并对卫星定位信息和场景定位区列表进行匹配,基于匹配结果确定所进入场景定位区的判断结果。
在实施例中以卫星定位信息作为初步定位信息进行示例,需要注意的是,这并不意味着S31-S32仅适用于卫星定位信息,但凡符合要求的初步定为信息均可对卫星定位信息进行替换以适应于该步骤。卫星定位信息可以基于北斗卫星导航系统(BeiDouNavigation Satellite System)、全球定位系统(Global Positioning System)等卫星定位系统获得,其具有全天候、大范围、反应迅速的优点。在不同实施例中,定位服务可以是实时接收,也可以是间断接收,但凡接收的频次足以让终端及时判断与场景定位区的相对位置即可。该获得的定位信息具有精度相对较低的特点,但是相比于百平米起步场景定位区,足以用于判定与场景定位区的相对位置关系。
场景定位区列表包含了该主题空间下对应的各个场景定位区的范围信息,在一些实施例中,范围信息可以包括中心点和半径信息,终端可以通过测算初步定位信息与中心点的距离,来与半径信息比较,从而判断是否进入场景定位区中。在另一些实施例中,范围信息也可以包括若干个边缘点,并基于各个边缘点在世界坐标系中的连线作为场景定位区范围,终端可以通过测算终端是否进入到该连线区域,来判断是否进入到场景定位区中。当然,也可以基于其它的算法来依据初步定位信息判断终端是否进入到场景定位区中,这里并不对算法的类型进行限定,但凡能够利用初步定位信息大致判定终端是否进入到场景定位区的方法即可。
需要注意的是,步骤S3为实现该定位方法的可选步骤,如果存在有该步骤S3,那么则在判定进入到场景定位区时,切出地图画面。
S4.基于判断结果进行实时图像采集,并对实时场景图像进行匹配识别。
场景定位区为现实空间中划定的确切封闭区域,匹配模型是基于场景定位区内的场景信息所生成,然后设置在空间定位区中的。比如,在现实空间划定确切的封闭区域后(即场景定位区),对该封闭区域进行三维数据扫描,从而将该封闭区域中的空间信息和场景信息进行信息化存储。三维扫描数据可以使用激光雷达来获取三维点云数据,三维点云数据对应的每个点都包含了三维坐标信息,有时还包含颜色信息、反射强度信息、回波次数信息等。通过该三维扫描数据来进行空间定位区内匹配模型的搭建,从而将现实空间的实体物体建模在空间定位区中。该匹配模型在空间定位区中为隐性设置,也可以为显性设置,但凡和现实空间中的实体物体相重合即可。需要注意的是,匹配模型设置于空间定位区中只是一种便于理解的描述,由于无论空间定位区还是匹配模型均为由服务器或终端中的既定的计算机程序定义生成,即空间定位区还是匹配模型的构建以计算机代码的形式执行得到,空间定位区还是匹配模型的内容以计算机数据的形式存储在存储器中,因此,只要匹配模型以确定的姿态、大小定义在空间定位区中的某点,以用于进行被识别和匹配,即可认为是将匹配模型设定于空间定位区中。
需要注意的是,白昼模式和黑夜模式下的匹配模型的建立是有所区别的。在白昼时,场景的光照充足,因此场景中各物体中的特征清晰可见,容易被扫描形成匹配模型,且在光照充足的环境下,实时采集图像同样清晰,因此能够高效地与匹配模型进行匹配。然而,夜间场景在进行匹配模型的采集和建立时,通常实时场景图像拍摄到的是昏暗的物体,图像中的特征不清晰,难以与白天场景采集得到的匹配模型进行匹配。因此,夜间场景需要额外根据现场的光照条件额外生成夜间匹配模型。通常,由于处于良好灯照条件下的夜间匹配模型够被良好识别,而光源通常是分散设置的,因此在通常情况下,夜间匹配模型是分散分布于空间定位区中的。用户所获得的实时场景图像中往往不会包含有夜间匹配模型对应物体。
作为示例的,参照图4,这里具体但不限定地提出用于实现S4的子步骤S41-S43。
S41.取消地图信息显示,并激活摄像模块。
S42.进行实时图像采集,并实时显示实时场景图像。
实时图像采集可以通过终端上的摄像模块实现,并在终端的屏幕上进行显示,以便于用户调整终端的姿态以寻找建立好的匹配模型。
S43.基于选定的场景模式对实时场景图像进行点云识别。
在不同的场景模式下,同一个场景定位区对应的空间定位区内可能会设置有不同的匹配模型,在这里匹配模型以点云模型为例进行说明。
举个例子,比如对于上海外滩的上海市人民英雄纪念碑区域进行划区,并进行三维数据扫描,获取三维扫描数据并在空间定位区内用于作为进行图像匹配的参考模型。全域互联空间是与现实空间相对应的空间,其内空间坐标点一一映射。现实空间中的场景在建模之后,场景各点的坐标能够进行精确的数字化,具体反映在空间定位区的模型中。当终端获取到实时场景图像时,实时场景图像与模型进行比对,从而获取到终端在空间定位区中的坐标位置,从而对终端实现精确定位。具体的,生成的模型在空间定位区的特征信息一一对应于场景定位区中场景的特征信息,比如坐标信息或矢量信息等。
另外,使用点云模型进行区域精准定位的方案中,需要在前期需要使用激光雷达等特定设备来进行环境全景扫描。如果对全域进行全景扫描,则所需要人力物力多且产生的数据量大,存在大量的公路、原野等缺乏人流的内容。由于对于该部分内容的利用率较低,当其现实场景发生变更时,终端设备基于现实场景拍摄到的图像将无法与已建立好的模型相匹配,导致识别效果下降或无法识别。另外,由于人流稀少,该问题也难以被及时发现。因此,在本方案中,可以利用定位装置这种外部装置进行大范围的初步定位,对用户所处位置进行圈定,以使得流量集中,同时避免了上述的模型构建问题。
S5.基于匹配识别结果获取场景精确定位信息。
在进入场景定位区后,通过点云模型进行定位,使得终端在空间定位区中能够精确到厘米级的定位,以便于后期数字创作内容能够与实时场景图像能够进行精确对位。
S6.基于场景精确定位信息显示识别区,其中,识别区划定于空间定位区内,且在场景定位区中对应有服务区。
由于服务区对应的范围较小,通常只有一米见方或者几平米的大小,因此需要对用户进行精确的指引。模型匹配步骤中即已经将终端和实时场景图像中的场景精确定位于空间识别区的坐标系中。因此在空间定位区中对识别区进行显示,该识别区能够与实时场景图像中服务区的位置精确配位,即可精确地反应出服务区在现实空间中的位置。
作为示例的,参照图5,这里具体但不限定地提出用于实现S6的子步骤S61-S63。
S61.基于场景精确定位信息确定当前位置坐标。
S62.基于当前位置坐标信息进行空间定位区的坐标空间初始化。
S63.获取识别区在空间定位区的坐标空间的坐标信息,并在空间定位区的相应的位置生成识别区标志。
识别区标志可以是落在场景图像上的光环、光柱、或者浮标等,但凡能够用于示意识别区位置的图像均可。需要注意的是,该图像并不限定为三维图像或者二维图像,也不限定为动态图像或者静态图像。
可选的,该实现S6的实施例还可以包括以下步骤:
S64.显示与当前位置坐标相距预设距离内的识别区标志。
S65.显示与当前位置坐标相距预设距离外的识别区标志,并设置与当前位置坐标相距预设距离内外的识别区标志为不同样式。
由于卫星信号在进行小范围定位时,会随着被定位点的移动而逐渐增大误差,且这个误差与定位时间相关。也就是说,在利用匹配模型进行精确定位后,需要在短时间内移动到识别区标志的位置,在长时间且长距离移动过程中,可能会发生识别区标志的漂移而导致定位发生偏差。因此,通过仅仅显示近处的识别区标志来引导用户进行小范围移动,或者通过同时显示并区别显示近处和远处的识别区标志,以引导用户在移动到远处识别区标志处时,再一次获取实时场景图像并利用匹配模型再次进行精确定位。特别的,在夜间时由于匹配模型分布较为分散,通常仅为灯光照明条件较好的场景可以作为匹配对象,终端所获得的实时场景图像将会容易丢失对夜间匹配模型对应场景的采集,故难以在任意角度随时进行精确定位。因此,终端在行进到相距预设距离外的识别区标志处时,可以再次进行实时场景图像采集,从而重新获得精确定位信息。在具体的实施例中,预设距离能够有所不同,可以根据具体场景的气象条件、环境条件进行调整。作为示例的,在本实施例中预设距离设定为10~15米。
S7.获取卫星定位信息,并基于卫星定位信息或精确定位信息判断是否进入到服务区。
由于匹配模型的数量不确定,在一些空间定位区中,可能存在匹配模型较少的情况,终端的摄像模组从朝向匹配模型的方向移开后,则坐标空间不会重新初始化,识别区标志将会持续停留在空间定位区中的相应位置,且不会随着实时场景图像的晃动或移动而从该位置离开。
在该情况下,终端所处位置与识别区标志的相对距离小,只需要通过卫星定位信息获取到终端的移动量,再结合终端初始定位在空间定位区中的位置,即可判断是否进入到服务区。这里之所以能够选择卫星定位信息进行定位,是由于在该步骤中,只需要利用卫星定位导航系统获取终端的移动量,而非终端在世界坐标系中的真实坐标。卫星定位导航系统的测量误差的来源可分卫星部分、信号传播部分、信号接收部分和其它部分,因此需要尽可能多颗卫星进行配合,来消除误差。在实际应用中发现,对于终端真实位置的定位,将会由于各种原因在地图上发生漂移,而这种漂移对于服务区这样的小面积区域定位会产生显著的影响。而在只需要计算位移量的情况下,且终端到服务区之间的移动为短时间小距离的移动,则误差部分将会被较大程度地消除,从而产生更为精确的定位效果,以便于终端进入服务区时能够准确识别并发起下一步骤。
需要注意的是,在白昼模式下,由于匹配模型是连续建立的,因此实时场景图像能够随时采集到匹配模型对应的物体,因此能够基于精确定位信息不断进行定位,仅在未能获得精确定位信息时再使用卫星定位信息进行定位。而在夜间模式下,由于夜间匹配模型分布较为分散,因此需要同时借助卫星定位信息或精确定位信息判断是否进入到服务区。
可选的,在夜间模式下,可以通过配合同时读取陀螺仪的信息,来判断终端是否朝向匹配模型的位置,这里可以基于预设的陀螺仪信息设定一个范围。当偏离出该范围时,则停止终端进行模型匹配的进程,并进行基于卫星定位信息判断是否进入到服务区的进程。
S8.基于判断结果,显示对应的融合区图像,其中,融合区设置于全域互联空间中且一一对应于服务区,融合区内用于设置数字创作内容。
终端在进入到服务区后,则将会将之前选定的主题空间在该服务区所对应的融合空间以图像的形式显示在终端上。与此同时,终端获取实时场景图像,并将融合区图像投影在实时场景图像上以形成叠加图像。
作为示例的,参照图6,这里具体但不限定地提出用于实现S8的子步骤S81-S83。
S81.若判断进入到服务区,则隐藏空间定位区中的识别区标志;
S82.加载该识别区所对应的融合区;
S83.获取陀螺仪信息,基于陀螺仪信息显示融合区相应位置的数字创作内容。
需要注意的是,由于终端具有可移动性,摄像模块上的视角有限,而融合区为三维立体空间,因此利用陀螺仪信息能够计算得到融合区中进入到摄像模块上的视角内的内容范围,以便于将对应于实时场景图像的融合区图像叠加在实时场景图像上。
本申请实施例还公开一种基于空间互联网的场景定位系统,该场景定位系统包括:
第一定位模块,用于基于定位装置获取初步定位信息,并基于初步定位信息判断是否进入到场景定位区;其中,场景定位区为现实空间中的划定区域;
采集识别模块,用于基于判断结果进行实时图像采集,并对实时场景图像进行匹配识别;其中,现实空间与全域互联空间基于相同坐标系建立,全域互联空间中对应于场景定位区的区域划定为空间定位区,空间定位区内设定有用于进行图像识别的匹配模型;
第二定位模块,用于基于匹配识别结果获取场景精确定位信息;
第一显示模块,用于基于场景精确定位信息显示识别区,其中,识别区划定于空间定位区内,且在场景定位区中对应有服务区;
第三定位模块,用于获取卫星定位信息,并基于卫星定位信息或精确定位信息判断是否进入到服务区;
第二显示模块,用于基于判断结果,显示对应的融合区图像,其中,融合区设置于全域互联空间中且一一对应于服务区,融合区内用于设置数字创作内容。
本申请实施例还公开一种电子设备,包括存储器和处理器,所述存储器上存储有能够被处理器加载并执行如上述基于空间互联网的场景定位方法的计算机程序。本实施例方法的执行主体可以是一种控制装置,该控制装置设置在电子设备上,当前设备可以是具有WIFI功能的手机,平板电脑,笔记本电脑等电子设备,本实施例方法的执行主体也可以直接是电子设备的CPU(central processing unit,中央处理器)。
本申请实施例还公开一种计算机可读存储介质,存储有能够被处理器加载并执行如上的基于空间互联网的场景定位方法的计算机程序。通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台设备(可以是手机,计算机,服务器,被控终端,或者网络设备等)执行本申请每个实施例的方法。
以上均为本申请的较佳实施例,并非依此限制本申请的保护范围,故:凡依本申请的结构、形状、原理所做的等效变化,均应涵盖于本申请的保护范围之内。
Claims (16)
1.一种基于空间互联网的场景定位方法,其特征在于,包括以下步骤:
基于定位装置获取初步定位信息,并基于初步定位信息判断是否进入到场景定位区;其中,场景定位区为现实空间中的划定区域;
基于判断结果进行实时图像采集,并对实时场景图像进行匹配识别;其中,现实空间与全域互联空间基于相同坐标系建立,全域互联空间中对应于场景定位区的区域划定为空间定位区,空间定位区内设定有用于进行图像识别的匹配模型;
基于匹配识别结果获取场景精确定位信息;
基于场景精确定位信息显示识别区,其中,识别区划定于空间定位区内,且在场景定位区中对应有服务区;
获取卫星定位信息,并基于卫星定位信息或精确定位信息判断是否进入到服务区;
基于判断结果,显示对应的融合区图像,其中,融合区设置于全域互联空间中且一一对应于服务区,融合区内用于设置数字创作内容。
2.根据权利要求1所述的场景定位方法,其特征在于,还包括以下步骤:
选定主题空间,其中,不同的主题空间在同一服务区处对应有不同的融合区。
3.根据权利要求2所述的场景定位方法,其特征在于,所述的选定主题空间的步骤,包括:
进行场景模式选定;
基于场景模式显示可选的主题空间;
获取主题空间选择信息。
4.根据权利要求3所述的场景定位方法,其特征在于,所述场景模式包括白昼模式和黑夜模式。
5.根据权利要求4所述的场景定位方法,其特征在于,在所述黑夜模式下,所述匹配模型为夜间匹配模型且分散分布于空间定位区中。
6.根据权利要求1所述的场景定位方法,其特征在于,所述的基于定位装置获取初步定位信息,并基于初步定位信息判断是否进入到场景定位区的步骤,包括:
读取场景定位区列表,其中,场景定位区列表内存储有各场景定位区的范围信息;
获取卫星定位信息,并对卫星定位信息和场景定位区列表进行匹配,基于匹配结果确定所进入场景定位区的判断结果。
7.根据权利要求1所述的场景定位方法,其特征在于,还包括以下步骤:
显示地图信息,并基于主题空间选择信息在地图上显示相应的场景定位区范围。
8.根据权利要求7所述的场景定位方法,其特征在于,所述的基于判断结果进行实时图像采集,并对实时场景图像进行匹配识别的步骤,包括以下步骤:
取消地图信息显示,并激活摄像模块;
进行实时图像采集,并实时显示实时场景图像;
基于选定的场景模式对实时场景图像进行点云识别。
9.根据权利要求1-5任一项所述的场景定位方法,其特征在于,所述的基于场景精确定位信息显示识别区的步骤,包括:
基于场景精确定位信息确定当前位置坐标,其中,空间定位区基于世界坐标系设定;
基于当前位置坐标信息进行空间定位区的坐标空间初始化;
获取识别区在空间定位区的坐标空间的坐标信息,并在空间定位区的相应的位置生成识别区标志。
10.根据权利要求9所述的场景定位方法,其特征在于,所述的基于场景精确定位信息显示识别区的步骤中,还包括:
显示与当前位置坐标相距预设距离内的识别区标志。
11.根据权利要求10所述的场景定位方法,其特征在于,所述的基于场景精确定位信息显示识别区的步骤中,还包括:
显示与当前位置坐标相距预设距离外的识别区标志,并设置与当前位置坐标相距预设距离内外的识别区标志为不同样式。
12.根据权利要求10或11所述的场景定位方法,其特征在于,所述预设距离为10~15米。
13.根据权利要求1所述的场景定位方法,其特征在于,所述的基于判断结果,显示对应的融合区图像的步骤包括:
若判断进入到服务区,则隐藏空间定位区中的识别区标志;
加载该识别区所对应的融合区;
获取陀螺仪信息,基于陀螺仪信息显示融合区相应位置的数字创作内容。
14.一种基于空间互联网的场景定位系统,其特征在于,包括:
第一定位模块,用于基于定位装置获取初步定位信息,并基于初步定位信息判断是否进入到场景定位区;其中,场景定位区为现实空间中的划定区域;
采集识别模块,用于基于判断结果进行实时图像采集,并对实时场景图像进行匹配识别;其中,现实空间与全域互联空间基于相同坐标系建立,全域互联空间中对应于场景定位区的区域划定为空间定位区,空间定位区内设定有用于进行图像识别的匹配模型;
第二定位模块,用于基于匹配识别结果获取场景精确定位信息;
第一显示模块,用于基于场景精确定位信息显示识别区,其中,识别区划定于空间定位区内,且在场景定位区中对应有服务区;
第三定位模块,用于获取卫星定位信息,并基于卫星定位信息或精确定位信息判断是否进入到服务区;
第二显示模块,用于基于判断结果,显示对应的融合区图像,其中,融合区设置于全域互联空间中且一一对应于服务区,融合区内用于设置数字创作内容。
15.一种电子设备,其特征在于,其包括:
一个或多个处理器;
存储器;
一个或多个应用程序,其中所述一个或多个应用程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序配置用于:
执行根据权利要求1至13任一项所述的基于空间互联网的场景定位方法。
16.一种计算机可读存储介质,其特征在于,所述存储介质存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现:
如权利要求1至13任一项所述的基于空间互联网的场景定位方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211402001.XA CN117029815A (zh) | 2022-11-10 | 2022-11-10 | 基于空间互联网的场景定位方法和相关设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211402001.XA CN117029815A (zh) | 2022-11-10 | 2022-11-10 | 基于空间互联网的场景定位方法和相关设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117029815A true CN117029815A (zh) | 2023-11-10 |
Family
ID=88637770
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211402001.XA Pending CN117029815A (zh) | 2022-11-10 | 2022-11-10 | 基于空间互联网的场景定位方法和相关设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117029815A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117668574B (zh) * | 2024-01-31 | 2024-05-14 | 利亚德智慧科技集团有限公司 | 光影秀的数据模型优化方法、装置、设备及存储介质 |
-
2022
- 2022-11-10 CN CN202211402001.XA patent/CN117029815A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117668574B (zh) * | 2024-01-31 | 2024-05-14 | 利亚德智慧科技集团有限公司 | 光影秀的数据模型优化方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107450088B (zh) | 一种基于位置的服务lbs的增强现实定位方法及装置 | |
JP5547860B1 (ja) | ユーザの現在位置と現在方位角を用いて目的の地理的情報を検索してユーザに提供するユーザ携帯端末 | |
US20130314398A1 (en) | Augmented reality using state plane coordinates | |
EP2302531A1 (en) | A method for providing an augmented reality display on a mobile device | |
CN1755326A (zh) | 导航装置 | |
CN109883418A (zh) | 一种室内定位方法及装置 | |
US20220138467A1 (en) | Augmented reality utility locating and asset management system | |
Muthalif et al. | A review of augmented reality visualization methods for subsurface utilities | |
JP2011138258A (ja) | 景観再現システム | |
Ling et al. | A hybrid rtk gnss and slam outdoor augmented reality system | |
JP6665402B2 (ja) | コンテンツ表示端末、コンテンツ提供システム、コンテンツ提供方法、および、コンテンツ表示プログラム | |
CN102946476B (zh) | 一种快速定位的方法及装置 | |
CN114332422A (zh) | 一种基于ar技术的虚拟空间互动方法、编辑更新方法、系统、电子设备和可读存储介质 | |
CN108955723B (zh) | 增强现实市政管网的校准方法 | |
CN110969704B (zh) | 一种基于ar导视的标记生成跟踪方法及装置 | |
US20230334850A1 (en) | Map data co-registration and localization system and method | |
CN116229028A (zh) | 基于ar的施工指示方法、装置、电子设备及存储介质 | |
CN117029815A (zh) | 基于空间互联网的场景定位方法和相关设备 | |
KR20150020421A (ko) | 휴대용 측량 단말기를 이용한 증강 현실 기반의 측량 시스템 | |
CN113724397A (zh) | 虚拟对象的定位方法、装置、电子设备及存储介质 | |
US20220264255A1 (en) | Network unilateral communication location electronic underpinning system | |
Zhang et al. | Mixed reality annotations system for museum space based on the UWB positioning and mobile device | |
CN112558008A (zh) | 基于光通信装置的导航方法、系统、设备及介质 | |
JP7323689B1 (ja) | 表示装置、表示方法、及び、表示プログラム | |
Hew et al. | Markerless Augmented Reality for iOS Platform: A University Navigational System |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |