CN110967014B - 一种基于增强现实技术的机房室内导航和设备追踪的方法 - Google Patents
一种基于增强现实技术的机房室内导航和设备追踪的方法 Download PDFInfo
- Publication number
- CN110967014B CN110967014B CN201911018011.1A CN201911018011A CN110967014B CN 110967014 B CN110967014 B CN 110967014B CN 201911018011 A CN201911018011 A CN 201911018011A CN 110967014 B CN110967014 B CN 110967014B
- Authority
- CN
- China
- Prior art keywords
- point
- image
- points
- machine room
- panoramic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000005516 engineering process Methods 0.000 title claims abstract description 25
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 16
- 238000007689 inspection Methods 0.000 claims abstract description 22
- 238000013507 mapping Methods 0.000 claims abstract description 10
- 230000000007 visual effect Effects 0.000 claims abstract description 7
- 230000008569 process Effects 0.000 claims description 10
- 230000009466 transformation Effects 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 6
- 230000004927 fusion Effects 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 6
- 230000004044 response Effects 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 4
- 230000005540 biological transmission Effects 0.000 claims description 3
- 230000001419 dependent effect Effects 0.000 claims description 3
- 230000002093 peripheral effect Effects 0.000 claims description 3
- 238000012549 training Methods 0.000 claims description 3
- 238000012423 maintenance Methods 0.000 abstract description 5
- 230000008092 positive effect Effects 0.000 abstract description 2
- 238000007726 management method Methods 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000009439 industrial construction Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
Abstract
本发明提出了一种基于增强现实技术的机房室内导航和设备追踪的方法,包括以下步骤:通过全景相机三维扫描采集机房场景状态数据,建立三维虚拟机房模型;采用指纹定位算法确定当前巡检位置信息,建立位置指纹识别数据库;根据全景图像采集到的当前图像,判断当前图像与参考图像是否为同一室内环境,如果是,则提取当前图像中的特征点,寻找当前图像与参考图像之间的映射关系,运用视觉定位算法将当前图像的位置点投影标记到虚拟场景对应点之上;建立参考坐标系,根据特定环境实时生成虚拟定位信息和导航信息。本发明的室内导航和设备追踪能够帮助巡检人员快速定位的具体设备,对于提升调度运维工作效率有巨大的积极作用。
Description
技术领域
本发明涉及软件技术领域,特别涉及一种基于增强现实技术的机房室内导航和设备追踪的方法。
背景技术
电力是我国工业化建设领域的重大基础服务型行业,关系到国计民生的发展。所以需要主动掌握设备的运行状况及动态,因此机房巡检工作尤为重要。机房巡检是信息通信机房管理最基本的工作内容,同时也是机房管理运营中技术难度较高的一环。在确保电力系统安全运行的前提下,要求能够对机房设备、通道环境的状态全面的感知、动态的分析、及时的预警,各层级运检管理人员对机房进行更有效地管控。随着电子信息技术的不断发展,信息技术正以前所未有的广度和深度与信息通信管理快速融合,电力系统的自动化智能化要求也不断增加。针对目前机房巡检的精度问题,目前大部分企业已经开始部署增强现实技术的机房巡检技术。智能巡检技术处理人工操作更便捷智能,并有利于建立电网自身的智能巡检数据库。
发明内容
本发明的目的旨在至少解决所述技术缺陷之一。
为此,本发明的目的在于提出一种基于增强现实技术的机房室内导航和设备追踪的方法,室内导航和设备追踪能够帮助巡检人员快速定位的具体设备,并且帮助规划路线,对于提升调度运维工作效率有巨大的积极作用。
为了实现上述目的,本发明提供一种基于增强现实技术的机房室内导航和设备追踪的方法,包括以下步骤:
步骤S1,虚拟机房全景建模:通过全景相机三维扫描采集机房场景状态数据,建立三维虚拟机房模型;
步骤S11,图像采集:在机房内设置多个全景相机,使用全景相机获取机房场景的全景图像;
步骤S12:图像投影:将获取的全景图像进行360度柱面投影,得到机房环视场景的图像源,并获取所有图像源对应的场景空间信息;
步骤S13:图像拼接:根据步骤S12得到的图像源,经过预处理和统一坐标变换后进行图像配准和图像融合,最终得到拼接全景图;
步骤S14:场景存储和显示:将步骤S13得到的拼接全景图保存后,通过web页面浏览机房各个拼接全景图;
步骤S2,定位模块:根据全景相机的位置信息,采用指纹定位算法确定当前巡检位置信息,建立位置指纹识别数据库;
步骤S21,训练阶段:采用基于信号强度的Wi-Fi室内定位技术,建立无线信号强度和位置信息稳定映射关系,根据定位精度的要求划分环境网格,并确定Wi-Fi设备的位置采集点,使得所有采集点能够辐射到所有网格点,然后,分别测量所有网格位置的信号强度值,并将每一位网格的位置信息存储到室内环境位置指纹识别数据库中;
步骤S22,定位当前巡检位置:将当前巡检位置作为待测点,根据室内环境位置指纹识别数据库,采用最近邻法将待测点多个周边位置检测到的位置采集点的值与位置指纹识别数据库中已存储的记录进行比较和匹配,再计算出待测点位置估计值;
步骤S3,根据全景图像采集到的当前图像,判断当前图像与参考图像是否为同一室内环境,如果是,则提取当前图像中的特征点,寻找当前图像与参考图像之间的映射关系,运用视觉定位算法将当前图像的位置点投影标记到虚拟场景对应点之上;
步骤S4,获取特征点的三维坐标,建立参考坐标系,根据特定环境实时生成虚拟定位信息和导航信息。
在上述任一方案中优选的是,在步骤S12中,对于实景图像上的任意一个像素点(x,y),其柱面正投影到柱面全景图像上的坐标(x′,y′)公式为:
其中,H和W为实景图像的高和宽,单位是像素;f是相机焦距,单位也是像素。
在上述任一方案中优选的是,在步骤S13中,经过预处理和统一坐标变换后进行图像配准和图像融合的具体过程为:利用比值匹配法在步骤S12得到的图像源中寻找匹配点,首先将图像源中的一幅图像作为样本,选取样本的样本特征点,根据与样本特征点的距离在另外一幅图像中寻找最近特征点和次近特征点,然后计算最近特征点和次近特征点与样本特征点之间欧氏距离的比值;将对于比值小于某一阈值范围内的样本特征点,则认为是正确匹配的特征点;
其中,ratio表示正确匹配的特征点,di,NearestPoi表示最近特征点与样本特征点之间欧氏距离,di+j,NearestPoi表示次近特征点与样本特征点之间欧氏距离,threshold表示某一阈值范围,特征点匹配需要所有的重叠部分内进行。
在上述任一方案中优选的是,在步骤S22中,网格位置的信号强度值的计算公式为:RSS=Pt-K-10αlog10 d;
其中,RSS为网格位置的信号强度值,α为路径损耗指数,Pt是传输功率,K是决定于媒体和评率的常数。
在上述任一方案中优选的是,在步骤S21中,室内环境位置指纹识别数据库中的每个点的指纹信息为{(xi,yi),RSSIi,1,RSSIi,2,...,RSSIi,M},RSSIi,j表示在第i个点接收来自第j个点的WI-FI信号的强度,(xi,yi)表示点i的位置坐标。
在上述任一方案中优选的是,在步骤S22中,计算出待测点位置估计值的具体过程如下:
步骤S221,首先计算待测点的指纹信息与指纹数据库中的所有指纹信息的距离disti,j,{disti,j},0≤i≠j≤M;
步骤S222,步骤按照距离disti,j从下到大选取K个对应的指纹坐标作为参考坐标;
步骤S223,由最近邻法算法计算出待定点的估计坐标,k∈[1,K]。
在上述任一方案中优选的是,在步骤S3中,提取当前图像中的特征点过程如下:
步骤S31,在当前图像中选取像素p,取其亮度Ip;
步骤S32,设置阈值T=Ip*30%;
步骤S33,以像素p为圆心,取半径为3个像素做圆,如果圆上存在12个相连点的亮度不在Ip±ε范围内,其中,ε为给定误差,则像素p点称为特征点;
步骤S34,对当前图像中的每个像素执行步骤S32操作;
步骤S35,计算角点的响应值,并选择最大响应值的前N个角点组成集合A。
在上述任一方案中优选的是,采用随机抽样一致算法对特征点进行匹配,包括以下步骤:首先从集合A中任意挑选出一组局内点作为1个数据点样本;求出一套模型参数,然后在通过计算出的模型来检验另外每个数据点,若某个点的误差在设置的误差阈值之间,就确定其为局内点,否则确定为局外点,只存储当前为止局内点数量最多的模型,将其记录为最优模型,迭代执行以上步骤固定次数后,采用最优模型相应的局内点来最后计算模型的参数。
在上述任一方案中优选的是,在步骤S3中,当前图像与参考图像之间的映射关系为:当前图像的三维点齐次坐标(xt,yt,zt,1)与在参考图像上的投影齐次坐标(xt′,yt′,1)的透视投影关系:
其中,K表示个数,r1、r2、r3表示半径,T表示阈值。
在上述任一方案中优选的是,在步骤S4中,获取特征点的三维坐标,建立参考坐标系,通过带有权重的K最近邻法即WKNN算法,计算特定环境实时生成虚拟定位信息和绝对姿态;
其中,为第k个参考点的坐标,distk为第k个参考点与待定点之间的欧氏距离,Wk为WKNN算法的加权系数;
本发明的基于增强现实技术的机房室内导航和设备追踪的方法具有以下有益效果:
1、本发明将虚拟现实技术应用于机房巡检中,使得在机房内进行室内导航和设备追踪更加便捷、直观,此外,室内导航和设备追踪能够帮助巡检人员快速定位具体设备,并且帮助规划路线,提升调度运维工作效率。
2、本发明利用全景摄像头和WI-FI指纹识别定位算法确定在实际场景中的位置,电子罗盘获取摄像头的方向,结合视觉同步定位与图像绘图技术映射现实场景和虚拟场景,最终实现增强现实系统中实现导航和设备追踪功能,不仅具有较强的可用性和实用性,还具有广泛的应用前景。
3、本发明可实时采对3D虚拟场景中设备追踪和路径规划,帮助运维人员最快地找的目标设备。
4、本发明通过WI-FI指纹定位,形成实时导航信息,在一定程度上解决了目前虚拟环境内导航存在精度有限、可视性差、人机交互能力低等问题。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1是本发明的流程图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
本发明提供本发明提供一种基于增强现实技术的机房室内导航和设备追踪的方法,包括以下步骤:
步骤S1,虚拟机房全景建模:通过全景相机三维扫描采集机房场景状态数据,建立三维虚拟机房模型;
步骤S11,图像采集:在机房内设置多个全景相机,使用全景相机获取机房场景的全景图像;
步骤S12:图像投影:将获取的全景图像进行360度柱面投影,得到机房环视场景的图像源,并获取所有图像源对应的场景空间信息;
对于实景图像上的任意一个像素点(x,y),其柱面正投影到柱面全景图像上的坐标(x′,y′)公式为:
其中,H和W为实景图像的高和宽,单位是像素;f是相机焦距,单位也是像素。
步骤S13:图像拼接:根据步骤S12得到的图像源,经过预处理和统一坐标变换后进行图像配准和图像融合,最终得到拼接全景图;
经过预处理和统一坐标变换后进行图像配准和图像融合的具体过程为:利用比值匹配法在步骤S12得到的图像源中寻找匹配点,首先将图像源中的一幅图像作为样本,选取样本的样本特征点,根据与样本特征点的距离在另外一幅图像中寻找最近特征点和次近特征点,然后计算最近特征点和次近特征点与样本特征点之间欧氏距离的比值;将对于比值小于某一阈值范围内的样本特征点,则认为是正确匹配的特征点;
其中,ratio表示正确匹配的特征点,di,NearestPoi表示最近特征点与样本特征点之间欧氏距离,di+j,NearestPoi表示次近特征点与样本特征点之间欧氏距离,threshold表示某一阈值范围,特征点匹配需要所有的重叠部分内进行。
在进行图像拼接时,采用基于图像绘制(Image-Based Rendering,简称IBR)的方法,通过根据从步骤S12得到的图像源来建立场景的几何模型。
步骤S14:场景存储和显示:将步骤S13得到的拼接全景图保存后,通过web页面浏览机房各个拼接全景图;
步骤S2,定位模块:根据全景相机的位置信息,采用指纹定位算法确定当前巡检位置信息,建立位置指纹识别数据库;
上述指纹定位算法采用基于接收信号强度(Received Signal StrengthIndication)的WI-FI室内定位算法,RSSI的指纹数据库如表1所示,其中参考点j(AccessPoint,AP)的指纹信息可以表示为[RSSIj,1,RSSIj,2,...,RSSIj,i,...,RSSIj,M],其中RSSIj,i表示第j个参考点RPj接收来自第i个WI-FI接入点APi的信号强度。
表1 RSSI指纹数据库模型
步骤S21,训练阶段:采用基于信号强度的Wi-Fi室内定位技术,建立无线信号强度和位置信息稳定映射关系,根据定位精度的要求划分环境网格,并确定Wi-Fi设备的位置采集点,使得所有采集点能够辐射到所有网格点,然后,分别测量所有网格位置的信号强度值,并将每一位网格的位置信息存储到室内环境位置指纹识别数据库中;
网格位置的信号强度值的计算公式为:RSS=Pt-K-10αlog10 d;
其中,RSS为网格位置的信号强度值,α为路径损耗指数,Pt是传输功率,K是决定于媒体和评率的常数。
步骤S22,定位当前巡检位置:将当前巡检位置作为待测点,根据室内环境位置指纹识别数据库,采用最近邻法将待测点多个周边位置检测到的位置采集点的值与位置指纹识别数据库中已存储的记录进行比较和匹配,再计算出待测点位置估计值;
室内环境位置指纹识别数据库中的每个点的指纹信息为:
{(xi,yi),RSSIi,1,RSSIi,2,...,RSSIi,M};
其中,RSSIi,j表示在第i个点接收来自第j个点的WI-FI信号的强度,(xi,yi)表示点i的位置坐标。
计算出待测点位置估计值的具体过程如下:
步骤S221,首先计算待测点的指纹信息与指纹数据库中的所有指纹信息的距离disti,j,{disti,j},0≤i≠j≤M;
步骤S222,步骤按照距离disti,j从下到大选取K个对应的指纹坐标作为参考坐标;
步骤S223,由最近邻法算法计算出待定点的估计坐标,k∈[1,K]。
特征匹配采用随机抽样一致算法对特征点进行匹配,包括以下步骤:首先从集合A中任意挑选出一组局内点求出一套模型参数,然后在通过计算出的模型来检验另外每个数据点,若某个点的误差在设置的误差阈值之间,就确定其为局内点,否则确定为局外点,只存储当前为止局内点数量最多的模型,将其记录为最优模型,迭代执行以上步骤固定次数后,采用最优模型相应的局内点来最后计算模型的参数。此外,还可以根据估计局内点和模型的错误率来评价模型。匹配的准确率有了很大的提升,同时过滤掉了一部分特征点,减少了后续的计算负担,提髙效率。
具体步骤如下:
(1)随机采样:从集合A中任意挑选出一组局内点作为1个数据点样本;
(2)预检验:判断特征3角形对是否相似,如果成立,转到(3);否则,返回(1)重新选择一个数据点样本;
(3)模型参数计算:根据最大欧氏距离法选择2对特征点构成线性方程组,并求解出相似变换模型的4个参数r1,r2,r3,T;
(4)全数据检验:由变换模型参数以及阈值依次判断该特征点对是否是内点,即计算是否满足,其中i∈[1,n];
(5)如果(4)中内点的数量小于既设阈值thd,则返回(1),如果大于thd,记录内点组成的集合Sd及其对应的模型参数;(6)根据样本最大的一致集Si重新估计模型,得到最后结果并结束算法;(7)经过m次迭代,如果没有找到一致集Si,则选取(4)中内点数量最大的集合计算模型参数,得到最后结果并结束算法。
步骤S3,根据全景图像采集到的当前图像,判断当前图像与参考图像是否为同一室内环境,如果是,则提取当前图像中的特征点,寻找当前图像与参考图像之间的映射关系,运用视觉定位算法将当前图像的位置点投影标记到虚拟场景对应点之上;
提取当前图像中的特征点过程如下:
步骤S31,在当前图像中选取像素p,取其亮度Ip;
步骤S32,设置阈值T=Ip*30%;
步骤S33,以像素p为圆心,取半径为3个像素做圆,如果圆上存在12个相连点的亮度不在Ip±ε范围内,其中,ε为给定误差,则像素p点称为特征点;
步骤S34,对当前图像中的每个像素执行步骤S32操作;
步骤S35,计算角点的响应值,并选择最大响应值的前N个角点组成集合A。
其中,添加尺度和旋转的描述,尺度不变性。
当前图像与参考图像之间的映射关系为:当前图像的三维点齐次坐标(xt,yt,zt,1)与在参考图像上的投影齐次坐标(x′t,y′t,1)的透视投影关系:
其中,K表示个数,r1、r2、r3、T表示相似变换模型的4个参数。
步骤S4,获取特征点的三维坐标,建立参考坐标系,根据特定环境实时生成虚拟定位信息和导航信息。
获取特征点的三维坐标,建立参考坐标系,通过带有权重的K最近邻法即WKNN算法,计算特定环境实时生成虚拟定位信息和绝对姿态;
其中,为第k个参考点的坐标,distk为第k个参考点与待定点之间的欧氏距离,Wk为WKNN算法的加权系数;
本发明将虚拟现实技术应用于机房巡检中,使得在机房内进行室内导航和设备追踪更加便捷、直观,此外,室内导航和设备追踪能够帮助巡检人员快速定位具体设备,并且帮助规划路线,提升调度运维工作效率。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在不脱离本发明的原理和宗旨的情况下在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。本发明的范围由所附权利要求及其等同限定。
Claims (6)
1.一种基于增强现实技术的机房室内导航和设备追踪的方法,其特征在于,包括以下步骤:
步骤S1,虚拟机房全景建模:通过全景相机三维扫描采集机房场景状态数据,建立三维虚拟机房模型;
步骤S11,图像采集:在机房内设置多个全景相机,使用全景相机获取机房场景的全景图像;
步骤S12:图像投影:将获取的全景图像进行360度柱面投影,得到机房环视场景的图像源,并获取所有图像源对应的场景空间信息;
步骤S13:图像拼接:根据步骤S12得到的图像源,经过预处理和统一坐标变换后进行图像配准和图像融合,最终得到拼接全景图;
在步骤S12中,对于实景图像上的任意一个像素点(x,y),其柱面正投影到柱面全景图像上的坐标(x′,y′)公式为:
其中,H和W为实景图像的高和宽,单位是像素;f是相机焦距,单位也是像素;
在步骤S13中,经过预处理和统一坐标变换后进行图像配准和图像融合的具体过程为:利用比值匹配法在步骤S12得到的图像源中寻找匹配点,首先将图像源中的一幅图像作为样本,选取样本的样本特征点,根据与样本特征点的距离在另外一幅图像中寻找最近特征点和次近特征点,然后计算最近特征点和次近特征点与样本特征点之间欧氏距离的比值;将对于比值小于某一阈值范围内的样本特征点,则认为是正确匹配的特征点;
其中,ratio表示正确匹配的特征点,di,NearestPoi表示最近特征点与样本特征点之间欧氏距离,di+j,NearestPoi表示次近特征点与样本特征点之间欧氏距离,threshold表示某一阈值范围,特征点匹配需要所有的重叠部分内进行;
步骤S14:场景存储和显示:将步骤S13得到的拼接全景图保存后,通过web页面浏览机房各个拼接全景图;
步骤S2,定位模块:根据全景相机的位置信息,采用指纹定位算法确定当前巡检位置信息,建立位置指纹识别数据库;
步骤S21,训练阶段:采用基于信号强度的Wi-Fi室内定位技术,建立无线信号强度和位置信息稳定映射关系,根据定位精度的要求划分环境网格,并确定Wi-Fi设备的位置采集点,使得所有采集点能够辐射到所有网格点,然后,分别测量所有网格位置的信号强度值,并将每一位网格的位置信息存储到室内环境位置指纹识别数据库中;
步骤S22,定位当前巡检位置:将当前巡检位置作为待测点,根据室内环境位置指纹识别数据库,采用最近邻法将待测点多个周边位置检测到的位置采集点的值与位置指纹识别数据库中已存储的记录进行比较和匹配,再计算出待测点位置估计值;
在步骤S22中,计算出待测点位置估计值的具体过程如下:
步骤S221,首先计算待测点的指纹信息与指纹数据库中的所有指纹信息的距离disti,j,0≤i≠j≤M;
步骤S222,按照距离disti,j从小到大选取K个对应的指纹坐标作为参考坐标;
步骤S223,由最近邻法算法计算出待定点的估计坐标,
步骤S3,根据全景图像采集到的当前图像,判断当前图像与参考图像是否为同一室内环境,如果是,则提取当前图像中的特征点,寻找当前图像与参考图像之间的映射关系,运用视觉定位算法将当前图像的位置点投影标记到虚拟场景对应点之上;
在步骤S3中,提取当前图像中的特征点过程如下:
步骤S31,在当前图像中选取像素p,取其亮度Ip;
步骤S32,设置阈值T=Ip*30%;
步骤S33,以像素p为圆心,取半径为3个像素做圆,如果圆上存在12个相连点的亮度不在Ip±ε范围内,其中,ε为给定误差,则像素p点称为特征点;
步骤S34,对当前图像中的每个像素执行步骤S32操作;
步骤S35,计算角点的响应值,并选择最大响应值的前N个角点组成集合A;
步骤S4,获取特征点的三维坐标,建立参考坐标系,根据特定环境实时生成虚拟定位信息和导航信息。
2.如权利要求1所述的基于增强现实技术的机房室内导航和设备追踪的方法,其特征在于,在步骤S22中,网格位置的信号强度值的计算公式为:RSS=Pt-K1-10αlog10d;
其中,RSS为网格位置的信号强度值,α为路径损耗指数,Pt是传输功率,K1是决定于媒体和评率的常数。
3.如权利要求1所述的基于增强现实技术的机房室内导航和设备追踪的方法,其特征在于,在步骤S21中,室内环境位置指纹识别数据库中的每个点的指纹信息为{(xi,yi),RSSIi,1,RSSIi,2,...,RSSIi,M},RSSIi,j表示在第i个点接收来自第j个点的WI-FI信号的强度,(xi,yi)表示点i的位置坐标。
4.如权利要求3所述的基于增强现实技术的机房室内导航和设备追踪的方法,其特征在于,采用随机抽样一致算法对特征点进行匹配,包括以下步骤:首先从集合A中任意挑选出一组局内点作为1个数据点样本;求出一套模型参数,然后在通过计算出的模型来检验另外每个数据点,若某个点的误差在设置的误差阈值之间,就确定其为局内点,否则确定为局外点,只存储当前为止局内点数量最多的模型,将其记录为最优模型,迭代执行以上步骤固定次数后,采用最优模型相应的局内点来最后计算模型的参数。
5.如权利要求1所述的基于增强现实技术的机房室内导航和设备追踪的方法,其特征在于,在步骤S3中,当前图像与参考图像之间的映射关系为:当前图像的三维点齐次坐标(xt,yt,zt,1)与在参考图像上的投影齐次坐标(x′t,y′t,1)的透视投影关系:
其中,K2表示个数,r1、r2、r3、T表示相似变换模型的4个参数。
6.如权利要求1所述的基于增强现实技术的机房室内导航和设备追踪的方法,其特征在于,在步骤S4中,获取特征点的三维坐标,建立参考坐标系,通过带有权重的K最近邻法即WKNN算法,计算特定环境实时生成虚拟定位信息和绝对姿态;
其中,为第k个参考点的坐标,distk为第k个参考点与待定点之间的欧氏距离,Wk为WKNN算法的加权系数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911018011.1A CN110967014B (zh) | 2019-10-24 | 2019-10-24 | 一种基于增强现实技术的机房室内导航和设备追踪的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911018011.1A CN110967014B (zh) | 2019-10-24 | 2019-10-24 | 一种基于增强现实技术的机房室内导航和设备追踪的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110967014A CN110967014A (zh) | 2020-04-07 |
CN110967014B true CN110967014B (zh) | 2023-10-31 |
Family
ID=70029856
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911018011.1A Active CN110967014B (zh) | 2019-10-24 | 2019-10-24 | 一种基于增强现实技术的机房室内导航和设备追踪的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110967014B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112052572B (zh) * | 2020-08-25 | 2024-07-12 | 卓智(太仓)物联科技有限公司 | 基于wlan位置感知的数字孪生工业仿真系统 |
CN113074736A (zh) * | 2021-03-24 | 2021-07-06 | 中国工商银行股份有限公司 | 室内导航定位方法、设备、电子设备、存储介质及产品 |
CN113490137B (zh) * | 2021-05-08 | 2022-05-03 | 湖南大学 | 一种基于WiFi与视觉融合室内定位方法 |
CN113421356B (zh) * | 2021-07-01 | 2023-05-12 | 北京华信傲天网络技术有限公司 | 一种对复杂环境中设备的巡检系统和方法 |
CN114115277B (zh) * | 2021-11-26 | 2024-08-13 | 中国建设银行股份有限公司 | 一种基于巡检机器人的巡检管理方法及相关设备 |
CN116541923B (zh) * | 2023-04-07 | 2023-12-19 | 中国民用航空飞行学院 | 一种基于vr的带支架设备室内安装基础定位方法 |
CN116524160B (zh) * | 2023-07-04 | 2023-09-01 | 应急管理部天津消防研究所 | 基于ar识别的产品一致性辅助核实系统及方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120010113A (ko) * | 2010-07-21 | 2012-02-02 | 주식회사 한국무역정보통신 | 실내 내비게이션을 수행하는 위치 기반 서비스 시스템 및 방법 |
CN103338343A (zh) * | 2013-05-29 | 2013-10-02 | 山西绿色光电产业科学技术研究院(有限公司) | 以全景图像为基准的多路图像无缝拼接方法及装置 |
CN103914819A (zh) * | 2014-03-26 | 2014-07-09 | 东华大学 | 一种基于改进ransac的红外图像拼接方法 |
CN105371847A (zh) * | 2015-10-27 | 2016-03-02 | 深圳大学 | 一种室内实景导航方法及系统 |
CN106530407A (zh) * | 2016-12-14 | 2017-03-22 | 深圳市金大象文化发展有限公司 | 一种用于虚拟现实的三维全景拼接方法、装置和系统 |
CN106651942A (zh) * | 2016-09-29 | 2017-05-10 | 苏州中科广视文化科技有限公司 | 基于特征点的三维旋转运动检测与旋转轴定位方法 |
CN107590234A (zh) * | 2017-09-07 | 2018-01-16 | 哈尔滨工业大学 | 一种基于ransac的室内视觉定位数据库冗余信息减少的方法 |
CN109544636A (zh) * | 2018-10-10 | 2019-03-29 | 广州大学 | 一种融合特征点法和直接法的快速单目视觉里程计导航定位方法 |
CN110321902A (zh) * | 2019-05-09 | 2019-10-11 | 哈尔滨工业大学 | 一种基于socp的室内自动视觉指纹采集方法 |
-
2019
- 2019-10-24 CN CN201911018011.1A patent/CN110967014B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120010113A (ko) * | 2010-07-21 | 2012-02-02 | 주식회사 한국무역정보통신 | 실내 내비게이션을 수행하는 위치 기반 서비스 시스템 및 방법 |
CN103338343A (zh) * | 2013-05-29 | 2013-10-02 | 山西绿色光电产业科学技术研究院(有限公司) | 以全景图像为基准的多路图像无缝拼接方法及装置 |
CN103914819A (zh) * | 2014-03-26 | 2014-07-09 | 东华大学 | 一种基于改进ransac的红外图像拼接方法 |
CN105371847A (zh) * | 2015-10-27 | 2016-03-02 | 深圳大学 | 一种室内实景导航方法及系统 |
CN106651942A (zh) * | 2016-09-29 | 2017-05-10 | 苏州中科广视文化科技有限公司 | 基于特征点的三维旋转运动检测与旋转轴定位方法 |
CN106530407A (zh) * | 2016-12-14 | 2017-03-22 | 深圳市金大象文化发展有限公司 | 一种用于虚拟现实的三维全景拼接方法、装置和系统 |
CN107590234A (zh) * | 2017-09-07 | 2018-01-16 | 哈尔滨工业大学 | 一种基于ransac的室内视觉定位数据库冗余信息减少的方法 |
CN109544636A (zh) * | 2018-10-10 | 2019-03-29 | 广州大学 | 一种融合特征点法和直接法的快速单目视觉里程计导航定位方法 |
CN110321902A (zh) * | 2019-05-09 | 2019-10-11 | 哈尔滨工业大学 | 一种基于socp的室内自动视觉指纹采集方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110967014A (zh) | 2020-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110967014B (zh) | 一种基于增强现实技术的机房室内导航和设备追踪的方法 | |
CN110580723B (zh) | 一种利用深度学习和计算机视觉进行精准定位的方法 | |
Hile et al. | Positioning and orientation in indoor environments using camera phones | |
Baboud et al. | Automatic photo-to-terrain alignment for the annotation of mountain pictures | |
CN107833280B (zh) | 一种基于地理网格与图像识别相结合的户外移动增强现实方法 | |
CN103530881B (zh) | 适用于移动终端的户外增强现实无标志点跟踪注册方法 | |
CN111563442A (zh) | 基于激光雷达的点云和相机图像数据融合的slam方法及系统 | |
CN111768447B (zh) | 一种基于模板匹配的单目相机物体位姿估计方法及系统 | |
CN107369183A (zh) | 面向mar的基于图优化slam的跟踪注册方法及系统 | |
Wan et al. | Stereo vision using two PTZ cameras | |
Ataer-Cansizoglu et al. | Tracking an RGB-D camera using points and planes | |
CN102298778A (zh) | 用于估计对象状态的估计系统、估计方法和估计程序 | |
CN110084243A (zh) | 一种基于二维码和单目相机的档案识别与定位方法 | |
CN112085003A (zh) | 公共场所异常行为自动识别方法及装置、摄像机设备 | |
CN105069809A (zh) | 一种基于平面混合标识物的相机定位方法及系统 | |
Howells et al. | Real-time analogue gauge transcription on mobile phone | |
Feng et al. | Visual Map Construction Using RGB‐D Sensors for Image‐Based Localization in Indoor Environments | |
CN114663473A (zh) | 基于多视角信息融合的人员目标定位与追踪方法及系统 | |
Koch et al. | Wide-area egomotion estimation from known 3d structure | |
CN113763466B (zh) | 一种回环检测方法、装置、电子设备和存储介质 | |
CN109740632A (zh) | 基于多传感器多被测对象的相似度模型训练方法和装置 | |
CN107452019A (zh) | 一种基于模型切换的目标检测方法、装置、系统及存储介质 | |
CN118505209B (zh) | 一种基于数字孪生和ar技术的钢铁设备运维系统与方法 | |
CN114266823A (zh) | 一种结合SuperPoint网络特征提取的单目SLAM方法 | |
Shao | A Monocular SLAM System Based on the ORB Features |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |