CN110967014A - 一种基于增强现实技术的机房室内导航和设备追踪的方法 - Google Patents

一种基于增强现实技术的机房室内导航和设备追踪的方法 Download PDF

Info

Publication number
CN110967014A
CN110967014A CN201911018011.1A CN201911018011A CN110967014A CN 110967014 A CN110967014 A CN 110967014A CN 201911018011 A CN201911018011 A CN 201911018011A CN 110967014 A CN110967014 A CN 110967014A
Authority
CN
China
Prior art keywords
point
image
points
machine room
panoramic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911018011.1A
Other languages
English (en)
Other versions
CN110967014B (zh
Inventor
王梓蒴
张倩宜
孟兆娜
李妍
吕国远
常小润
李尚�
胡博
王伟
郑庆竹
李志斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
State Grid Corp of China SGCC
State Grid Tianjin Electric Power Co Ltd
Original Assignee
State Grid Corp of China SGCC
State Grid Tianjin Electric Power Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by State Grid Corp of China SGCC, State Grid Tianjin Electric Power Co Ltd filed Critical State Grid Corp of China SGCC
Priority to CN201911018011.1A priority Critical patent/CN110967014B/zh
Publication of CN110967014A publication Critical patent/CN110967014A/zh
Application granted granted Critical
Publication of CN110967014B publication Critical patent/CN110967014B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)

Abstract

本发明提出了一种基于增强现实技术的机房室内导航和设备追踪的方法,包括以下步骤:通过全景相机三维扫描采集机房场景状态数据,建立三维虚拟机房模型;采用指纹定位算法确定当前巡检位置信息,建立位置指纹识别数据库;根据全景图像采集到的当前图像,判断当前图像与参考图像是否为同一室内环境,如果是,则提取当前图像中的特征点,寻找当前图像与参考图像之间的映射关系,运用视觉定位算法将当前图像的位置点投影标记到虚拟场景对应点之上;建立参考坐标系,根据特定环境实时生成虚拟定位信息和导航信息。本发明的室内导航和设备追踪能够帮助巡检人员快速定位的具体设备,对于提升调度运维工作效率有巨大的积极作用。

Description

一种基于增强现实技术的机房室内导航和设备追踪的方法
技术领域
本发明涉及软件技术领域,特别涉及一种基于增强现实技术的机房室内导航和设备追踪的方法。
背景技术
电力是我国工业化建设领域的重大基础服务型行业,关系到国计民生的发展。所以需要主动掌握设备的运行状况及动态,因此机房巡检工作尤为重要。机房巡检是信息通信机房管理最基本的工作内容,同时也是机房管理运营中技术难度较高的一环。在确保电力系统安全运行的前提下,要求能够对机房设备、通道环境的状态全面的感知、动态的分析、及时的预警,各层级运检管理人员对机房进行更有效地管控。随着电子信息技术的不断发展,信息技术正以前所未有的广度和深度与信息通信管理快速融合,电力系统的自动化智能化要求也不断增加。针对目前机房巡检的精度问题,目前大部分企业已经开始部署增强现实技术的机房巡检技术。智能巡检技术处理人工操作更便捷智能,并有利于建立电网自身的智能巡检数据库。
发明内容
本发明的目的旨在至少解决所述技术缺陷之一。
为此,本发明的目的在于提出一种基于增强现实技术的机房室内导航和设备追踪的方法,室内导航和设备追踪能够帮助巡检人员快速定位的具体设备,并且帮助规划路线,对于提升调度运维工作效率有巨大的积极作用。
为了实现上述目的,本发明提供一种基于增强现实技术的机房室内导航和设备追踪的方法,包括以下步骤:
步骤S1,虚拟机房全景建模:通过全景相机三维扫描采集机房场景状态数据,建立三维虚拟机房模型;
步骤S11,图像采集:在机房内设置多个全景相机,使用全景相机获取机房场景的全景图像;
步骤S12:图像投影:将获取的全景图像进行360度柱面投影,得到机房环视场景的图像源,并获取所有图像源对应的场景空间信息;
步骤S13:图像拼接:根据步骤S12得到的图像源,经过预处理和统一坐标变换后进行图像配准和图像融合,最终得到拼接全景图;
步骤S14:场景存储和显示:将步骤S13得到的拼接全景图保存后,通过web页面浏览机房各个拼接全景图;
步骤S2,定位模块:根据全景相机的位置信息,采用指纹定位算法确定当前巡检位置信息,建立位置指纹识别数据库;
步骤S21,训练阶段:采用基于信号强度的Wi-Fi室内定位技术,建立无线信号强度和位置信息稳定映射关系,根据定位精度的要求划分环境网格,并确定Wi-Fi设备的位置采集点,使得所有采集点能够辐射到所有网格点,然后,分别测量所有网格位置的信号强度值,并将每一位网格的位置信息存储到室内环境位置指纹识别数据库中;
步骤S22,定位当前巡检位置:将当前巡检位置作为待测点,根据室内环境位置指纹识别数据库,采用最近邻法将待测点多个周边位置检测到的位置采集点的值与位置指纹识别数据库中已存储的记录进行比较和匹配,再计算出待测点位置估计值;
步骤S3,根据全景图像采集到的当前图像,判断当前图像与参考图像是否为同一室内环境,如果是,则提取当前图像中的特征点,寻找当前图像与参考图像之间的映射关系,运用视觉定位算法将当前图像的位置点投影标记到虚拟场景对应点之上;
步骤S4,获取特征点的三维坐标,建立参考坐标系,根据特定环境实时生成虚拟定位信息和导航信息。
在上述任一方案中优选的是,在步骤S12中,对于实景图像上的任意一个像素点(x,y),其柱面正投影到柱面全景图像上的坐标(x′,y′)公式为:
Figure BDA0002246314970000021
Figure BDA0002246314970000022
其中,H和W为实景图像的高和宽,单位是像素;f是相机焦距,单位也是像素。
在上述任一方案中优选的是,在步骤S13中,经过预处理和统一坐标变换后进行图像配准和图像融合的具体过程为:利用比值匹配法在步骤S12得到的图像源中寻找匹配点,首先将图像源中的一幅图像作为样本,选取样本的样本特征点,根据与样本特征点的距离在另外一幅图像中寻找最近特征点和次近特征点,然后计算最近特征点和次近特征点与样本特征点之间欧氏距离的比值;将对于比值小于某一阈值范围内的样本特征点,则认为是正确匹配的特征点;
Figure BDA0002246314970000031
其中,ratio表示正确匹配的特征点,di,NearestPoi表示最近特征点与样本特征点之间欧氏距离,di+j,NearestPoi表示次近特征点与样本特征点之间欧氏距离,threshold表示某一阈值范围,特征点匹配需要所有的重叠部分内进行。
在上述任一方案中优选的是,在步骤S22中,网格位置的信号强度值的计算公式为:RSS=Pt-K-10αlog10 d;
其中,RSS为网格位置的信号强度值,α为路径损耗指数,Pt是传输功率,K是决定于媒体和评率的常数。
在上述任一方案中优选的是,在步骤S21中,室内环境位置指纹识别数据库中的每个点的指纹信息为{(xi,yi),RSSIi,1,RSSIi,2,...,RSSIi,M},RSSIi,j表示在第i个点接收来自第j个点的WI-FI信号的强度,(xi,yi)表示点i的位置坐标。
在上述任一方案中优选的是,在步骤S22中,计算出待测点位置估计值的具体过程如下:
步骤S221,首先计算待测点的指纹信息与指纹数据库中的所有指纹信息的距离disti,j,{disti,j},0≤i≠j≤M;
Figure BDA0002246314970000032
步骤S222,步骤按照距离disti,j从下到大选取K个对应的指纹坐标作为参考坐标;
步骤S223,由最近邻法算法计算出待定点的估计坐标,
Figure BDA0002246314970000033
k∈[1,K]。
在上述任一方案中优选的是,在步骤S3中,提取当前图像中的特征点过程如下:
步骤S31,在当前图像中选取像素p,取其亮度Ip
步骤S32,设置阈值T=Ip*30%;
步骤S33,以像素p为圆心,取半径为3个像素做圆,如果圆上存在12个相连点的亮度不在Ip±ε范围内,其中,ε为给定误差,则像素p点称为特征点;
步骤S34,对当前图像中的每个像素执行步骤S32操作;
步骤S35,计算角点的响应值,并选择最大响应值的前N个角点
Figure BDA0002246314970000041
组成集合A。
在上述任一方案中优选的是,采用随机抽样一致算法对特征点进行匹配,包括以下步骤:首先从集合A中任意挑选出一组局内点
Figure BDA0002246314970000042
作为1个数据点样本;求出一套模型参数,然后在通过计算出的模型来检验另外每个数据点,若某个点的误差在设置的误差阈值之间,就确定其为局内点,否则确定为局外点,只存储当前为止局内点数量最多的模型,将其记录为最优模型,迭代执行以上步骤固定次数后,采用最优模型相应的局内点来最后计算模型的参数。
在上述任一方案中优选的是,在步骤S3中,当前图像与参考图像之间的映射关系为:当前图像的三维点齐次坐标(xt,yt,zt,1)与在参考图像上的投影齐次坐标(xt′,yt′,1)的透视投影关系:
Figure BDA0002246314970000043
其中,K表示个数,r1、r2、r3表示半径,T表示阈值。
在上述任一方案中优选的是,在步骤S4中,获取特征点的三维坐标,建立参考坐标系,通过带有权重的K最近邻法即WKNN算法,计算特定环境实时生成虚拟定位信息和绝对姿态;
Figure BDA0002246314970000044
Figure BDA0002246314970000045
其中,
Figure BDA0002246314970000046
为第k个参考点的坐标,distk为第k个参考点与待定点之间的欧氏距离,Wk为WKNN算法的加权系数;
本发明的基于增强现实技术的机房室内导航和设备追踪的方法具有以下有益效果:
1、本发明将虚拟现实技术应用于机房巡检中,使得在机房内进行室内导航和设备追踪更加便捷、直观,此外,室内导航和设备追踪能够帮助巡检人员快速定位具体设备,并且帮助规划路线,提升调度运维工作效率。
2、本发明利用全景摄像头和WI-FI指纹识别定位算法确定在实际场景中的位置,电子罗盘获取摄像头的方向,结合视觉同步定位与图像绘图技术映射现实场景和虚拟场景,最终实现增强现实系统中实现导航和设备追踪功能,不仅具有较强的可用性和实用性,还具有广泛的应用前景。
3、本发明可实时采对3D虚拟场景中设备追踪和路径规划,帮助运维人员最快地找的目标设备。
4、本发明通过WI-FI指纹定位,形成实时导航信息,在一定程度上解决了目前虚拟环境内导航存在精度有限、可视性差、人机交互能力低等问题。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1是本发明的流程图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
本发明提供本发明提供一种基于增强现实技术的机房室内导航和设备追踪的方法,包括以下步骤:
步骤S1,虚拟机房全景建模:通过全景相机三维扫描采集机房场景状态数据,建立三维虚拟机房模型;
步骤S11,图像采集:在机房内设置多个全景相机,使用全景相机获取机房场景的全景图像;
步骤S12:图像投影:将获取的全景图像进行360度柱面投影,得到机房环视场景的图像源,并获取所有图像源对应的场景空间信息;
对于实景图像上的任意一个像素点(x,y),其柱面正投影到柱面全景图像上的坐标(x′,y′)公式为:
Figure BDA0002246314970000061
Figure BDA0002246314970000062
其中,H和W为实景图像的高和宽,单位是像素;f是相机焦距,单位也是像素。
步骤S13:图像拼接:根据步骤S12得到的图像源,经过预处理和统一坐标变换后进行图像配准和图像融合,最终得到拼接全景图;
经过预处理和统一坐标变换后进行图像配准和图像融合的具体过程为:利用比值匹配法在步骤S12得到的图像源中寻找匹配点,首先将图像源中的一幅图像作为样本,选取样本的样本特征点,根据与样本特征点的距离在另外一幅图像中寻找最近特征点和次近特征点,然后计算最近特征点和次近特征点与样本特征点之间欧氏距离的比值;将对于比值小于某一阈值范围内的样本特征点,则认为是正确匹配的特征点;
Figure BDA0002246314970000063
其中,ratio表示正确匹配的特征点,di,NearestPoi表示最近特征点与样本特征点之间欧氏距离,di+j,NearestPoi表示次近特征点与样本特征点之间欧氏距离,threshold表示某一阈值范围,特征点匹配需要所有的重叠部分内进行。
在进行图像拼接时,采用基于图像绘制(Image-Based Rendering,简称IBR)的方法,通过根据从步骤S12得到的图像源来建立场景的几何模型。
步骤S14:场景存储和显示:将步骤S13得到的拼接全景图保存后,通过web页面浏览机房各个拼接全景图;
步骤S2,定位模块:根据全景相机的位置信息,采用指纹定位算法确定当前巡检位置信息,建立位置指纹识别数据库;
上述指纹定位算法采用基于接收信号强度(Received Signal StrengthIndication)的WI-FI室内定位算法,RSSI的指纹数据库如表1所示,其中参考点j(AccessPoint,AP)的指纹信息可以表示为[RSSIj,1,RSSIj,2,...,RSSIj,i,...,RSSIj,M],其中RSSIj,i表示第j个参考点RPj接收来自第i个WI-FI接入点APi的信号强度。
表1 RSSI指纹数据库模型
Figure BDA0002246314970000071
步骤S21,训练阶段:采用基于信号强度的Wi-Fi室内定位技术,建立无线信号强度和位置信息稳定映射关系,根据定位精度的要求划分环境网格,并确定Wi-Fi设备的位置采集点,使得所有采集点能够辐射到所有网格点,然后,分别测量所有网格位置的信号强度值,并将每一位网格的位置信息存储到室内环境位置指纹识别数据库中;
网格位置的信号强度值的计算公式为:RSS=Pt-K-10αlog10 d;
其中,RSS为网格位置的信号强度值,α为路径损耗指数,Pt是传输功率,K是决定于媒体和评率的常数。
步骤S22,定位当前巡检位置:将当前巡检位置作为待测点,根据室内环境位置指纹识别数据库,采用最近邻法将待测点多个周边位置检测到的位置采集点的值与位置指纹识别数据库中已存储的记录进行比较和匹配,再计算出待测点位置估计值;
室内环境位置指纹识别数据库中的每个点的指纹信息为:
{(xi,yi),RSSIi,1,RSSIi,2,...,RSSIi,M};
其中,RSSIi,j表示在第i个点接收来自第j个点的WI-FI信号的强度,(xi,yi)表示点i的位置坐标。
计算出待测点位置估计值的具体过程如下:
步骤S221,首先计算待测点的指纹信息与指纹数据库中的所有指纹信息的距离disti,j,{disti,j},0≤i≠j≤M;
Figure BDA0002246314970000081
步骤S222,步骤按照距离disti,j从下到大选取K个对应的指纹坐标作为参考坐标;
步骤S223,由最近邻法算法计算出待定点的估计坐标,
Figure BDA0002246314970000082
k∈[1,K]。
特征匹配采用随机抽样一致算法对特征点进行匹配,包括以下步骤:首先从集合A中任意挑选出一组局内点
Figure BDA0002246314970000083
求出一套模型参数,然后在通过计算出的模型来检验另外每个数据点,若某个点的误差在设置的误差阈值之间,就确定其为局内点,否则确定为局外点,只存储当前为止局内点数量最多的模型,将其记录为最优模型,迭代执行以上步骤固定次数后,采用最优模型相应的局内点来最后计算模型的参数。此外,还可以根据估计局内点和模型的错误率来评价模型。匹配的准确率有了很大的提升,同时过滤掉了一部分特征点,减少了后续的计算负担,提髙效率。
具体步骤如下:
(1)随机采样:从集合A中任意挑选出一组局内点
Figure BDA0002246314970000084
作为1个数据点样本;
(2)预检验:判断特征3角形对是否相似,如果成立,转到(3);否则,返回(1)重新选择一个数据点样本;
(3)模型参数计算:根据最大欧氏距离法选择2对特征点构成线性方程组,并求解出相似变换模型的4个参数r1,r2,r3,T;
(4)全数据检验:由变换模型参数以及阈值依次判断该特征点对是否是内点,即计算
Figure BDA0002246314970000085
是否满足,其中i∈[1,n];
(5)如果(4)中内点的数量小于既设阈值thd,则返回(1),如果大于thd,记录内点组成的集合Sd及其对应的模型参数;(6)根据样本最大的一致集Si重新估计模型,得到最后结果并结束算法;(7)经过m次迭代,如果没有找到一致集Si,则选取(4)中内点数量最大的集合计算模型参数,得到最后结果并结束算法。
步骤S3,根据全景图像采集到的当前图像,判断当前图像与参考图像是否为同一室内环境,如果是,则提取当前图像中的特征点,寻找当前图像与参考图像之间的映射关系,运用视觉定位算法将当前图像的位置点投影标记到虚拟场景对应点之上;
提取当前图像中的特征点过程如下:
步骤S31,在当前图像中选取像素p,取其亮度Ip
步骤S32,设置阈值T=Ip*30%;
步骤S33,以像素p为圆心,取半径为3个像素做圆,如果圆上存在12个相连点的亮度不在Ip±ε范围内,其中,ε为给定误差,则像素p点称为特征点;
步骤S34,对当前图像中的每个像素执行步骤S32操作;
步骤S35,计算角点的响应值,并选择最大响应值的前N个角点
Figure BDA0002246314970000091
组成集合A。
其中,添加尺度和旋转的描述,尺度不变性。
当前图像与参考图像之间的映射关系为:当前图像的三维点齐次坐标(xt,yt,zt,1)与在参考图像上的投影齐次坐标(x′t,y′t,1)的透视投影关系:
Figure BDA0002246314970000092
其中,K表示个数,r1、r2、r3、T表示相似变换模型的4个参数。
步骤S4,获取特征点的三维坐标,建立参考坐标系,根据特定环境实时生成虚拟定位信息和导航信息。
获取特征点的三维坐标,建立参考坐标系,通过带有权重的K最近邻法即WKNN算法,计算特定环境实时生成虚拟定位信息和绝对姿态;
Figure BDA0002246314970000093
Figure BDA0002246314970000094
其中,
Figure BDA0002246314970000101
为第k个参考点的坐标,distk为第k个参考点与待定点之间的欧氏距离,Wk为WKNN算法的加权系数;
本发明将虚拟现实技术应用于机房巡检中,使得在机房内进行室内导航和设备追踪更加便捷、直观,此外,室内导航和设备追踪能够帮助巡检人员快速定位具体设备,并且帮助规划路线,提升调度运维工作效率。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在不脱离本发明的原理和宗旨的情况下在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。本发明的范围由所附权利要求及其等同限定。

Claims (10)

1.一种基于增强现实技术的机房室内导航和设备追踪的方法,其特征在于,包括以下步骤:
步骤S1,虚拟机房全景建模:通过全景相机三维扫描采集机房场景状态数据,建立三维虚拟机房模型;
步骤S11,图像采集:在机房内设置多个全景相机,使用全景相机获取机房场景的全景图像;
步骤S12:图像投影:将获取的全景图像进行360度柱面投影,得到机房环视场景的图像源,并获取所有图像源对应的场景空间信息;
步骤S13:图像拼接:根据步骤S12得到的图像源,经过预处理和统一坐标变换后进行图像配准和图像融合,最终得到拼接全景图;
步骤S14:场景存储和显示:将步骤S13得到的拼接全景图保存后,通过web页面浏览机房各个拼接全景图;
步骤S2,定位模块:根据全景相机的位置信息,采用指纹定位算法确定当前巡检位置信息,建立位置指纹识别数据库;
步骤S21,训练阶段:采用基于信号强度的Wi-Fi室内定位技术,建立无线信号强度和位置信息稳定映射关系,根据定位精度的要求划分环境网格,并确定Wi-Fi设备的位置采集点,使得所有采集点能够辐射到所有网格点,然后,分别测量所有网格位置的信号强度值,并将每一位网格的位置信息存储到室内环境位置指纹识别数据库中;
步骤S22,定位当前巡检位置:将当前巡检位置作为待测点,根据室内环境位置指纹识别数据库,采用最近邻法将待测点多个周边位置检测到的位置采集点的值与位置指纹识别数据库中已存储的记录进行比较和匹配,再计算出待测点位置估计值;
步骤S3,根据全景图像采集到的当前图像,判断当前图像与参考图像是否为同一室内环境,如果是,则提取当前图像中的特征点,寻找当前图像与参考图像之间的映射关系,运用视觉定位算法将当前图像的位置点投影标记到虚拟场景对应点之上;
步骤S4,获取特征点的三维坐标,建立参考坐标系,根据特定环境实时生成虚拟定位信息和导航信息。
2.如权利要求1所述的基于增强现实技术的机房室内导航和设备追踪的方法,其特征在于,在步骤S12中,对于实景图像上的任意一个像素点(x,y),其柱面正投影到柱面全景图像上的坐标(x′,y′)公式为:
Figure FDA0002246314960000021
Figure FDA0002246314960000022
其中,H和W为实景图像的高和宽,单位是像素;f是相机焦距,单位也是像素。
3.如权利要求1所述的基于增强现实技术的机房室内导航和设备追踪的方法,其特征在于,在步骤S13中,经过预处理和统一坐标变换后进行图像配准和图像融合的具体过程为:利用比值匹配法在步骤S12得到的图像源中寻找匹配点,首先将图像源中的一幅图像作为样本,选取样本的样本特征点,根据与样本特征点的距离在另外一幅图像中寻找最近特征点和次近特征点,然后计算最近特征点和次近特征点与样本特征点之间欧氏距离的比值;将对于比值小于某一阈值范围内的样本特征点,则认为是正确匹配的特征点;
Figure FDA0002246314960000023
其中,ratio表示正确匹配的特征点,di,NearestPoi表示最近特征点与样本特征点之间欧氏距离,di+j,NearestPoi表示次近特征点与样本特征点之间欧氏距离,threshold表示某一阈值范围,特征点匹配需要所有的重叠部分内进行。
4.如权利要求1所述的基于增强现实技术的机房室内导航和设备追踪的方法,其特征在于,在步骤S22中,网格位置的信号强度值的计算公式为:RSS=Pt-K-10αlog10 d;
其中,RSS为网格位置的信号强度值,α为路径损耗指数,Pt是传输功率,K是决定于媒体和评率的常数。
5.如权利要求1所述的基于增强现实技术的机房室内导航和设备追踪的方法,其特征在于,在步骤S21中,室内环境位置指纹识别数据库中的每个点的指纹信息为{(xi,yi),RSSIi,1,RSSIi,2,...,RSSIi,M},RSSIi,j表示在第i个点接收来自第j个点的WI-FI信号的强度,(xi,yi)表示点i的位置坐标。
6.如权利要求1所述的基于增强现实技术的机房室内导航和设备追踪的方法,其特征在于,在步骤S22中,计算出待测点位置估计值的具体过程如下:
步骤S221,首先计算待测点的指纹信息与指纹数据库中的所有指纹信息的距离disti,j,{disti,j},0≤i≠j≤M;
Figure FDA0002246314960000031
步骤S222,步骤按照距离disti,j从下到大选取K个对应的指纹坐标作为参考坐标;
步骤S223,由最近邻法算法计算出待定点的估计坐标,
Figure FDA0002246314960000032
k∈[1,K]。
7.如权利要求1所述的基于增强现实技术的机房室内导航和设备追踪的方法,其特征在于,在步骤S3中,提取当前图像中的特征点过程如下:
步骤S31,在当前图像中选取像素p,取其亮度Ip
步骤S32,设置阈值T=Ip*30%;
步骤S33,以像素p为圆心,取半径为3个像素做圆,如果圆上存在12个相连点的亮度不在Ip±ε范围内,其中,ε为给定误差,则像素p点称为特征点;
步骤S34,对当前图像中的每个像素执行步骤S32操作;
步骤S35,计算角点的响应值,并选择最大响应值的前N个角点
Figure FDA0002246314960000033
组成集合A。
8.如权利要求7所述的基于增强现实技术的机房室内导航和设备追踪的方法,其特征在于,采用随机抽样一致算法对特征点进行匹配,包括以下步骤:首先从集合A中任意挑选出一组局内点
Figure FDA0002246314960000034
作为1个数据点样本;求出一套模型参数,然后在通过计算出的模型来检验另外每个数据点,若某个点的误差在设置的误差阈值之间,就确定其为局内点,否则确定为局外点,只存储当前为止局内点数量最多的模型,将其记录为最优模型,迭代执行以上步骤固定次数后,采用最优模型相应的局内点来最后计算模型的参数。
9.如权利要求1所述的基于增强现实技术的机房室内导航和设备追踪的方法,其特征在于,在步骤S3中,当前图像与参考图像之间的映射关系为:当前图像的三维点齐次坐标(xt,yt,zt,1)与在参考图像上的投影齐次坐标(xt′,yt′,1)的透视投影关系:
Figure FDA0002246314960000041
其中,K表示个数,r1、r2、r3、T表示相似变换模型的4个参数。
10.如权利要求1所述的基于增强现实技术的机房室内导航和设备追踪的方法,其特征在于,在步骤S4中,获取特征点的三维坐标,建立参考坐标系,通过带有权重的K最近邻法即WKNN算法,计算特定环境实时生成虚拟定位信息和绝对姿态;
Figure FDA0002246314960000042
Figure FDA0002246314960000043
其中,
Figure FDA0002246314960000044
为第k个参考点的坐标,distk为第k个参考点与待定点之间的欧氏距离,Wk为WKNN算法的加权系数。
CN201911018011.1A 2019-10-24 2019-10-24 一种基于增强现实技术的机房室内导航和设备追踪的方法 Active CN110967014B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911018011.1A CN110967014B (zh) 2019-10-24 2019-10-24 一种基于增强现实技术的机房室内导航和设备追踪的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911018011.1A CN110967014B (zh) 2019-10-24 2019-10-24 一种基于增强现实技术的机房室内导航和设备追踪的方法

Publications (2)

Publication Number Publication Date
CN110967014A true CN110967014A (zh) 2020-04-07
CN110967014B CN110967014B (zh) 2023-10-31

Family

ID=70029856

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911018011.1A Active CN110967014B (zh) 2019-10-24 2019-10-24 一种基于增强现实技术的机房室内导航和设备追踪的方法

Country Status (1)

Country Link
CN (1) CN110967014B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112052572A (zh) * 2020-08-25 2020-12-08 苏州斯林威尔智能科技有限公司 基于wlan位置感知的数字孪生工业仿真系统
CN113074736A (zh) * 2021-03-24 2021-07-06 中国工商银行股份有限公司 室内导航定位方法、设备、电子设备、存储介质及产品
CN113421356A (zh) * 2021-07-01 2021-09-21 北京华信傲天网络技术有限公司 一种对复杂环境中设备的巡检系统和方法
CN113490137A (zh) * 2021-05-08 2021-10-08 湖南大学 一种基于WiFi与视觉融合室内定位方法
CN114115277A (zh) * 2021-11-26 2022-03-01 中国建设银行股份有限公司 一种基于巡检机器人的巡检管理方法及相关设备
CN116524160A (zh) * 2023-07-04 2023-08-01 应急管理部天津消防研究所 基于ar识别的产品一致性辅助核实系统及方法
CN116541923A (zh) * 2023-04-07 2023-08-04 中国民用航空飞行学院 一种基于vr的带支架设备室内安装基础定位方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120010113A (ko) * 2010-07-21 2012-02-02 주식회사 한국무역정보통신 실내 내비게이션을 수행하는 위치 기반 서비스 시스템 및 방법
CN103338343A (zh) * 2013-05-29 2013-10-02 山西绿色光电产业科学技术研究院(有限公司) 以全景图像为基准的多路图像无缝拼接方法及装置
CN103914819A (zh) * 2014-03-26 2014-07-09 东华大学 一种基于改进ransac的红外图像拼接方法
CN105371847A (zh) * 2015-10-27 2016-03-02 深圳大学 一种室内实景导航方法及系统
CN106530407A (zh) * 2016-12-14 2017-03-22 深圳市金大象文化发展有限公司 一种用于虚拟现实的三维全景拼接方法、装置和系统
CN106651942A (zh) * 2016-09-29 2017-05-10 苏州中科广视文化科技有限公司 基于特征点的三维旋转运动检测与旋转轴定位方法
CN107590234A (zh) * 2017-09-07 2018-01-16 哈尔滨工业大学 一种基于ransac的室内视觉定位数据库冗余信息减少的方法
CN109544636A (zh) * 2018-10-10 2019-03-29 广州大学 一种融合特征点法和直接法的快速单目视觉里程计导航定位方法
CN110321902A (zh) * 2019-05-09 2019-10-11 哈尔滨工业大学 一种基于socp的室内自动视觉指纹采集方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120010113A (ko) * 2010-07-21 2012-02-02 주식회사 한국무역정보통신 실내 내비게이션을 수행하는 위치 기반 서비스 시스템 및 방법
CN103338343A (zh) * 2013-05-29 2013-10-02 山西绿色光电产业科学技术研究院(有限公司) 以全景图像为基准的多路图像无缝拼接方法及装置
CN103914819A (zh) * 2014-03-26 2014-07-09 东华大学 一种基于改进ransac的红外图像拼接方法
CN105371847A (zh) * 2015-10-27 2016-03-02 深圳大学 一种室内实景导航方法及系统
CN106651942A (zh) * 2016-09-29 2017-05-10 苏州中科广视文化科技有限公司 基于特征点的三维旋转运动检测与旋转轴定位方法
CN106530407A (zh) * 2016-12-14 2017-03-22 深圳市金大象文化发展有限公司 一种用于虚拟现实的三维全景拼接方法、装置和系统
CN107590234A (zh) * 2017-09-07 2018-01-16 哈尔滨工业大学 一种基于ransac的室内视觉定位数据库冗余信息减少的方法
CN109544636A (zh) * 2018-10-10 2019-03-29 广州大学 一种融合特征点法和直接法的快速单目视觉里程计导航定位方法
CN110321902A (zh) * 2019-05-09 2019-10-11 哈尔滨工业大学 一种基于socp的室内自动视觉指纹采集方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112052572A (zh) * 2020-08-25 2020-12-08 苏州斯林威尔智能科技有限公司 基于wlan位置感知的数字孪生工业仿真系统
CN113074736A (zh) * 2021-03-24 2021-07-06 中国工商银行股份有限公司 室内导航定位方法、设备、电子设备、存储介质及产品
CN113490137A (zh) * 2021-05-08 2021-10-08 湖南大学 一种基于WiFi与视觉融合室内定位方法
CN113490137B (zh) * 2021-05-08 2022-05-03 湖南大学 一种基于WiFi与视觉融合室内定位方法
CN113421356A (zh) * 2021-07-01 2021-09-21 北京华信傲天网络技术有限公司 一种对复杂环境中设备的巡检系统和方法
CN114115277A (zh) * 2021-11-26 2022-03-01 中国建设银行股份有限公司 一种基于巡检机器人的巡检管理方法及相关设备
CN116541923A (zh) * 2023-04-07 2023-08-04 中国民用航空飞行学院 一种基于vr的带支架设备室内安装基础定位方法
CN116541923B (zh) * 2023-04-07 2023-12-19 中国民用航空飞行学院 一种基于vr的带支架设备室内安装基础定位方法
CN116524160A (zh) * 2023-07-04 2023-08-01 应急管理部天津消防研究所 基于ar识别的产品一致性辅助核实系统及方法
CN116524160B (zh) * 2023-07-04 2023-09-01 应急管理部天津消防研究所 基于ar识别的产品一致性辅助核实系统及方法

Also Published As

Publication number Publication date
CN110967014B (zh) 2023-10-31

Similar Documents

Publication Publication Date Title
CN110967014B (zh) 一种基于增强现实技术的机房室内导航和设备追踪的方法
CN111563442B (zh) 基于激光雷达的点云和相机图像数据融合的slam方法及系统
CN110580723B (zh) 一种利用深度学习和计算机视觉进行精准定位的方法
Baboud et al. Automatic photo-to-terrain alignment for the annotation of mountain pictures
CN110458161B (zh) 一种结合深度学习的移动机器人门牌定位方法
CN109059895A (zh) 一种基于手机摄像头和传感器的多模态室内测距及定位方法
Wan et al. Stereo vision using two PTZ cameras
CN111768447B (zh) 一种基于模板匹配的单目相机物体位姿估计方法及系统
Andreasson et al. 6D scan registration using depth-interpolated local image features
CN112163588A (zh) 基于智能进化的异源图像目标检测方法、存储介质及设备
Koch et al. Wide-area egomotion estimation from known 3d structure
Hou et al. A highly robust automatic 3D reconstruction system based on integrated optimization by point line features
CN114266823A (zh) 一种结合SuperPoint网络特征提取的单目SLAM方法
Santos et al. A real-time low-cost marker-based multiple camera tracking solution for virtual reality applications
Zhang et al. A visual-inertial dynamic object tracking SLAM tightly coupled system
CN113393524A (zh) 一种结合深度学习和轮廓点云重建的目标位姿估计方法
Zhou et al. Method for fundamental matrix estimation combined with feature lines
Sheng et al. Mobile robot localization and map building based on laser ranging and PTAM
CN116817920A (zh) 无需三维地图模型的平面移动机器人视觉定位方法及装置
Shao A Monocular SLAM System Based on the ORB Features
Zhao et al. A review of visual SLAM for dynamic objects
Gao et al. Real-Time SLAM Based on Dynamic Feature Point Elimination in Dynamic Environment
Gao et al. Coarse TRVO: A robust visual odometry with detector-free local feature
Jiaxin et al. Vision-based autonomous landing of unmanned aerial vehicles
Gao et al. Distance measurement method based on two-dimensional image recognition and inverse perspective transformation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant