CN110702101A - 一种面向电力巡检场景的定位方法及系统 - Google Patents
一种面向电力巡检场景的定位方法及系统 Download PDFInfo
- Publication number
- CN110702101A CN110702101A CN201910805641.7A CN201910805641A CN110702101A CN 110702101 A CN110702101 A CN 110702101A CN 201910805641 A CN201910805641 A CN 201910805641A CN 110702101 A CN110702101 A CN 110702101A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- scene
- closed
- positioning
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000007689 inspection Methods 0.000 title claims abstract description 56
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000012216 screening Methods 0.000 claims abstract description 29
- 239000011159 matrix material Substances 0.000 claims description 83
- 238000001514 detection method Methods 0.000 claims description 37
- 238000013519 translation Methods 0.000 claims description 30
- 238000010276 construction Methods 0.000 claims description 23
- 238000004364 calculation method Methods 0.000 claims description 14
- 230000000007 visual effect Effects 0.000 claims description 13
- 230000004807 localization Effects 0.000 claims description 6
- 238000005259 measurement Methods 0.000 claims description 6
- 238000012937 correction Methods 0.000 claims description 5
- 239000013598 vector Substances 0.000 claims description 5
- 238000001914 filtration Methods 0.000 claims 1
- 230000006870 function Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 9
- 238000004590 computer program Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 210000001503 joint Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 230000006798 recombination Effects 0.000 description 1
- 238000005215 recombination Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
一种面向电力巡检场景的定位方法及系统,本方案中基于双目相机获取巡检人员的定位点云,将所述定位点云与预先构建的巡检场景中的场景点云进行闭环筛选;若所述闭环筛得到场景点云,则基于筛选后的场景点云对当前定位点云进行位姿补偿,确定所述巡检人员的位置;否则,当前巡检人员的位置不在巡检场景范围内。本发明将巡检人员的定位点云与场景点云进行闭环筛选,准确寻找到与定位点云匹配程度最高的场景点云,提高了定位点云与场景点云之间匹配的精度;此外,通过将定位点云进行位姿补偿,能够减少巡检人员的初始位姿误差,提高了巡检人员的定位精度。
Description
技术领域
本发明涉及视觉定位领域,具体涉及一种面向电力巡检场景的定位方法及系统。
背景技术
传统电力巡检作业方式下,由于电力设备操作趋于繁杂,组件逻辑不可视,尤其是智能站的高度集成模块和更复杂的逻辑关系,运检人员无法独立完成任务,对厂家依赖度高,在作业过程中易发生误操作、误入间隔等危险情况,造成人员伤亡事件,同时巡检作业实际操作时间不足一半,花费较多甚至70%的时间在准备工作和确认沟通上。
目前,随着IT技术发展,环境扫描建模定位和物体识别技术已在消费电子、工业、医疗、机器人等领域有一定的创新应用。通过研发该基础共性关键技术将为电网现场作业提供新的自动化、智能化解决方案,改进作业模式,提高作业效率,实现主动安全防护。首先,环境建模与智能重构是现场作业全景信息采集和组织的基础,利用多种传感技术和高效智能的图像处理算法,无需在作业现场额外部署基站或者传感器,通过便携式终端在作业现场直接扫描所处环境即可形成三维模型,进而将现场各类信息实现空间维度为主,时间维度、逻辑关系为辅的重组;环境智能识别是对现场作业信息主动辨识,通过识别作业目标、分析作业环境,实现作业及设备信息的自动获取;最后基于高精度立体定位,综合作业环境和作业任务情景,进而与经验知识结合实现信息主动的可视化推送,提供作业人员准确、及时的辅助引导。
作业现场的三维模型是对现场环境信息的实时采集,认知是对核心关键部件的提取,精准定位和适应性导航技术可以融合作业内容和经验知识为作业人员提供直观便捷的作业指导,提升电网现场作业工作质量、效率及安全作业水平。首先,利用深度视觉的动态扫描三维模型构建技术,能快速低成本建立作业现场的三维模型,具备大规模推广应用能力;其次,利用作业人员便携式终端设备实现人员和目标设备的快速立体定位,有助于在作业现场辅助员工快速抵达作业地点,根据设定的操作顺序指导完成作业任务,提高作业人员工作效率;由于对作业现场的三维模型是在标准建模的环境下构建的,通过标准三维采集的位姿对作业现场进行三维信息录入;而在后续作业过程,工作人员携带便携式终端设备对工作现场进行扫描定位时,由于不确定因素导致采集位姿的不标准,进而无法在建模得到的场景进行精确定位,误差发生可能性大,无法确保工作的准确性。
发明内容
为了解决现有技术中所存在的采集位姿不标准,无法在建模得到的场景中进行精确定位的问题,本发明提供了一种面向电力巡检场景的定位方法及系统。
本发明提供的技术方案是:
一种面向电力巡检场景的定位方法,包括:
基于双目相机获取巡检人员的定位点云,将所述定位点云与预先构建的巡检场景中的场景点云进行闭环筛选;
若所述闭环筛得到场景点云,则基于筛选后的场景点云对当前定位点云进行位姿补偿,确定所述巡检人员的位置;否则,当前巡检人员的位置不在巡检场景范围内。
优选的,所述巡检场景的构建,包括:
步骤一:通过IMU地磁计获取双目相机的初始位姿;
步骤二:基于所述初始姿态,通过双目相机创建关键帧,并根据所述关键帧构建场景点云;
步骤三:将所述场景点云存入设定的拓扑地图中,并进行闭环检测;若通过所述闭环检测,则以设定次数重复所述步骤二和步骤三,得到巡检场景;否则,重新创建关键帧,并以设定次数重复所述步骤二和步骤三,直到通过闭环检测。
优选的,所述通过双目相机创建关键帧,并根据所述关键帧构建场景点云,包括:
通过双目相机创建关键帧,如果创建失败,则继续创建关键帧;否则通过所述关键帧采集场景点图像并获取所述场景点的三维深度信息;
将所述三维深度信息通过位姿推算进行位姿校正,并通过视觉里程计构建场景点云。
优选的,所述基于双目相机获取巡检人员的定位点云,将所述定位点云与预先构建的巡检场景中的场景点云进行闭环筛选,包括:
通过双目相机获取巡检人员定位点云中的所有三维坐标数据;
基于所有三维坐标数据与所有的场景点云的三维坐标数据通过闭环检测进行筛选,得到筛选后的场景点云。
优选的,所述基于所述筛选后的场景点云对当前定位点云进行位姿补偿,确定所述巡检人员的位置,包括:
基于所述筛选后的场景点云和所述当前定位点云构建距离函数;
基于所述距离函数对所述当前定位点云中所有的三维坐标进行位姿补偿,确定所述巡检人员的位置。
优选的,所述相对距离函数的构建,包括:
筛选所述当前定位点云中与所述筛选后的场景点云中距离小于设定阈值的点,构成第一点云;
将所述定位点云和第一点云,通过中心化,计算得到定位点云质心和第一点云质心,并基于所述定位点云质心和第一点云质心构建协方差矩阵;
基于所述协方差矩阵构建对称矩阵,并得到对称矩阵特征值;
选择最大的特征值来求解特征向量;
基于所述特征向量,构建旋转矩阵和平移矩阵,并根据所述旋转矩阵和平移矩阵,得到距离函数。
优选的,所述基于所述特征向量,构建旋转矩阵和平移矩阵,包括:
根据罗德里格旋转公式将特征向量转化为旋转矩阵;
根据下式求得平移矩阵;
T=μ′-Rμ
式中,T为平移矩阵,μ′为第一点云质心,μ为当前定位点云质心,R为旋转矩阵。
优选的,所述定位点云质心μ的计算,如下式所示:
其中,μ为当前定位点云质心,N为当前定位点云中点的数量,Ai为当前定位点云中的点,i=1,2,3…N;
所述第一点云质心μ′的计算,如下式所示:
其中,N′为第一点云中点的数量,N′=N,di为第一点云中的点,i=1,2,3…N。
优选的,所述协方差矩阵的构建,如下式所示:
其中,∑A,d为方差矩阵,N为定位点云中点的数量,Ai为定位点云中的点,di为场景点云中的点,μ′为第一点云质心,μ为定位点云质心,T为平移矩阵。
优选的,所述对称矩阵的构建,如下式所示:
其中,Q为对称矩阵,tr(∑A,d)为矩阵∑A,d的迹,Δ为对称矩阵Q中的子元素,ΔT为对阵矩阵中的子元素的秩。
优选的,所述距离函数的构建,如下式所示:
其中,E为距离函数,R为旋转矩阵,Ai为定位点云中的点,i=1,2,3…N,di为第一点云中的点,i=1,2,3…N,T为平移矩阵,N为定位点云中点的数量,x为横坐标,y为纵坐标,z为深度坐标。
优选的,所述基于所有三维坐标数据与所有的场景点云的三维坐标数据通过闭环检测进行筛选,得到筛选后的场景点云,之前还包括:
判断所述场景点云是否存在闭环链接,若存在,则将所述所有三维坐标数据与所述场景点云闭环链接的点云进行闭环检测;否则,将所述所有三维坐标数据与所有的场景点云的三维坐标数据进行闭环检测。
优选的,所述确定巡检人员的位置,之后还包括:
将所述巡检人员的位置与与对应的所述场景点云之间构建链接。
一种面向电力巡检场景的定位系统,包括:
闭环筛选模块:基于双目相机获取巡检人员的定位点云,将所述定位点云与预先构建的巡检场景中的场景点云进行闭环筛选;
判断模块:若所述闭环筛得到场景点云,则基于筛选后的场景点云对当前定位点云进行位姿补偿,确定所述巡检人员的位置;否则,当前巡检人员的位置不在巡检场景范围内。
优选的,所述闭环筛选模块中,包括:建模模块;
建模模块,包括:
初始位姿获取子模块:通过IMU地磁计获取双目相机的初始位姿;
场景点云构建子模块:基于所述初始姿态,通过双目相机创建关键帧,并根据所述关键帧构建场景点云;
闭环检测子模块:将所述场景点云存入设定的拓扑地图中,并进行闭环检测;若通过所述闭环检测,则以设定次数重复所述步骤二和步骤三,得到巡检场景;否则,重新创建关键帧,并以设定次数重复所述步骤二和步骤三,直到通过闭环检测。
与现有技术相比,本发明的有益效果为:基于双目相机获取巡检人员的定位点云,将所述定位点云与预先构建的巡检场景中的场景点云进行闭环筛选;若所述闭环筛得到场景点云,则基于筛选后的场景点云对当前定位点云进行位姿补偿,确定所述巡检人员的位置;否则,当前巡检人员的位置不在巡检场景范围内。本发明将巡检人员的定位点云与场景点云进行闭环筛选,准确寻找到与定位点云匹配程度最高场景点云,提高了定位点云与场景点云之间匹配的精度;此外,通过将定位点云进行位姿补偿,能够减少巡检人员的初始位姿误差,提高了巡检人员的定位精度。
附图说明
图1为本发明的一种面向电力巡检场景的定位方法示意图;
图2为本发明的相对位姿推算构建流程图;
图3为本发明实施例的巡检定位操作流程图
图4位本发明中巡检场景构建流程图。
具体实施方式
为了更好地理解本发明,下面结合说明书附图和实例对本发明的内容做进一步的说明。
实施例1:
本实施例提供了一种面向电力巡检场景的定位方法,方法流程图如图1所示。
步骤一:针对变电站室内外场景,利用深度视觉传感器通过构建点云阵列,实现现场作业环境的快速建模,即巡检场景的建模。获取图像深度信息和场景点的位姿信息是通过配套ZED Camera的ZED SDK获取的。ZED SDK利用ZED Camera采集到的双目图像进行双目视差计算进而恢复出三维场景的深度信息,再通过位姿推算输出视觉里程计,根据视觉里程计的输出从而确定当前场景点的位置。由于视觉里程计无法给出初始的位姿,因此需要额外通过获取IMU地磁计的数值来确定当前系统的朝向。
巡检场景流程图如图4所示
步骤一:通过IMU地磁计获取双目相机的初始位姿;
步骤二:基于初始姿态,通过双目相机创建关键帧,如果创建失败,则继续创建关键帧;否则通过所述关键帧采集场景点图像并获取所述场景点的三维深度信息;
将所述三维深度信息通过位姿推算进行位姿校正,并通过视觉里程计构建场景点云。
步骤三:将场景点云存入设定的拓扑地图中,并进行闭环检测;若通过闭环检测,则以设定次数重复步骤二和步骤三,得到巡检场景;否则,重新创建关键帧,并以设定次数重复步骤二和步骤三,直到通过闭环检测。
步骤二:进行闭环检测,当一个闭环假设被认为是成立时(将当前现场扫描的场景图与地图库中场景进行闭环检测),新的定位点Lt就与旧的定位点Li之间建立了闭环链接,形成闭环的定位点不进行融合,仅仅在它们之间添加一条链接。这既能使同一定位点的不同签名得以保存,又能够对将来闭环假设有更好的估计,这在高度动态变换的环境中或者当环境随着时间循环变化(比如白天到黑夜或者天气变换等)时非常重要。
步骤三:当通过闭环假设选择后,则认定当前的场景点在已探索过的地图中被访问的。假设在闭环检测到当前地点(当前地点是指本次扫描到的定位点,场景点指的是上一次扫描到的定位点坐标,本段中的定位点就是步骤二中的新定位点Lt,场景点指的就是步骤二中的旧定位点Li)与地图中某一场景点形成闭环(即重新访问),获取节点中存储的该场景点全局位姿,则认为当前位姿大致接近场景点在地图中保存的全局位姿。
步骤四:在实际环境中,闭环检测出的场景点与地图中的场景点虽然大致位于同一位置,但是视觉传感器在两次采集的过程中不可能完全保持相同的位姿。为了得到更加精确的定位结果,需要对当前双目相机场景点位置和创建地图时地图库中场景点位置进行相对位姿推算,即通过利用图像特征匹配及配准,恢复出两帧场景图像之间的旋转关系矩阵R和平移关系矩阵T,最终获得修正后的精确定位信息。
实际获取的场景点与地图库中保存的场景点具有一定位姿偏差。设XW为全局坐标系,XK为相机坐标系。世界环境中的实际物体由绿色点标出,物体在不同相机位姿下的成像点由红色点标出。经过配准过程,从两帧闭环的图像的重叠区域中找出对应的特征,根据特征点对的成像位置与对应的在世界中的位置来求解相机的位姿变换,即旋转平移矩阵。
由于从不同角度获得的场景图像,彼此之间仅仅是部分重叠,重叠区域占总体图像特征的比率一般较低,这就要求拓扑定位闭环检测到的匹配图像之间的相对位置,不能与真实的相对位置相差太大,因此,需要进行位姿补偿,位姿补偿是通过相对位推算实现的。相对位姿推算将两张图像间的精确配准,通过不断迭代两帧图像的点云图来实现精确地拼合,并得到对应的旋转与平移矩阵R和T,相对位姿推算的构建流程图如图2所示。
核心是要找到待配准三维点云与参考三维点云之间的旋转平移矩阵R和T,使得两点云对之间尽可能重合的最优配准。它将三维点云数据配准的问题转变成三维点空间距离误差和极值的问题来进行求解。其本质上是基于最小二乘法的匹配方法,该算法重复进行选择对应关系的点云对,计算出最优旋转平移变换矩阵R和T,直到满足点云之间距离误差阈值的要求。
1.对于给定的三维点云A(x,y,z)和B(x,y,z),筛选出A(x,y,z)中每一个点在点云B(x,y,z)中最近的点,由此获得点云集合d(x,y,z);
2.中心化,对点云A(x,y,z)和点云d(x,y,z)分别求出其质心:
其中Ai(x,y,z)和di(x,y,z)分别表示点云A(x,y,z)和点云d(x,y,z)中的每一个独立的点。
3.计算点云A(x,y,z)和点云d(x,y,z)的协方差矩阵:
4.由∑A,d构造出4*4的矩阵Q:
其中,tr(∑A,d)为矩阵∑A,d的迹。
5.计算求得对称矩阵Q的特征值,并选择最大的特征值来求解特征向量,根据罗德里格旋转公式将特征向量转化为旋转矩阵R,并由T=μ′-Rμ求得平移矩阵T。
6.根据求得的旋转矩阵R和平移矩阵T,定义距离函数为:
当前旋转矩阵平移矩阵R和T所对应的距离函数小于一定阈值时,则认为求得的R和T满足精度要求,否则重复步骤1-6直至满足阈值要求或达到迭代次数的上限。
对当前位姿和已走过的路径上的位姿进行偏差补偿。利用上一步求得的旋转平移矩阵[R,T]对当前全局位姿进行纠正,同时纠正之前走过的路径点上的位姿,得到正确的全局路径。
步骤五:危险区域划分,将电力现场作业辅助系统对接设定系统,获取目前带电设备及区域数据,通过当前现场作业人员工作任务,系统自动划定作业区域坐标,对于超出作业区域范围的现场作业人员进行报警提醒,保障现场作业人员的人身安全。
实施例2:
本实施例提供了一种面向电力巡检场景的定位系统,包括:
闭环筛选模块:基于双目相机获取巡检人员的定位点云,将所述定位点云与预先构建的巡检场景中的场景点云进行闭环筛选;
判断模块:若所述闭环筛得到场景点云,则基于筛选后的场景点云对当前定位点云进行位姿补偿,确定所述巡检人员的位置;否则,当前巡检人员的位置不在巡检场景范围内。
所述闭环筛选模块中,包括:建模模块;
建模模块,包括:
初始位姿获取子模块:通过IMU地磁计获取双目相机的初始位姿;
场景点云构建子模块:基于所述初始姿态,通过双目相机创建关键帧,并根据所述关键帧构建场景点云;
闭环检测子模块:将所述场景点云存入设定的拓扑地图中,并进行闭环检测;若通过所述闭环检测,则以设定次数重复所述步骤二和步骤三,得到巡检场景;否则,重新创建关键帧,并以设定次数重复所述步骤二和步骤三,直到通过闭环检测。
所述场景点云构建子模块,包括:
创建判断单元:通过双目相机创建关键帧,如果创建失败,则继续创建关键帧;否则通过所述关键帧采集场景点图像并获取所述场景点的三维深度信息;
场景点云构建单元:将所述三维深度信息通过位姿推算进行位姿校正,并通过视觉里程计构建场景点云。
所述闭环筛选模块,包括:
三维数据获取子模块:通过双目相机获取巡检人员定位点云中的所有三维坐标数据;
筛选子模块:基于所有三维坐标数据与所有的场景点云的三维坐标数据通过闭环检测进行筛选,得到筛选后的场景点云。
所述判断模块,包括:
距离函数构建子模块:基于所述筛选后的场景点云和所述当前定位点云构建距离函数;
位姿补偿子模块:基于所述距离函数对所述当前定位点云中所有的三维坐标进行位姿补偿,确定所述巡检人员的位置。
所述距离函数构建子模块,包括:
第一点云构建单元:筛选所述当前定位点云中与所述筛选后的场景点云中距离小于设定阈值的点,构成第一点云;
协方差矩阵构建单元:将所述定位点云和第一点云,通过中心化,计算得到定位点云质心和第一点云质心,并基于所述定位点云质心和第一点云质心构建协方差矩阵;
对称矩阵构建单元:基于所述协方差矩阵构建对称矩阵,并得到对称矩阵特征值;
特征向量求解单元:选择最大的特征值来求解特征向量;
距离函数构建单元:基于所述特征向量,构建旋转矩阵和平移矩阵,并根据所述旋转矩阵和平移矩阵,得到距离函数。
所述距离函数构建单元,包括:
转换子单元:根据罗德里格旋转公式将特征向量转化为旋转矩阵;
平移矩阵构建单元:根据下式求得平移矩阵;
T=μ′-Rμ
式中,T为平移矩阵,μ′为第一点云质心,μ为当前定位点云质心,R为旋转矩阵。
所述协方差矩阵构建单元通过下式计算定位点云质心μ:
其中,μ为当前定位点云质心,N为当前定位点云中点的数量,Ai为当前定位点云中的点,i=1,2,3…N;
所述第一点云质心μ′的计算,如下式所示:
其中,N′为第一点云中点的数量,N′=N,di为第一点云中的点,i=1,2,3…N。
所述协方差矩阵构建单元通过下式构建协方差矩阵:
其中,∑A,d为方差矩阵,N为定位点云中点的数量,Ai为定位点云中的点,di为场景点云中的点,μ′为第一点云质心,μ为定位点云质心,T为平移矩阵。
所述对称矩阵构建单元通过下式构建对称矩阵:
其中,Q为对称矩阵,tr(∑A,d)为矩阵∑A,d的迹,Δ为对称矩阵Q中的子元素,ΔT为对阵矩阵中的子元素的秩。
所述距离函数构建单元通过下式构建距离函数:
其中,E为距离函数,R为旋转矩阵,Ai为定位点云中的点,i=1,2,3…N,di为第一点云中的点,i=1,2,3…N,T为平移矩阵,N为定位点云中点的数量,x为横坐标,y为纵坐标,z为深度坐标。
所述闭环筛选模块,还包括:
闭环链接检测子模块:判断所述场景点云是否存在闭环链接,若存在,则将所述所有三维坐标数据与所述场景点云闭环链接的点云进行闭环检测;否则,将所述所有三维坐标数据与所有的场景点云的三维坐标数据进行闭环检测;
所述系统还包括:
链接构建模块:将所述巡检人员的位置与与应的所述场景点云之间构建链接。
实施例3:
本实施例提供了一种面向电力巡检场景定位的现场操作方法,操作流程图如图3所示,具体为:
1、用户佩戴可穿戴智能头盔,开展现场作业,登录现场作业辅助系统;
2、打开智能头盔上的双目视觉传感器获取景深点云数据;
3、利用点云阵列实时计算人员定位坐标;
4、通过闭关检测和位姿纠正算法,优化人员定位坐标的精度,从而获取现场作业人员的实时定位信息;
5、对接D6000生产管理系统,获取目前变电站内带电设备及区域的坐标信息;
6、实时判断是否有作业人员超出安全作业范围,对于超出作业范围的危险人员及时通过智能头盔振动/声音报警的方式,提醒其处于危险区域,并及时通知后台监控人员,从而最大程度的保障现场作业人员的人身安全。
本发明涉及一种面向电力巡检场景下的双目姿态与视觉信息融合定位方法,利用深度视觉场景识别中的闭环检测技术,克服视觉里程计无法初始定位的问题以及只能开环地进行位姿推算、容易累计定位误差的缺点,通过闭环检测实时对当前采集的场景图与地图库中的场景进行匹配,辅助双目视觉姿态调整算法,获得高精度的拓扑定位结果,从而大幅提高基于深度视觉传感器在变电站室内环境下导航定位的精度,实现变电站人员的精确定位,从而划定危险区域,实现人员现场作业站位的安全管控,大幅提高现场作业人员的人身安全。
显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上仅为本发明的实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均包含在申请待批的本发明的权利要求范围之内。
Claims (15)
1.一种面向电力巡检场景的定位方法,其特征在于,包括:
基于双目相机获取巡检人员的定位点云,将所述定位点云与预先构建的巡检场景中的场景点云进行闭环筛选;
若所述闭环筛选得到场景点云,则基于筛选后的场景点云对当前定位点云进行位姿补偿,确定所述巡检人员的位置;否则,当前巡检人员的位置不在巡检场景范围内。
2.如权利要求1所述的方法,其特征在于,所述巡检场景的构建,包括:
步骤一:通过IMU地磁计获取双目相机的初始位姿;
步骤二:基于所述初始姿态,通过双目相机创建关键帧,并根据所述关键帧构建场景点云;
步骤三:将所述场景点云存入设定的拓扑地图中,并进行闭环检测;若通过所述闭环检测,则以设定次数重复所述步骤二和步骤三,得到巡检场景;否则,重新创建关键帧,并以设定次数重复所述步骤二和步骤三,直到通过闭环检测。
3.如权利要求2所述的方法,其特征在于,所述通过双目相机创建关键帧,并根据所述关键帧构建场景点云,包括:
通过双目相机创建关键帧,如果创建失败,则继续创建关键帧;否则通过所述关键帧采集场景点图像并获取所述场景点的三维深度信息;
将所述三维深度信息通过位姿推算进行位姿校正,并通过视觉里程计构建场景点云。
4.如权利要求1所述的方法,其特征在于,所述基于双目相机获取巡检人员的定位点云,将所述定位点云与预先构建的巡检场景中的场景点云进行闭环筛选,包括:
通过双目相机获取巡检人员定位点云中的所有三维坐标数据;
基于所有三维坐标数据与所有的场景点云的三维坐标数据通过闭环检测进行筛选,得到筛选后的场景点云。
5.如权利要求4所述的方法,其特征在于,所述基于筛选后的场景点云对当前定位点云进行位姿补偿,确定所述巡检人员的位置,包括:
基于所述筛选后的场景点云和所述当前定位点云构建距离函数;
基于所述距离函数对所述当前定位点云中所有的三维坐标进行位姿补偿,确定所述巡检人员的位置。
6.如权利要求5所述的方法,其特征在于,所述相对距离函数的构建,包括:
筛选所述当前定位点云中与所述筛选后的场景点云中距离小于设定阈值的点,构成第一点云;
将所述定位点云和第一点云,通过中心化,计算得到定位点云质心和第一点云质心,并基于所述定位点云质心和第一点云质心构建协方差矩阵;
基于所述协方差矩阵构建对称矩阵,并得到对称矩阵特征值;
选择最大的特征值来求解特征向量;
基于所述特征向量,构建旋转矩阵和平移矩阵,并根据所述旋转矩阵和平移矩阵,得到距离函数。
7.如权利要求6所述的方法,其特征在于,所述基于所述特征向量,构建旋转矩阵和平移矩阵,包括:
根据罗德里格旋转公式将特征向量转化为旋转矩阵;
根据下式求得平移矩阵;
T=μ′-Rμ
式中,T为平移矩阵,μ′为第一点云质心,μ为当前定位点云质心,R为旋转矩阵。
12.如权利要求4所述的方法,其特征在于,所述基于所有三维坐标数据与所有的场景点云的三维坐标数据通过闭环检测进行筛选,得到筛选后的场景点云,之前还包括:
判断所述场景点云是否存在闭环链接,若存在,则将所述所有三维坐标数据与所述场景点云闭环链接的点云进行闭环检测;否则,将所述所有三维坐标数据与所有的场景点云的三维坐标数据进行闭环检测。
13.如权利要求1所述的方法,其特征在于,所述确定巡检人员的位置,之后还包括:
将所述巡检人员的位置与与对应的所述场景点云之间构建链接。
14.一种面向电力巡检场景的定位系统,其特征在于,包括:
闭环筛选模块:基于双目相机获取巡检人员的定位点云,将所述定位点云与预先构建的巡检场景中的场景点云进行闭环筛选;
判断模块:若所述闭环筛得到场景点云,则基于筛选后的场景点云对当前定位点云进行位姿补偿,确定所述巡检人员的位置;否则,当前巡检人员的位置不在巡检场景范围内。
15.如权利要求14所述的系统,其特征在于,所述闭环筛选模块中,包括:建模模块;
所述建模模块,包括:
初始位姿获取子模块:通过IMU地磁计获取双目相机的初始位姿;
场景点云构建子模块:基于所述初始姿态,通过双目相机创建关键帧,并根据所述关键帧构建场景点云;
闭环检测子模块:将所述场景点云存入设定的拓扑地图中,并进行闭环检测;若通过所述闭环检测,则以设定次数重复所述步骤二和步骤三,得到巡检场景;否则,重新创建关键帧,并以设定次数重复所述步骤二和步骤三,直到通过闭环检测。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910805641.7A CN110702101A (zh) | 2019-08-29 | 2019-08-29 | 一种面向电力巡检场景的定位方法及系统 |
PCT/CN2020/103175 WO2021036587A1 (zh) | 2019-08-29 | 2020-07-21 | 面向电力巡检场景的定位方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910805641.7A CN110702101A (zh) | 2019-08-29 | 2019-08-29 | 一种面向电力巡检场景的定位方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110702101A true CN110702101A (zh) | 2020-01-17 |
Family
ID=69194114
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910805641.7A Pending CN110702101A (zh) | 2019-08-29 | 2019-08-29 | 一种面向电力巡检场景的定位方法及系统 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN110702101A (zh) |
WO (1) | WO2021036587A1 (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111443091A (zh) * | 2020-04-08 | 2020-07-24 | 中国电力科学研究院有限公司 | 电缆线路隧道工程缺陷判断方法 |
CN112612002A (zh) * | 2020-12-01 | 2021-04-06 | 北京天地玛珂电液控制系统有限公司 | 煤矿井下全工作面场景空间的数字化构建系统和方法 |
CN113421356A (zh) * | 2021-07-01 | 2021-09-21 | 北京华信傲天网络技术有限公司 | 一种对复杂环境中设备的巡检系统和方法 |
CN114267146A (zh) * | 2021-12-22 | 2022-04-01 | 国网浙江省电力有限公司宁波供电公司 | 隧道监控方法及装置、存储介质及电子设备 |
CN116233219A (zh) * | 2022-11-04 | 2023-06-06 | 国电湖北电力有限公司鄂坪水电厂 | 基于人员定位算法的巡检方法、装置 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018081366A1 (en) * | 2016-10-26 | 2018-05-03 | The Charles Stark Draper Laboratory, Inc. | Vision-aided inertial navigation with loop closure |
CN106840148B (zh) * | 2017-01-24 | 2020-07-17 | 东南大学 | 室外作业环境下基于双目摄像机的可穿戴式定位与路径引导方法 |
CN107796397B (zh) * | 2017-09-14 | 2020-05-15 | 杭州迦智科技有限公司 | 一种机器人双目视觉定位方法、装置和存储介质 |
CN109558879A (zh) * | 2017-09-22 | 2019-04-02 | 华为技术有限公司 | 一种基于点线特征的视觉slam方法和装置 |
CN107657640A (zh) * | 2017-09-30 | 2018-02-02 | 南京大典科技有限公司 | 基于orb slam的智能巡防巡检管理方法 |
CN109658373A (zh) * | 2017-10-10 | 2019-04-19 | 中兴通讯股份有限公司 | 一种巡检方法、设备及计算机可读存储介质 |
CN109682385A (zh) * | 2018-11-05 | 2019-04-26 | 天津大学 | 一种基于orb特征的即时定位与地图构建的方法 |
-
2019
- 2019-08-29 CN CN201910805641.7A patent/CN110702101A/zh active Pending
-
2020
- 2020-07-21 WO PCT/CN2020/103175 patent/WO2021036587A1/zh active Application Filing
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111443091A (zh) * | 2020-04-08 | 2020-07-24 | 中国电力科学研究院有限公司 | 电缆线路隧道工程缺陷判断方法 |
CN111443091B (zh) * | 2020-04-08 | 2023-07-25 | 中国电力科学研究院有限公司 | 电缆线路隧道工程缺陷判断方法 |
CN112612002A (zh) * | 2020-12-01 | 2021-04-06 | 北京天地玛珂电液控制系统有限公司 | 煤矿井下全工作面场景空间的数字化构建系统和方法 |
CN113421356A (zh) * | 2021-07-01 | 2021-09-21 | 北京华信傲天网络技术有限公司 | 一种对复杂环境中设备的巡检系统和方法 |
CN114267146A (zh) * | 2021-12-22 | 2022-04-01 | 国网浙江省电力有限公司宁波供电公司 | 隧道监控方法及装置、存储介质及电子设备 |
CN116233219A (zh) * | 2022-11-04 | 2023-06-06 | 国电湖北电力有限公司鄂坪水电厂 | 基于人员定位算法的巡检方法、装置 |
CN116233219B (zh) * | 2022-11-04 | 2024-04-30 | 国电湖北电力有限公司鄂坪水电厂 | 基于人员定位算法的巡检方法、装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2021036587A1 (zh) | 2021-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110702101A (zh) | 一种面向电力巡检场景的定位方法及系统 | |
CN106840148B (zh) | 室外作业环境下基于双目摄像机的可穿戴式定位与路径引导方法 | |
CN110377015B (zh) | 机器人定位方法和机器人定位装置 | |
US11830216B2 (en) | Information processing apparatus, information processing method, and storage medium | |
CN109901590B (zh) | 桌面机器人的回充控制方法 | |
EP2959315B1 (en) | Generation of 3d models of an environment | |
JP5296746B2 (ja) | マップ作成方法および装置とそのマップを利用した定位方法 | |
CN109029257A (zh) | 基于立体视觉和结构光视觉的大型工件位姿测量系统、方法 | |
EP1855247B1 (en) | Three-dimensional reconstruction from an image sequence with outlier removal | |
US7659921B2 (en) | Distance measurement apparatus, distance measurement method, and distance measurement program | |
CN102986372B (zh) | 基于全景立体视觉的采摘对象的识别、分类和空间定位装置及方法 | |
CN104704384A (zh) | 具体用于装置的基于视觉的定位的图像处理方法 | |
KR101379787B1 (ko) | 구멍을 가진 구조물을 이용한 카메라와 레이저 거리 센서의 보정 장치 및 보정 방법 | |
KR20140009737A (ko) | 하이브리드 맵 기반 로봇의 위치인식방법 | |
KR20120099952A (ko) | 센서 시스템, 이를 이용하는 환경 지도 작성 시스템 및 방법 | |
CN111753712A (zh) | 电力生产人员安全监测方法、系统以及设备 | |
CN110751123B (zh) | 一种单目视觉惯性里程计系统及方法 | |
LU500407B1 (en) | Real-time positioning method for inspection robot | |
CN106352871A (zh) | 一种基于天花板人工信标的视觉室内定位系统和方法 | |
CN116958146B (zh) | 3d点云的采集方法及装置、电子装置 | |
Hertzberg et al. | Experiences in building a visual SLAM system from open source components | |
Iqbal et al. | A unified SLAM solution using partial 3D structure | |
Zalud et al. | Calibration and evaluation of parameters in a 3D proximity rotating scanner | |
KR20140053712A (ko) | 센서 융합에 의한 실내로봇용 위치인식 방법 | |
Mazzei et al. | A lasers and cameras calibration procedure for VIAC multi-sensorized vehicles |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |