CN114330502A - 基于uwb和虚实场景相似度度量融合的运维人员精确定位方法 - Google Patents

基于uwb和虚实场景相似度度量融合的运维人员精确定位方法 Download PDF

Info

Publication number
CN114330502A
CN114330502A CN202111474924.1A CN202111474924A CN114330502A CN 114330502 A CN114330502 A CN 114330502A CN 202111474924 A CN202111474924 A CN 202111474924A CN 114330502 A CN114330502 A CN 114330502A
Authority
CN
China
Prior art keywords
virtual
yaw
pitch
angle
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111474924.1A
Other languages
English (en)
Inventor
毛虎贲
高佳
王磊
李祎男
谭斌斌
黄武荣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan Xindian Electrical Co ltd
Original Assignee
Wuhan Xindian Electrical Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan Xindian Electrical Co ltd filed Critical Wuhan Xindian Electrical Co ltd
Priority to CN202111474924.1A priority Critical patent/CN114330502A/zh
Publication of CN114330502A publication Critical patent/CN114330502A/zh
Pending legal-status Critical Current

Links

Images

Abstract

本发明公开了一种基于UWB和虚实场景相似度度量融合的运维人员精确定位方法,建立空间误差模型‑根据空间误差模型获取最优x方向步长sx和y方向步长sy、偏航角步长syaw及俯仰角步长spitch‑UWB初步定位与虚实场景图像获取及预处理‑虚实场景相似度度量及精确定位。建立了空间误差模型,使用几何关系与概率误差理论对UWB与虚实场景相似度度量融合的定位方法进行了理论分析,在容许误差内使定位时间达到最短采用UWB和虚实场景相似度度量融合的方法,克服遮挡等因素对UWB定位精度的影响,显著提高了定位精度,可为变电站智能化运维和安全生产提供技术支持。

Description

基于UWB和虚实场景相似度度量融合的运维人员精确定位 方法
技术领域
本发明属于空间定位技术领域,具体涉及一种基于UWB和虚实场景相似度度量融合的运维人员精确定位方法。
背景技术
目前常用的定位技术主要有Wi-Fi、FRID、超声波、红外、ZigBee和蓝牙等,这些定位技术在机场、煤矿、医院、隧道、建筑施工工地等场合得到了广泛应用,且获得了较好的应用效果。由于超宽带(Ultra-WideBand,UWB)具有极大的带宽、极强的时间分辨率和较好的抗电磁干扰能力,适用于变电站巡检系统的需求。近年来,UWB在电力系统得到了广泛应用,但变电站内变电设备密集并且遮挡严重,极大影响了UWB定位的精度。与WiFi和ZigBee相比,尽管UWB定位精确度得到了较大提升,但UWB定位技术在变电站复杂环境下的定位精度尚不能够满足实际的定位需求。为提高变电站运维人员定位精度,UWB定位和其它方式结合的定位方法不断被提出,如UWB定位和电力GIS相结合、UWB和惯性导航器相结合等定位方法,但这些方法对设备的要求较高,运行成本较大。另外,UWB定位技术在变电站复杂环境下,受变电站设备遮挡等因素的影响,导致定位精度降低而难以满足变电站运维安全的实际要求。
由于现实环境的复杂性,误差模型只能近似地反应步长与误差之间的关系,且在垂直高度的z-轴方向模型与实际的偏差相对较大;进行照片相似度匹配的流程中,需要对虚拟场景采样的候选照片进行储存,占用存储空间较大;若虚拟场景照片采集程序与相似度计算程序不在同一台计算机上运行则还会受到数据传输速率的影响。
中国发明专利申请(申请公布号CN112367612A、申请公布日2021.02.12)公开了一种基于UWB的定位方法、UWB设备及定位系统、中国发明专利(授权公告号CN111091170B、授权公告日2020.8.25)公开了一种基于UWB定位和毫米波成像的场所人员管理。上述对比文件都是采用单一的UWB定位,不适应于复杂的变电站环境下的运维人员的定位。
发明内容
本发明针对上述技术的不足,提供一种能显著提高定位精度的基于UWB和虚实场景相似度度量融合的运维人员精确定位方法。
为解决上述技术问题,本发明提供一种基于UWB和虚实场景相似度度量融合的运维人员精确定位方法,具体过程如下:
步骤1)建立空间误差模型
通过几何关系与概率误差理论建立空间误差模型,空间误差模型为:
Figure BDA0003391272420000021
且约束条件中的概率p为:
Figure BDA0003391272420000022
所取
Figure BDA0003391272420000023
其中,t0为计算机处理一张图像所需的时间,e0为误差阈值,p0为概率阈值;
-Rx~Rx为x方向搜索范围,sx为x方向步长;-Ry~Ry为y方向搜索范围,sy为y方向步长;-βyaw为偏航角(yaw)变化范围的下限值,βyaw为偏航角(yaw)变化范围的上限值,syaw为偏航角改变步长;-βpitch为俯仰角(pitch)变化范围的下限值,βpitch为俯仰角(pitch)变化范围的上限值,spitch为俯仰角改变步长;t(sx,sy,syaw,spitch)为设定位时间;Ctrue为真实坐标,
Figure BDA0003391272420000024
为真实偏航角,
Figure BDA0003391272420000025
为真实俯仰角;
步骤2)根据空间误差模型获取最优x方向步长sx和y方向步长sy、偏航角步长syaw及俯仰角步长spitch
步骤3)UWB初步定位与虚实场景图像获取及预处理;
首先利用UWB定位系统获取运维人员在真实变电站场景中的定位信息,利用运维人员佩戴的头盔式摄像头获取在该位置拍摄的真实变电站场景图像;将运维人员在真实变电站场景中UWB定位的位置信息映射至虚拟变电站场景,得到运维人员在虚拟变电站场景的位置信息;然后以映射至虚拟变电站场景的位置为基准点,通过步骤2)中得到的最优x方向步长、y方向步长、偏航角步长和俯仰角步长调整虚拟相机的位置(x,y)、偏航角及俯仰角,拍摄系列虚拟变电站场景图像,并对虚拟变电站场景图像进行处理;然后对真实变电站场景图像进行处理;
步骤4)虚实场景相似度度量及精确定位
首先对步骤3)中获取的虚实场景图像进行初筛,然后对初筛结果进行虚实场景相似度度量并计算相似度得分,得分最高者即为与真实变电站场景图像最相似的虚拟变电站场景图像;获取所确定的与真实场景图像最相似的虚拟场景图像的拍摄位置,并映射至真实变电站场景,对运维人员在变电站的UWB定位结果进行修正;最后,输出运维人员在变电站的精确位置。
进一步地,所述步骤1)中,误差error的具体计算过程如下:
将UWB定位坐标映射至虚拟场景后得到对应的虚拟定位坐标,并将虚拟定位坐标作为虚拟场景的相对坐标原点;若真实坐标映射至虚拟场景后的虚拟坐标在搜索范围内服从均匀分布,则真实图像的偏航角和俯仰角在角度变化范围内也服从均匀分布;采用蒙特卡洛方法,对真实坐标、真实偏航角和真实俯仰角均按照均匀分布进行独立抽样,得到m组样本,每组样本均包括真实坐标Ctrue、真实偏航角
Figure BDA0003391272420000031
和真实俯仰角
Figure BDA0003391272420000032
Ctrue~U([-Rx,Rx]×[-Ry,Ry])
Figure BDA0003391272420000033
得到m组样本后,记这m组样本中误差error满足
Figure BDA0003391272420000034
的总组数记为m′,由大数定律知当m→∞时
Figure BDA0003391272420000041
于是将f作为所需的概率p。
进一步地,所述步骤2)中的具体过程为:
2a)设虚拟相机到目标镜像的距离为L,虚拟相机偏航视野半开角为αyaw,当虚拟相机的偏航角相对于偏航中心线改变αyaw时,得到偏航角改变引起的图像形变量为
Figure BDA0003391272420000042
同理,当虚拟相机俯仰视野半开角为αpitch,虚拟相机的俯仰角相对于俯仰中心线改变αpitch时,得到俯仰角改变引起的图像形变量为
Figure BDA0003391272420000043
根据真实坐标Ctrue=(Xtrue,Ytrue)、真实偏航角
Figure BDA0003391272420000044
和真实俯仰角
Figure BDA0003391272420000045
得到偏航角候选圆周方程为:
Figure BDA0003391272420000046
式中,(Xyaw,Yyaw)是偏航角候选圆周的圆心坐标,
Figure BDA0003391272420000047
是偏航角候选圆周的半径
Figure BDA0003391272420000048
Figure BDA0003391272420000049
Figure BDA00033912724200000410
式中,L为虚拟相机到目标镜像的距离,αyaw为虚拟相机偏航视野半开角;
设二维搜索平面:x方向搜索范围为-Rx~Rx,y方向搜索范围为-Ry~Ry内相机的高度z=Z0时计算得到俯仰角候选圆周族可表示为
Figure BDA00033912724200000411
式中,(Zpitch(Y),Ypitch(Y))是偏航角候选圆周上(X,Y)处的俯仰角候选圆周圆心坐标,
Figure BDA0003391272420000058
为该俯仰角候选圆周的半径
Figure BDA0003391272420000051
Figure BDA0003391272420000052
Figure BDA0003391272420000053
式中,αpitch为虚拟相机俯仰视野半开角;
2b)采用Monte Carlo方法获取多组步长,每组步长包括x方向步长sx、y方向步长sy、偏航角步长syaw及俯仰角步长spitch;对每组真实坐标Ctrue和真实偏航俯仰角
Figure BDA0003391272420000054
确定出其偏航角候选圆周Ciryaw,得偏航角候选圆周上的参考候选点集合为
Figure BDA0003391272420000055
式中,(Xyaw,Yyaw)是偏航角-候选圆周的圆心坐标,
Figure BDA0003391272420000059
是偏航角-候选圆周的半径,Yaw表示偏航角取值集合,
Figure BDA0003391272420000056
然后在偏航角候选圆周的参考候选点集合中每个点的位置处计算出该处的俯仰角候选圆周,取俯仰角候选圆周上满足俯仰角步长关系的坐标点在xOy平面上的投影点并入参考候选点集合;最后选取位于搜索范围[-Rx,Rx]×[-Ry,Ry]内的参考候选点,得到最终的参考候选点集合为
Figure BDA0003391272420000057
式中,Spitch(X,Y)为偏航角候选圆周上(X,Y)处俯仰角候选圆周投影的参考候选点
Figure BDA0003391272420000061
式中,x是参考候选点的x轴方向坐标,Pitch表示俯仰角取值集合
Figure BDA0003391272420000062
2c)得到最终的参考候选点集合后,对每个最终的参考候选点,选取候选坐标集Scand(Scand={(usx,vsy):u=0,±1,...,±[Rx/sx],v=0,±1,...,±[Ry/sy]})中与最终的参考候选点距离最近的四个坐标点作为该最终的参考候选点的包络;所有最终的参考候选点的包络组成包络点集合Enve,计算包络点集合中每个候选坐标点与参考候选点的相似度距离DS,将相似度距离最小的候选坐标点作为算法的最终定位坐标;
对于包络点集合Enve中的某个候选坐标点Ccand,相似度距离DS由两部分组成:该候选坐标点到某个参考候选点C距离和图像形变惩罚项。设θyaw与θpitch为C处对应的偏航角与俯仰角,取图像形变惩罚项为
Figure BDA0003391272420000063
于是Ccand处相似度距离定义为
Figure BDA0003391272420000064
式中,最小值主值argmin是对C∈Syaw-pitch所取。最后,最终定位坐标为包络点集合中相似度距离最小的坐标点,即
CAlg=argmin DS(Ccand)
从而对于一组输入Ctrue
Figure BDA0003391272420000065
算法定位误差为
Figure BDA0003391272420000066
使用外点罚函数法与遗传算法对误差模型进行求解,得到优化结果,即最优x方向步长sx和y方向步长sy、偏航角步长syaw及俯仰角步长spitch
进一步地,所述步骤3)的具体过程为:
首先使用UWB定位技术获取运维人员的位置信息,将该位置坐标映射到虚拟变电站场景中得到虚拟变电站场景中的对应坐标,然后以该对应坐标为中心,以x、y方向各-Rx~Rx,-Ry~Ry范围为初始定位范围;
虚实场景图像获取及预处理为:在虚拟变电站场景中对应的初始定位范围内,以步骤2)得到的最优x方向步长sx和y方向步长sy、偏航角步长syaw及俯仰角步长spitch移动虚拟相机坐标(x,y)获取系列虚拟图像;然后对虚拟变电站场景图像进行处理。
进一步地,所述步骤4)的具体过程为:
虚实场景相似度度量及精确定位中的初筛操作为:对处理好的系列虚拟变电站场景图像A分别与处理好的真实变电站场景图像T进行相似度计算。首先进行初筛:取A左侧1/20的条形子区域Lmargin_A、右侧1/20的条形子区域Rmargin_A,取T左侧1/20的条形子区域Lmargin_T、右侧1/20的条形子区域Rmargin_T;计算Lmargin_A与Lmargin_T之间像素值差异大于给定阈值x的占比Lratio_A,Rmargin_A与Rmargin_T之间像素值差异大于给定阈值x的占比Rratio_A;然后把虚拟变电站场景图像按照ratio_A由小到大排序,选取前5%的虚拟变电站场景图像作为初筛结果;
虚实场景相似度度量及精确定位操作为:对初筛结果中的图像A和T进行Canny边缘检测得到边缘图像
Figure BDA0003391272420000071
Figure BDA0003391272420000072
为衡量两张图像的相似度,本文采用Frobenius-范数(F-范数)进行相似性度量,则图像A与T的差异定义为
Figure BDA0003391272420000073
式中,λ为边缘相似度系数;图像A与B的相似度得分定义为
Figure BDA0003391272420000074
由S(A,T)计算图像相似度得分,选取相似度得分最高的虚拟图像拍摄的坐标,将其映射至真实变电站场景中作为精确定位坐标。
与现有技术相比,本发明具有以下优点:
1)传统UWB定位技术在变电站复杂环境下,受变电设备遮挡等因素的影响,导致定位精度降低而难以满足变电站运维安全的实际要求;本发明使用UWB与虚实场景相似度度量融合的定位方法,有效地提高了变电站运维人员的定位精度,能满足实际运维需求。
2)UWB定位和电力GIS相结合、UWB和惯性导航器相结合等定位方法对设备的要求较高,运行成本较大;本发明使用虚实场景图像的相似度度量来辅助UWB定位,对设备要求低,只需在一台普通电脑上便可实现需求,从而降低了运行成本。
3)本发明中建立了空间误差模型,使用几何关系与概率误差理论对UWB与虚实场景相似度度量融合的定位方法进行了理论分析,在容许误差内使定位时间达到最短采用UWB和虚实场景相似度度量融合的方法,克服遮挡等因素对UWB定位精度的影响,显著提高了定位精度,可为变电站智能化运维和安全生产提供技术支持。
附图说明
图1为偏航角-候选圆周示意图;
图2为偏航角-候选圆周与俯仰角-候选圆周关系示意图;
图3为某一偏航角-候选圆周示意图。
具体实施方式
下面结合附图与具体实施例对本发明作进一步的详细说明。
基于UWB和虚实场景相似度度量融合的运维人员精确定位方法,具体过程如下:
步骤1)建立空间误差模型
通过几何关系与概率误差理论建立空间误差模型,空间误差模型为:
Figure BDA0003391272420000081
且约束条件中的概率p为:
Figure BDA0003391272420000082
所取
Figure BDA0003391272420000091
其中,t0为计算机处理一张图像所需的时间,e0为误差阈值,p0为概率阈值;
-Rx~Rx为x方向搜索范围,sx为x方向步长;-Ry~Ry为y方向搜索范围,sy为y方向步长;-βyaw为偏航角(yaw)变化范围的下限值,βyaw为偏航角(yaw)变化范围的上限值,syaw为偏航角改变步长;-βpitch为俯仰角(pitch)变化范围的下限值,βpitch为俯仰角(pitch)变化范围的上限值,spitch为俯仰角改变步长;t(sx,sy,syaw,spitch)为设定位时间;Ctrue为真实坐标,
Figure BDA0003391272420000096
为真实偏航角,
Figure BDA0003391272420000097
为真实俯仰角。
误差error的具体计算过程如下:
将UWB定位坐标映射至虚拟场景后得到对应的虚拟定位坐标,并将虚拟定位坐标作为虚拟场景的相对坐标原点;若真实坐标映射至虚拟场景后的虚拟坐标在搜索范围(x方向搜索范围为-Rx~Rx,y方向搜索范围为-Ry~Ry)内服从均匀分布,则真实图像的偏航角和俯仰角在角度变化范围(即偏航角(yaw)变化范围为-βyaw~βyaw、俯仰角(pitch)改变范围为-βpitch~βpitch)内也服从均匀分布;采用Monte-Carol(蒙特卡洛)方法,对真实坐标、真实偏航角和真实俯仰角均按照均匀分布进行独立抽样,得到m组样本,每组样本均包括真实坐标Ctrue、真实偏航角
Figure BDA0003391272420000098
和真实俯仰角
Figure BDA0003391272420000092
Ctrue~U([-Rx,Rx]×[-Ry,Ry])(即真实坐标在搜索范围内均匀分布)
Figure BDA0003391272420000093
(即真实偏航角、真实俯仰角在角度变化范围内均匀分布)
得到m组样本后,记这m组样本中误差error满足
Figure BDA0003391272420000094
的总组数记为m′,由大数定律知当n→∞时
Figure BDA0003391272420000095
于是将f作为所需的概率p;
步骤2)根据空间误差模型获取最优x方向步长sx和y方向步长sy、偏航角步长syaw及俯仰角步长spitch
2a)设虚拟相机到目标镜像的距离为L,虚拟相机偏航视野半开角为αyaw,当虚拟相机的偏航角相对于偏航中心线(偏航角为零)改变αyaw时,得到偏航角改变引起的图像形变量为
Figure BDA0003391272420000101
同理,当虚拟相机俯仰视野半开角为αpitch,虚拟相机的俯仰角相对于俯仰中心线(俯仰角为零)改变αpitch时,得到俯仰角改变引起的图像形变量为
Figure BDA0003391272420000102
计算偏航角候选圆周及俯仰角候选圆周,如图1所示,当虚拟相机在以真实图像的x轴投影为弦且真实坐标所在的圆周为偏航角候选圆周;虚拟相机在偏航角候选圆周上进行运动时,虚拟相机所拍摄到的虚拟图像在x轴方向的信息相同,即虚拟图像在虚拟场景中x轴方向的位置与大小都相同,而仅仅相差一个形变因子。根据真实坐标Ctrue=(Xtrue,Ytrue)、真实偏航角
Figure BDA0003391272420000103
和真实俯仰角
Figure BDA0003391272420000104
得到偏航角候选圆周方程为:
Figure BDA0003391272420000105
式中,(Xyaw,Yyaw)是偏航角候选圆周的圆心坐标,
Figure BDA0003391272420000106
是偏航角候选圆周的半径
Figure BDA0003391272420000107
Figure BDA0003391272420000108
Figure BDA0003391272420000109
式中,L为虚拟相机到目标镜像的距离,αyaw为虚拟相机偏航视野半开角;
虚拟相机在高度方向即z方向进行移动,虚拟相机的搜索空间被扩展成三维空间后,在偏航角候选圆周上的每个点的位置处都将存在一个俯仰角候选圆周,这些俯仰角候选圆周形成俯仰角候选圆周族。俯仰角候选圆周族与偏航角候选圆周正交,如图2,设二维搜索平面(即x方向搜索范围为-Rx~Rx,y方向搜索范围为-Ry~Ry)内相机的高度z=Z0时计算得到俯仰角候选圆周族可表示为
Figure BDA0003391272420000111
式中,(Zpitch(Y),Ypitch(Y))是偏航角候选圆周上(X,Y)处的俯仰角候选圆周圆心坐标,
Figure BDA0003391272420000118
为该俯仰角候选圆周的半径
Figure BDA0003391272420000112
Figure BDA0003391272420000113
Figure BDA0003391272420000114
式中,αpitch为虚拟相机俯仰视野半开角。
2b)采用Monte Carlo方法获取多组步长,每组步长包括x方向步长sx、y方向步长sy、偏航角步长syaw及俯仰角步长spitch;对每组真实坐标Ctrue和真实偏航俯仰角
Figure BDA0003391272420000115
确定出其偏航角候选圆周Ciryaw,如图3,然后选取偏航角候选圆周上偏航角满足偏航角步长关系的坐标点作为参考候选点,得偏航角候选圆周上的参考候选点集合为
Figure BDA0003391272420000116
式中,(Xyaw,Yyaw)是偏航角-候选圆周的圆心坐标,
Figure BDA0003391272420000119
是偏航角-候选圆周的半径,Yaw表示偏航角取值集合,
Figure BDA0003391272420000117
然后在偏航角候选圆周的参考候选点集合中每个点的位置处计算出该处的俯仰角候选圆周,取俯仰角候选圆周上满足俯仰角步长关系的坐标点在xOy平面上的投影点并入参考候选点集合;最后选取位于搜索范围[-Rx,Rx]×[-Ry,Ry]内的参考候选点,得到最终的参考候选点集合为
Figure BDA0003391272420000121
式中,Spitch(X,Y)为偏航角候选圆周上(X,Y)处俯仰角候选圆周投影的参考候选点
Figure BDA0003391272420000122
式中,x是参考候选点的x轴方向坐标,Pitch表示俯仰角取值集合
Figure BDA0003391272420000123
2c)得到最终的参考候选点集合后,对每个最终的参考候选点,选取候选坐标集Scand(Scand={(usx,vsy):u=0,+1,...,±[Rx/sx],v=0,±1,...,±[Ry/sy]})中与最终的参考候选点距离最近的四个坐标点作为该最终的参考候选点的包络。所有最终的参考候选点的包络组成包络点集合Enve,计算包络点集合中每个候选坐标点与参考候选点的相似度距离DS,将相似度距离最小的候选坐标点作为算法的最终定位坐标。
对于包络点集合Enve中的某个候选坐标点Ccand,相似度距离DS应该由两部分组成:该候选坐标点到某个参考候选点C距离和图像形变惩罚项。设θyaw与θpitch为C处对应的偏航角与俯仰角,取图像形变惩罚项为
Figure BDA0003391272420000131
于是Ccand处相似度距离定义为
Figure BDA0003391272420000132
式中,最小值主值argmin是对C∈Syaw-pitch所取。最后,最终定位坐标为包络点集合中相似度距离最小的坐标点,即
CAlg=argmin DS(Ccand)
从而对于一组输入Ctrue
Figure BDA0003391272420000133
算法定位误差为
Figure BDA0003391272420000134
使用外点罚函数法与遗传算法对误差模型进行求解,得到优化结果,即最优x方向步长sx和y方向步长sy、偏航角步长syaw及俯仰角步长spitch
步骤3)UWB初步定位与虚实场景图像获取及预处理
首先利用UWB定位系统获取运维人员在真实变电站场景中的定位信息,利用运维人员佩戴的头盔式摄像头获取在该位置拍摄的真实变电站场景图像;将运维人员在真实变电站场景中UWB定位的位置信息映射至虚拟变电站场景,得到运维人员在虚拟变电站场景的位置信息;然后以映射至虚拟变电站场景的位置为基准点,通过步骤2)中得到的最优x方向步长、y方向步长、偏航角步长和俯仰角步长调整虚拟相机的位置(x,y)、偏航角及俯仰角,拍摄系列虚拟变电站场景图像,并对虚拟变电站场景图像进行处理(色彩空间转换、灰度变换归一化、边缘检测);然后对真实变电站场景图像进行处理(色彩空间转换、灰度变换归一化、边缘检测、k-means聚类、光流分析、特征点匹配)。
3a)UWB初步定位技术操作为:首先使用UWB定位技术获取运维人员的位置信息,将该位置坐标映射到虚拟变电站场景中得到虚拟变电站场景中的对应坐标,然后以该对应坐标为中心,以x、y方向各-Rx~Rx,-Ry~Ry范围为初始定位范围;
虚实场景图像获取及预处理为:在虚拟变电站场景中对应的初始定位范围内,以步骤2)得到的最优x方向步长sx和y方向步长sy、偏航角步长syaw及俯仰角步长spitch移动虚拟相机坐标(x,y)获取系列虚拟图像。然后对真实变电站场景图像进行处理(色彩空间转换、灰度变换归一化、边缘检测、k-means聚类、光流分析、特征点匹配);对虚拟变电站场景图像进行处理(色彩空间转换、灰度变换归一化、边缘检测)。
步骤4)虚实场景相似度度量及精确定位
首先对步骤3)中获取的虚实场景图像进行初筛,然后对初筛结果进行虚实场景相似度度量并计算相似度得分,得分最高者即为与真实变电站场景图像最相似的虚拟变电站场景图像;获取所确定的与真实场景图像最相似的虚拟场景图像的拍摄位置,并映射至真实变电站场景,对运维人员在变电站的UWB定位结果进行修正;最后,输出运维人员在变电站的精确位置。
虚实场景相似度度量及精确定位中的初筛操作为:对处理好的系列虚拟变电站场景图像A分别与处理好的真实变电站场景图像T进行相似度计算。首先进行初筛:取A左侧1/20的条形子区域Lmargin_A、右侧1/20的条形子区域Rmargin_A,取T左侧1/20的条形子区域Lmargin_T、右侧1/20的条形子区域Rmargin_T;计算Lmargin_A与Lmargin_T之间像素值差异大于给定阈值x的占比Lratio_A,Rmargin_A与Rmargin_T之间像素值差异大于给定阈值x的占比Rratio_A;然后把虚拟变电站场景图像按照ratio_A(ratio_A=Lratio_A+Rratio_A)由小到大排序,选取前5%的虚拟变电站场景图像作为初筛结果。
虚实场景相似度度量及精确定位操作为:对初筛结果中的图像A和T进行Canny边缘检测得到边缘图像
Figure BDA0003391272420000141
Figure BDA0003391272420000142
为衡量两张图像的相似度,本文采用Frobenius-范数(F-范数)进行相似性度量,则图像A与T的差异定义为
Figure BDA0003391272420000143
(F是范数的记号)
式中,λ为边缘相似度系数;图像A与B的相似度得分定义为
Figure BDA0003391272420000151
由S(A,T)计算图像相似度得分,选取相似度得分最高的虚拟图像拍摄的坐标,将其映射至真实变电站场景中作为精确定位坐标。
本说明书中未作详细描述的内容属于本领域专业技术人员公知的现有技术。应当理解的是,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,而所有这些改进和变换都应属于本发明所附权利要求的保护范围。

Claims (5)

1.一种基于UWB和虚实场景相似度度量融合的运维人员精确定位方法,具体过程如下:
步骤1)建立空间误差模型
通过几何关系与概率误差理论建立空间误差模型,空间误差模型为:
Figure FDA0003391272410000011
且约束条件中的概率p为:
Figure FDA0003391272410000012
所取
Figure FDA0003391272410000013
其中,t0为计算机处理一张图像所需的时间,e0为误差阈值,p0为概率阈值;
-Rx~Rx为x方向搜索范围,sx为x方向步长;-Ry~Ry为y方向搜索范围,sy为y方向步长;-βyaw为偏航角(yaw)变化范围的下限值,βyaw为偏航角(yaw)变化范围的上限值,syaw为偏航角改变步长;-βpitch为俯仰角(pitch)变化范围的下限值,βpitch为俯仰角(pitch)变化范围的上限值,spitch为俯仰角改变步长;t(sx,sy,syaw,spitch)为设定位时间;Ctrue为真实坐标,
Figure FDA0003391272410000014
为真实偏航角,
Figure FDA0003391272410000015
为真实俯仰角;
步骤2)根据空间误差模型获取最优x方向步长sx和y方向步长sy、偏航角步长syaw及俯仰角步长spitch
步骤3)UWB初步定位与虚实场景图像获取及预处理;
首先利用UWB定位系统获取运维人员在真实变电站场景中的定位信息,利用运维人员佩戴的头盔式摄像头获取在该位置拍摄的真实变电站场景图像;将运维人员在真实变电站场景中UWB定位的位置信息映射至虚拟变电站场景,得到运维人员在虚拟变电站场景的位置信息;然后以映射至虚拟变电站场景的位置为基准点,通过步骤2)中得到的最优x方向步长、y方向步长、偏航角步长和俯仰角步长调整虚拟相机的位置(x,y)、偏航角及俯仰角,拍摄系列虚拟变电站场景图像,并对虚拟变电站场景图像进行处理;然后对真实变电站场景图像进行处理;
步骤4)虚实场景相似度度量及精确定位
首先对步骤3)中获取的虚实场景图像进行初筛,然后对初筛结果进行虚实场景相似度度量并计算相似度得分,得分最高者即为与真实变电站场景图像最相似的虚拟变电站场景图像;获取所确定的与真实场景图像最相似的虚拟场景图像的拍摄位置,并映射至真实变电站场景,对运维人员在变电站的UWB定位结果进行修正;最后,输出运维人员在变电站的精确位置。
2.根据权利要求1所述基于UWB和虚实场景相似度度量融合的运维人员精确定位方法,其特征在于:所述步骤1)中,误差error的具体计算过程如下:
将UWB定位坐标映射至虚拟场景后得到对应的虚拟定位坐标,并将虚拟定位坐标作为虚拟场景的相对坐标原点;若真实坐标映射至虚拟场景后的虚拟坐标在搜索范围内服从均匀分布,则真实图像的偏航角和俯仰角在角度变化范围内也服从均匀分布;采用蒙特卡洛方法,对真实坐标、真实偏航角和真实俯仰角均按照均匀分布进行独立抽样,得到m组样本,每组样本均包括真实坐标Ctrue、真实偏航角
Figure FDA0003391272410000021
和真实俯仰角
Figure FDA0003391272410000022
Ctrue~U([-Rx,Rx]×[-Ry,Ry])
Figure FDA0003391272410000023
得到m组样本后,记这m组样本中误差error满足
Figure FDA0003391272410000024
的总组数记为m′,由大数定律知当m→∞时
Figure FDA0003391272410000025
于是将f作为所需的概率p。
3.根据权利要求1所述基于UWB和虚实场景相似度度量融合的运维人员精确定位方法,其特征在于:所述步骤2)中的具体过程为:
2a)设虚拟相机到目标镜像的距离为L,虚拟相机偏航视野半开角为αyaw,当虚拟相机的偏航角相对于偏航中心线改变αyaw时,得到偏航角改变引起的图像形变量为
Figure FDA0003391272410000031
同理,当虚拟相机俯仰视野半开角为αpitch,虚拟相机的俯仰角相对于俯仰中心线改变αpitch时,得到俯仰角改变引起的图像形变量为
Figure FDA0003391272410000032
根据真实坐标Ctrue=(Xtrue,Ytrue)、真实偏航角
Figure FDA0003391272410000033
和真实俯仰角
Figure FDA0003391272410000034
得到偏航角候选圆周方程为:
Figure FDA0003391272410000035
式中,(Xyaw,Yyaw)是偏航角候选圆周的圆心坐标,
Figure FDA0003391272410000036
是偏航角候选圆周的半径
Figure FDA0003391272410000037
Figure FDA0003391272410000038
Figure FDA0003391272410000039
式中,L为虚拟相机到目标镜像的距离,αyaw为虚拟相机偏航视野半开角;
设二维搜索平面:x方向搜索范围为-Rx~Rx,y方向搜索范围为-Ry~Ry内相机的高度z=Z0时计算得到俯仰角候选圆周族可表示为
Figure FDA00033912724100000310
式中,(Zpitch(Y),Ypitch(Y))是偏航角候选圆周上(X,Y)处的俯仰角候选圆周圆心坐标,
Figure FDA00033912724100000311
为该俯仰角候选圆周的半径
Figure FDA0003391272410000041
Figure FDA0003391272410000042
Figure FDA0003391272410000043
式中,αpitch为虚拟相机俯仰视野半开角;
2b)采用Monte Carlo方法获取多组步长,每组步长包括x方向步长sx、y方向步长sy、偏航角步长syaw及俯仰角步长spith;对每组真实坐标Ctrue和真实偏航俯仰角
Figure FDA0003391272410000044
确定出其偏航角候选圆周Ciryaw,得偏航角候选圆周上的参考候选点集合为
Figure FDA0003391272410000045
式中,(Xyaw,Yyaw)是偏航角-候选圆周的圆心坐标,
Figure FDA0003391272410000046
是偏航角-候选圆周的半径,Yaw表示偏航角取值集合,
Figure FDA0003391272410000047
然后在偏航角候选圆周的参考候选点集合中每个点的位置处计算出该处的俯仰角候选圆周,取俯仰角候选圆周上满足俯仰角步长关系的坐标点在xOy平面上的投影点并入参考候选点集合;最后选取位于搜索范围[-Rx,Rx]×[-Ry,Ry]内的参考候选点,得到最终的参考候选点集合为
Figure FDA0003391272410000048
式中,Spitch(X,Y)为偏航角候选圆周上(X,Y)处俯仰角候选圆周投影的参考候选点
Figure FDA0003391272410000049
式中,x是参考候选点的x轴方向坐标,Pitch表示俯仰角取值集合
Figure FDA0003391272410000051
2c)得到最终的参考候选点集合后,对每个最终的参考候选点,选取候选坐标集Scand(Scand={(usx,vsy):u=0,+1,...,±[Rx/sx],v=0,±1,...,±[Ry/sy]})中与最终的参考候选点距离最近的四个坐标点作为该最终的参考候选点的包络;所有最终的参考候选点的包络组成包络点集合Enve,计算包络点集合中每个候选坐标点与参考候选点的相似度距离DS,将相似度距离最小的候选坐标点作为算法的最终定位坐标;
对于包络点集合Enve中的某个候选坐标点Ccend,相似度距离DS由两部分组成:该候选坐标点到某个参考候选点C距离和图像形变惩罚项。设θyaw与θpitch为C处对应的偏航角与俯仰角,取图像形变惩罚项为
Figure FDA0003391272410000052
于是Ccand处相似度距离定义为
Figure FDA0003391272410000053
式中,最小值主值argmin是对C∈Syaw-pitch所取。最后,最终定位坐标为包络点集合中相似度距离最小的坐标点,即
CAlg=argmin DS(Ccand)
从而对于一组输入Ctrue
Figure FDA0003391272410000054
算法定位误差为
Figure FDA0003391272410000055
使用外点罚函数法与遗传算法对误差模型进行求解,得到优化结果,即最优x方向步长sx和y方向步长sy、偏航角步长syaw及俯仰角步长spitch
4.根据权利要求1所述基于UWB和虚实场景相似度度量融合的运维人员精确定位方法,其特征在于:所述步骤3)的具体过程为:
首先使用UWB定位技术获取运维人员的位置信息,将该位置坐标映射到虚拟变电站场景中得到虚拟变电站场景中的对应坐标,然后以该对应坐标为中心,以x、y方向各-Rx~Rx,-Ry~Ry范围为初始定位范围;
虚实场景图像获取及预处理为:在虚拟变电站场景中对应的初始定位范围内,以步骤2)得到的最优x方向步长sx和y方向步长sy、偏航角步长syaw及俯仰角步长spitch移动虚拟相机坐标(x,y)获取系列虚拟图像;然后对虚拟变电站场景图像进行处理。
5.根据权利要求1所述基于UWB和虚实场景相似度度量融合的运维人员精确定位方法,其特征在于:所述步骤4)的具体过程为:
虚实场景相似度度量及精确定位中的初筛操作为:对处理好的系列虚拟变电站场景图像A分别与处理好的真实变电站场景图像T进行相似度计算。首先进行初筛:取A左侧1/20的条形子区域Lmargin_A、右侧1/20的条形子区域Rmargin_A,取T左侧1/20的条形子区域Lmargin_T、右侧1/20的条形子区域Rmargin_T;计算Lmargin_A与Lmargin_T之间像素值差异大于给定阈值x的占比Lratio_A,Rmargin_A与Rmargin_T之间像素值差异大于给定阈值x的占比Rratio_A;然后把虚拟变电站场景图像按照ratio_A由小到大排序,选取前5%的虚拟变电站场景图像作为初筛结果;
虚实场景相似度度量及精确定位操作为:对初筛结果中的图像A和T进行Canny边缘检测得到边缘图像
Figure FDA0003391272410000061
Figure FDA0003391272410000062
为衡量两张图像的相似度,本文采用Frobenius-范数(F-范数)进行相似性度量,则图像A与T的差异定义为
Figure FDA0003391272410000063
式中,λ为边缘相似度系数;图像A与B的相似度得分定义为
Figure FDA0003391272410000064
由S(A,T)计算图像相似度得分,选取相似度得分最高的虚拟图像拍摄的坐标,将其映射至真实变电站场景中作为精确定位坐标。
CN202111474924.1A 2021-12-03 2021-12-03 基于uwb和虚实场景相似度度量融合的运维人员精确定位方法 Pending CN114330502A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111474924.1A CN114330502A (zh) 2021-12-03 2021-12-03 基于uwb和虚实场景相似度度量融合的运维人员精确定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111474924.1A CN114330502A (zh) 2021-12-03 2021-12-03 基于uwb和虚实场景相似度度量融合的运维人员精确定位方法

Publications (1)

Publication Number Publication Date
CN114330502A true CN114330502A (zh) 2022-04-12

Family

ID=81048832

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111474924.1A Pending CN114330502A (zh) 2021-12-03 2021-12-03 基于uwb和虚实场景相似度度量融合的运维人员精确定位方法

Country Status (1)

Country Link
CN (1) CN114330502A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114578188A (zh) * 2022-05-09 2022-06-03 环球数科集团有限公司 一种基于北斗卫星的电网故障定位方法
CN116126783A (zh) * 2022-12-30 2023-05-16 四川云控交通科技有限责任公司 一种建筑gis模型与bim模型的数据转换方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114578188A (zh) * 2022-05-09 2022-06-03 环球数科集团有限公司 一种基于北斗卫星的电网故障定位方法
CN114578188B (zh) * 2022-05-09 2022-07-08 环球数科集团有限公司 一种基于北斗卫星的电网故障定位方法
CN116126783A (zh) * 2022-12-30 2023-05-16 四川云控交通科技有限责任公司 一种建筑gis模型与bim模型的数据转换方法
CN116126783B (zh) * 2022-12-30 2023-11-10 四川云控交通科技有限责任公司 一种建筑gis模型与bim模型的数据转换方法

Similar Documents

Publication Publication Date Title
CN111080627B (zh) 一种基于深度学习的2d+3d大飞机外形缺陷检测与分析方法
CN114330502A (zh) 基于uwb和虚实场景相似度度量融合的运维人员精确定位方法
CN106091972B (zh) 一种基于移动窗口投影点密度的建筑物变化检测方法
CN104359459B (zh) 采用三维激光扫描反射率信息生成隧道内壁影像的方法
CN111735445B (zh) 融合单目视觉与imu的煤矿巷道巡检机器人系统及导航方法
CN107339935B (zh) 用于全视角扫描测量系统的靶标空间交会测量方法
CN109115173A (zh) 基于直线定位模型的掘进机机身位姿单目视觉测量方法
CN102865859A (zh) 一种基于surf特征的航空序列图像位置估计方法
CN112947526B (zh) 一种无人机自主降落方法和系统
CN113470090A (zh) 基于sift-shot特征的多固态激光雷达外参标定方法
Zhou et al. A measurement system based on internal cooperation of cameras in binocular vision
CN112946679B (zh) 一种基于人工智能的无人机测绘果冻效应检测方法及系统
CN106403924A (zh) 基于深度摄像头的机器人快速定位与姿态估计方法
CN111915517A (zh) 一种适用于室内光照不利环境下rgb-d相机全局定位方法
CN103839274B (zh) 一种基于几何比例关系的扩展目标跟踪方法
CN115578315A (zh) 一种基于无人机图像的桥梁应变近景摄影测量方法
CN114998395A (zh) 一种有效的堤岸三维数据变化检测方法及系统
CN112785596A (zh) 基于dbscan聚类的点云图螺栓分割和高度测量方法
CN115790539B (zh) 一种合作靶标水下摄影测量方法
CN105225232B (zh) 一种基于视觉注意机制的彩色着舰合作目标检测方法
CN109785388B (zh) 一种基于双目摄像头的短距离精确相对定位方法
Zhang et al. Accurate real-time SLAM based on two-step registration and multimodal loop detection
CN115661446A (zh) 基于深度学习的指针式仪表示数自动读取系统及方法
Ma et al. WeldNet: A deep learning based method for weld seam type identification and initial point guidance
CN114581503A (zh) 煤矿井下环境建模方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination