CN115453599A - 一种多传感器协同的管道机器人精准定位方法 - Google Patents

一种多传感器协同的管道机器人精准定位方法 Download PDF

Info

Publication number
CN115453599A
CN115453599A CN202210960470.7A CN202210960470A CN115453599A CN 115453599 A CN115453599 A CN 115453599A CN 202210960470 A CN202210960470 A CN 202210960470A CN 115453599 A CN115453599 A CN 115453599A
Authority
CN
China
Prior art keywords
robot
imu
information
camera
pose
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210960470.7A
Other languages
English (en)
Inventor
冯兴明
戴云峰
王瀚
刘安宏
王鑫
丁亚杰
成先文
成云朋
陈文�
杨帆
陈诚
骆伟伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
State Grid Jiangsu Electric Power Co ltd Innovation And Innovation Center
Yancheng Power Supply Co of State Grid Jiangsu Electric Power Co Ltd
Original Assignee
Yancheng Power Supply Co of State Grid Jiangsu Electric Power Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yancheng Power Supply Co of State Grid Jiangsu Electric Power Co Ltd filed Critical Yancheng Power Supply Co of State Grid Jiangsu Electric Power Co Ltd
Priority to CN202210960470.7A priority Critical patent/CN115453599A/zh
Publication of CN115453599A publication Critical patent/CN115453599A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • G01S19/49Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an inertial position system, e.g. loosely-coupled
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Manipulator (AREA)

Abstract

本发明公开了一种多传感器协同的管道机器人精准定位方法,该方法利用惯性传感器IMU、轮式编码器实时获取机器人的加速度、角速度和局部轮速信息,通过卡尔曼滤波将IMU的加速度计输出作为观测值更新角速度信息,融合角速度和轮速信息的预积分实现对管道机器人的初步运动估计,接着标定相机与IMU的外参,并对相机拍摄的每一帧图片进行ORB特征提取和匹配,以紧耦合的方式融合相机、IMU和轮速信息,利用非线性优化方法得到精度更高的机器人位姿信息,最后融合北斗定位传感器返回的三维位置信息进行优化,获取局部准确和全局无漂移的机器人位姿信息,实现管道机器人的精准定位。

Description

一种多传感器协同的管道机器人精准定位方法
技术领域
本发明涉及一种多传感器协同的管道机器人精准定位方法,属于计算机视觉领域。
背景技术
管道作为一种重要的物料运输手段被广泛应用在天然气、石油、化工、核设施、军事装备等领域,然而由于环境因素和人为因素的影响,管道会因重压、腐蚀、磨损等原因出现裂纹、泄漏等现象。因此为防止此类事故的发生并提高管道的使用寿命,需要定期对管道进行检测和维护。此外,大部分管道所处的环境无法被维修人员直接观测和接触,传统的挖掘法检测不仅耗费大量的人力,还易存在安全隐患。因此,现如今大多采用管道机器人完成管道检测,并对损坏和缺陷位置进行定位。
管道机器人的定位有利于工作人员实时了解管道机器人的当前位置并对管道损坏处进行精准定位和维修。现有的管道机器人定位方法大都采用相机对管道内部进行拍摄,利用视觉里程计估算方法定位机器人。但在管道内部,由于环境的重复性较高以及光照不均匀,难以利用相机传感器获取准确的机器人里程计数据。为了提高管道机器人状态估计的准确性和鲁棒性,越来越多的定位方法依赖于来自多个互补传感器的数据。
相机传感器和IMU在位姿估计方面具有明显的互补性,IMU为快速运动提供了较好的位姿估计,相机传感器能在慢速运动中修正IMU数据的漂移。因此视觉与IMU的联合定位方法被应用在了管道机器人定位上。然而当管道机器人在匀速、或沿着弧线运动等情况下,视觉与IMU的联合定位存在尺度未知的问题,并且随着时间的推移,位姿估计会因误差的累积而发生漂移。
基于此,需要一种多传感器协同的管道机器人精准定位方法,解决视觉与IMU联合定位中的尺度不可观察问题和累积漂移,实现不同传感器的优势互补,更加适合复杂多变的管道环境。
发明内容
本发明所要解决的技术问题是:提出一种多传感器协同的管道机器人精准定位方法,融合相机、IMU、轮速信息和北斗定位传感器,获取尺度可观察、局部准确和全局无漂移的管道机器人位姿信息,实现管道机器人的精准定位。
为解决上述技术问题,本发明提供一种多传感器协同的管道机器人精准定位方法,包括以下步骤:
1)利用IMU、轮式编码器、相机和北斗定位传感器实时获取管道机器人的加速度、角速度、局部轮速信息、机器人周围的环境信息和卫星定位信息;
2)利用卡尔曼滤波算法将IMU的加速度计输出作为观测值更新角速度信息,并融合角速度和轮速信息的预积分;
3)标定相机与IMU的外参,对相机拍摄的图像序列进行ORB特征点的检测和描述,匹配特征点对;
4)以紧耦合的方式融合步骤2)获得的角速度、轮速积分信息和步骤3)获得的匹配特征点对信息,通过非线性优化得到精度更高的机器人位姿信息;
5)根据北斗定位传感器返回的三维位置信息约束步骤4)中获得的机器人位姿信息,消除机器人位姿估计的累计误差,实现管道机器人的精准定位。
进一步的,在步骤1)中,利用IMU、轮式编码器、相机和北斗定位传感器实时获取管道机器人的加速度、角速度、局部轮速信息、机器人周围的环境信息和卫星定位信息,其具体步骤为:
以管道机器人为载体,机器人质心处安装IMU,机器人头部安装相机和北斗定位传感器,主动轮上搭载轮式编码器,根据主动轮半径r和编码轮返回的脉冲时间间隔dt计算出管道机器人的运动速度V:
Figure BDA0003792898890000021
当管道机器人启动时,实时获取各传感器对应信息。
进一步的,在步骤2)中,利用卡尔曼滤波算法将IMU的加速度计输出作为观测值更新角速度信息,并融合角速度和轮速信息的预积分,其具体步骤为:
21)卡尔曼滤波消除角速度积分的累计误差;求出当前时刻t和下一时刻t+1管道机器人的角速度均值和加速度均值,作为IMU数据采集间隔Δt时间内的平均角速度和平均加速度;通过角速度积分获取机器人运动过程中的三维角度信息,由于噪声和积分导致的误差累计,利用卡尔曼滤波将加速度计输出作为观测值更新角度信息;以Y轴角速度Gyro_Y在采集间隔内积分得到的角度信息U(k)作为卡尔曼滤波器状态估计量:
Figure BDA0003792898890000022
俯仰角YAngle作为滤波器的观测值,该值由IMU的X轴和Z轴加速度ACCEL_X和ACCEL_Z决定:
YAngle=arctan(ACCEL_X/ACCEL_Z)
建立t时刻和t-1时刻下俯仰角测量模型方程:
Figure BDA0003792898890000031
其中Ybias表示当前角速度偏置,dt表示IMU数据更新频率间隔;通过俯仰角的观测值不断修正和平滑IMU获得更准确和稳定的角度值,X轴和Z轴角度更新同Y轴;
22)角速度和轮速信息的预积分融合;通过求得的轮速信息和t时刻、t+1时刻下的角速度wt初步估计t+1时刻管道机器人的运动信息,利用平均角速度数据wt′和t时刻的机器人姿态Qt求得t+1时刻的姿态Qt+1
Qt+1=Qt(wt′Δt)
Figure BDA0003792898890000032
该姿态包含了管道机器人运动的三维方向信息,其中Bg表示角速度偏置,Δt表示两帧角速度数据之间的时间间隔,初始时刻的机器人姿态定义为单位矩阵,IMU的加速度数据at是在自身坐标系b下测得的,需要根据对应时刻机器人的姿态转换到世界坐标系w下:
at,w=Qt(at,b-Ba)-g
at+1,w=Qt+1(at+1,b-Ba)-g
其中Ba和g分别表示加速度偏置和重力加速度;
23)根据机器人的姿态、t时刻的位置Pt和轮速信息V求出管道机器人在当前时刻姿态下的速度Vt,w以及Δt时间内移动的距离Pt+1
Vt,w=Qt(V)
Pt+1=Pt+Vt,wΔt
获得管道机器人运动的方向和距离,实现管道机器人运动状态的初步估计。
进一步的,在步骤3)中,标定相机与IMU的外参,对相机拍摄的图像序列进行ORB特征点的检测和描述,匹配特征点对,其具体步骤为:
31)相机与IMU外参标定;在标定实验过程中需要估计的时不变参数为相对世界坐标系的重力方向gw、相机与IMU测量数据间的时间偏移量d、相机与IMU的空间变换Tc,i,待估计的时变参数为6自由度的IMU位姿Tw,i、加速度和角速度的偏置ba和bw;下标w、c、i分别表示世界坐标系、相机坐标系和IMU坐标系,T表示各坐标系之间的空间变换,它们之间的关系为:
Tw,i=Tw,cTc,i
首先收集一组相机与IMU的测量数据,T=[t1,tK],相机传感器获取的图片时间戳设置为tj,其中每个角点的像素坐标为ymj,m为单帧图片中角点个数;由于标定板的结构已知,每一个角点对应的世界坐标
Figure BDA0003792898890000041
根据标定板的实际尺寸大小获得,因此角点的像素坐标和在时间tk处采样得到的加速度和角速度的测量值αk
Figure BDA0003792898890000042
定义为:
αk=(Tw,i)r(a(tk)-gw)+ba(tk)+nak
Figure BDA0003792898890000043
Figure BDA0003792898890000044
其中(Tw,i)r表示IMU位姿的旋转分量,a(tk)和w(tk)表示IMU运动过程中产生的加速度和角速度,h表示角点的观测模型,每一个n和加速度、角速度的偏置都假定服从均值为0方差为R的高斯分布并统计独立;接着利用加速度的二次积分和角速度的一次积分获取IMU相邻测量数据帧之间的位姿估计,并结合前一帧的IMU相对于世界坐标系的位姿关系得到当前帧IMU相对于世界坐标系的位姿估计;最后与测量相关的误差项被构造为测量与给定当前状态估计的预测测量之间的差异,待估计变量的误差函数e定义为:
Figure BDA0003792898890000045
Figure BDA0003792898890000046
Figure BDA0003792898890000047
Figure BDA0003792898890000048
Figure BDA0003792898890000049
其中下标表示对应变量的误差函数;利用Levenberg-Marquardt算法最小化所有误差项的累加和,通过迭代方式找到所有未知参数的最大似然估计;在迭代过程中,时间偏移量初始化为0,相机与IMU的初始相对位姿根据硬件安装方向设置;
32)ORB特征点提取;ORB特征点由关键点和描述子组成,首先在图像中选择像素点p,已知其亮度为Ip,人为设置一个阈值T;接着以像素点p为中心,半径为3的圆上的16个像素点被选取,然后判断是否连续有9个像素点的亮度大于Ip+T或者小于Ip-T,如果存在,则认为点p为特征点;利用输入图像构造图像金字塔,并在金字塔的每一层进行FAST角点检测来实现特征点尺度不变性;利用灰度质心法实现特征点的旋转不变性:在某个图像块B中定义图像块的矩:
Figure BDA0003792898890000051
其中I(x,y)为像素点亮度,(x,y)为像素点坐标,通过矩计算得到图像块的质心:
Figure BDA0003792898890000052
将图像块B的质心C与几何中心O相连,得到向量
Figure BDA0003792898890000053
则特征点的方向角θ定义为:
θ=arctan(m01/m10);
33)ORB描述子计算和特征匹配;使用二进制描述子BRIEF,描述向量由0和1组成,以检测到的ORB关键点p为中心,选取一个大小为d×d的像素区域,通过某一规则选出该区域内的n个像素点对,对每一个像素点对(Ii,Ij)进行如下判断:
Figure BDA0003792898890000054
将经过判断得到的二进制数据τ(p;i,j)写成N维向量的形式,得到ORB描述子;以描述子之间的汉明距离为度量,利用快速近似最近邻算法进行特征点匹配,并采用渐进采样一致性算法对特征点进行提纯与优化,获取图像之间的准确特征匹配点对。
进一步的,在步骤4)中,以紧耦合的方式融合步骤2)获得的角速度、轮速积分信息和步骤3)获得的匹配特征点对信息,通过非线性优化得到精度更高的机器人位姿信息,其具体步骤为:
41)构建管道机器人的运动状态估计模型;根据传感器融合理论,以紧耦合的方式融合角速度、轮速积分信息和匹配特征点对信息,所组成的动态模型为:
Figure BDA0003792898890000055
其中xk表示机器人状态,包括旋转矩阵R和平移矩阵t,yk表示模型的观测量,即匹配得到的特征点像素坐标,uk-1表示模型输入,wk-1表示随机过程噪声,vk表示随机观测噪声,均假设为均值为0,方差为Rk和Qk的高斯白噪声:
wk~N(0,Rk),vk~N(0,Qk)
通过带噪声的观测量以及模型的输入推断出待估计的管道机器人的运动状态,即求在已知的传感器输入数据和观测数据的条件下机器人状态的最大后验概率P(xk|uk-1,yk),根据贝叶斯法则得到:
Figure BDA0003792898890000061
将机器人状态的最大后验概率问题转换为求解机器人状态xk的最大似然估计:
x* MLE=argm ax(P(uk-1,yk|xk));
42)机器人状态优化过程中相机投影模型和目标函数的构建;为了刻画机器人状态优化过程中相机的投影模型,用像素坐标系、图像坐标系、相机坐标系来描述如何将相机坐标系下的物体投影到像素坐标系上,其中Oc为相机光心,f为相机焦距,现实空间中相机坐标系下的点P经过光心O投影到物理成像平面上,在图像坐标系上得到点P′,设点P的坐标为[X,Y,Z],点P′的坐标为[X′,Y′],Z表示点P到相机平面X-Y的距离,即深度;根据相机投影模型和相似三角形得出:
Figure BDA0003792898890000062
通过采样和量化将图像坐标系上的点转换到像素坐标系上,图像坐标系和像素坐标系间的转换经过了一个缩放变换和平移变换,像素坐标系上u轴坐标相对图像坐标系缩放了α倍,v轴坐标相对图像坐标系缩放了β倍,原点o′相对图像坐标系平移了[cx,cy];因此图像坐标系下的点P′和像素坐标[u,v]的关系为:
Figure BDA0003792898890000063
将αf合并成fx,βf合并成fy,得到像素坐标系与相机坐标系的转换关系:
Figure BDA0003792898890000064
其中K表示相机内参矩阵,通过相机标定实验获得;假设有n对匹配好的特征点(p1,p1′),(p2,p2′)...(pn,pn′),并已获得了特征点对应的深度值,需要求得相邻图像帧间的旋转矩阵R和平移矩阵t,其中包含了相机与IMU的空间关系以及角速度和轮速信息求解得到的机器人运动状态,定义误差项ei为:
ei=pi-(Rpi′+t)
构建误差平方和损失函数作为机器人状态优化过程中的目标函数F:
Figure BDA0003792898890000071
43)非线性优化求解机器人位姿;目标函数定义为总体意义下的最小二乘问题,利用非线性优化方法和匹配特征点对求得使误差平方和达到极小的R和t;采用Levenberg-Marquardt算法求解,将误差函数进行泰勒展开:
e(x+Δx)=e(x)+J(x)Δx
其中Δx表示迭代优化过程中代求变量的下降矢量,J为误差函数对代求变量的导数,则目标函数的最小化问题转化为求解使目标函数最小的Δx*
Figure BDA0003792898890000072
令目标函数对Δx的导数为0,求解使目标函数最小的矢量Δx,得到矢量方程:
J(x)TJ(x)Δx=-J(x)Te(x)
机器人状态初值设为单位矩阵,求解每一次迭代过程中的误差和下降矢量,若Δx足够小,则停止迭代,令xk+1=xk+Δx。
进一步的,在步骤5)中,根据北斗定位传感器返回的三维位置信息约束步骤4)中获得的机器人位姿信息,消除机器人位姿估计的累计误差,实现管道机器人的精准定位,其具体步骤为:
51)位姿图优化;步骤4)中经过非线性优化得到的管道机器人状态未考虑之前时刻机器人的位姿约束,位姿之间的相对运动与真实值存在偏差,利用位姿图优化再次修正管道机器人的位姿估计;位姿图由节点和边组成,节点代表管道机器人的位姿信息,两个位姿节点Ti和Tj之间的相对运动ΔTij表示位姿图的边,位姿之间的约束关系为ΔTij=Ti -1Tj,优化变量为各个顶点的位姿,边来自于位姿观测约束,构建最小二乘误差eij
eij=ln(ΔTij -1Ti -1Tj)
其中∨表示矩阵转换为向量的运算,优化变量为Ti和Tj,误差对优化变量的扰动项δξ导数为:
Figure BDA0003792898890000081
其中ξ表示特殊欧式群中位姿矩阵对应的李代数,ρ和
Figure BDA0003792898890000082
表示旋转分量和平移分量,各变量之间的对应关系为:
Figure BDA0003792898890000083
Figure BDA0003792898890000084
其中^表示向量到矩阵的运算,I为单位阵;根据构造的误差函数和误差对位姿的导数,利用Levenberg-Marquardt算法获取经过位姿图优化后的位姿信息;
52)融合北斗定位信息,消除机器人位姿估计的累计误差;融合相机、IMU和轮式编码器信息并经过管道机器人的位姿估计会随着机器人轨迹的变长而发生漂移,产生累积误差,根据北斗定位传感器返回的经度lati、纬度longi和高度信息alti将其转换为以地球为参考系的全局三维坐标全局三维坐标(Xg,Yg,Zg):
Figure BDA0003792898890000085
其中L表示地球半径,将全局三维坐标作为约束条件,结合已获取的管道机器人位姿信息进行全局优化,建立整体误差模型:
Figure BDA0003792898890000086
其中k表示某一时刻,将机器人初始的三维位置设为北斗定位设备返回的三维坐标,经过位姿图优化后的旋转矩阵R和平移矩阵t作为全局优化初值,利用Levenberg-Marquardt算法迭代优化获取局部准确和全局无漂移的机器人位姿信息,实现管道机器人的精准定位。
与现有技术相比,本发明的有益效果是:
(1)本发明提出利用IMU、轮式编码器、相机进行协同处理获取精度较高的管道机器人定位结果,结合了IMU为快速运动提供了较好的位姿估计,相机传感器能在慢速运动中修正IMU数据漂移的优点,解决了相机传感器在纹理弱的管道环境内难以进行有效位姿估计的问题,并利用轮式编码器返回的速度信息解决视觉与IMU联合定位存在尺度未知的问题。
(2)本发明首先利用卡尔曼滤波算法将IMU的加速度计输出作为观测值更新角速度信息,减小角速度测量噪声和积分导致的误差,再融合角速度和轮速信息的预积分,使得后续的机器人位姿估计更加简单,结果更加准确。
(3)本发明在IMU、轮式编码器、相机传感器协同估计机器人位姿的基础上加入了位姿图优化算法,考虑全局的机器人位姿约束,利用位姿图优化再次修正管道机器人的位姿估计。
(4)由于管道机器人的位姿估计存在累积误差,随着时间的推移,管道机器人的定位结果会发生漂移。本发明根据北斗定位传感器返回的三维位置信息约束IMU、轮式编码器、相机传感器协同求得的机器人位姿,消除机器人位姿估计的累计误差,能够实现管道机器人的精准定位。
附图说明
图1为本发明方法流程图;
图2为相机与IMU、标定板的空间关系;
图3为IMU、视觉、轮速信息融合估计机器人位姿框架图;
图4为相机投影模型示意图;
图5为全局位姿图优化算法示意图。
具体实施方式
下面结合附图对本发明多传感器协同的管道机器人精准定位方法的具体实施方式做详细阐述。
本发明的多传感器协同的管道机器人精准定位方法运行流程如图1所示,具体步骤包括:
1)利用IMU、轮式编码器、相机和北斗定位传感器实时获取管道机器人的加速度、角速度、局部轮速信息、机器人周围的环境信息和卫星定位信息,以管道机器人为载体,机器人质心处安装IMU,机器人头部安装相机和北斗定位传感器,相机采集的图像分辨率设置为1280×960,主动轮上搭载轮式编码器,根据主动轮半径r和编码轮返回的脉冲时间间隔dt计算出管道机器人的运动速度V:
Figure BDA0003792898890000101
当管道机器人启动时,实时获取各传感器对应信息。
2)利用卡尔曼滤波算法将IMU的加速度计输出作为观测值更新角速度信息,并融合角速度和轮速信息的预积分。
21)卡尔曼滤波消除角速度积分的累计误差。求出当前时刻t和下一时刻t+1管道机器人的角速度均值和加速度均值,作为IMU数据采集间隔Δt时间内的平均角速度和平均加速度。通过角速度积分获取机器人运动过程中的三维角度信息,由于噪声和积分导致的误差累计,利用卡尔曼滤波将加速度计输出作为观测值更新角度信息。以Y轴角速度Gyro_Y在采集间隔内积分得到的角度信息U(k)作为卡尔曼滤波器状态估计量:
Figure BDA0003792898890000102
俯仰角YAngle作为滤波器的观测值,该值由IMU的X轴和Z轴加速度ACCEL_X和ACCEL_Z决定:
YAngle=arctan(ACCEL_X/ACCEL_Z) (3)
建立t时刻和t-1时刻下俯仰角测量模型方程:
Figure BDA0003792898890000103
其中Ybias表示当前角速度偏置,dt表示IMU数据更新频率间隔。通过俯仰角的观测值不断修正和平滑IMU获得更准确和稳定的角度值。X轴和Z轴角度更新同Y轴。
22)角速度和轮速信息的预积分融合。通过求得的轮速信息和t时刻、t+1时刻下的角速度wt初步估计t+1时刻管道机器人的运动信息。利用平均角速度数据wt′和t时刻的机器人姿态Qt求得t+1时刻的姿态Qt+1
Qt+1=Qt(wt′Δt) (5)
Figure BDA0003792898890000104
该姿态包含了管道机器人运动的三维方向信息,其中Bg表示角速度偏置,Δt表示两帧角速度数据之间的时间间隔。初始时刻的机器人姿态定义为单位矩阵。IMU的加速度数据at是在自身坐标系b下测得的,因此需要根据对应时刻机器人的姿态转换到世界坐标系w下:
at,w=Qt(at,b-Ba)-g (7)
at+1,w=Qt+1(at+1,b-Ba)-g (8)
其中Ba和g分别表示加速度偏置和重力加速度。
23)根据机器人的姿态、t时刻的位置Pt和轮速信息V求出管道机器人在当前时刻姿态下的速度Vt,w以及Δt时间内移动的距离Pt+1
Vt,w=Qt(V) (9)
Pt+1=Pt+Vt,wΔt (10)
获得管道机器人运动的方向和距离,实现管道机器人运动状态的初步估计。
3)标定相机与IMU的外参,对相机拍摄的图像序列进行ORB特征点的检测和特征点的描述,匹配特征点对。
31)相机与IMU外参标定。在标定实验过程中需要估计的时不变参数为相对世界坐标系的重力方向gw、相机与IMU测量数据间的时间偏移量d、相机与IMU的空间变换Tc,i,待估计的时变参数为6自由度的IMU位姿Tw,i、加速度和角速度的偏置ba和bw。如图2所示,显示了标定实验中各坐标系的空间关系,其中Fw、Fc、Fi分别表示世界坐标系、相机坐标系和IMU坐标系。T表示各坐标系之间的空间变换,它们之间的关系为:
Tw,i=Tw,cTc,i (11)
首先在短时间内收集一组相机与IMU的测量数据,T=[t1,tK](通常为1-2分钟),相机传感器获取的图片时间戳设置为tj,其中每个角点的像素坐标为ymj,m为单帧图片中角点个数。由于标定板的结构已知,每一个角点对应的世界坐标
Figure BDA0003792898890000111
可根据标定板的实际尺寸大小获得。因此角点的像素坐标和在时间tk处采样得到的加速度和角速度的测量值αk
Figure BDA0003792898890000112
可定义为:
Figure BDA0003792898890000113
其中(Tw,i)r表示IMU位姿的旋转分量,a(tk)和w(tk)表示IMU运动过程中产生的加速度和角速度,h表示角点的观测模型。每一个n和加速度、角速度的偏置都假定服从均值为0方差为R的高斯分布并统计独立。接着利用加速度的二次积分和角速度的一次积分获取IMU相邻测量数据帧之间的位姿估计,并结合前一帧的IMU相对于世界坐标系的位姿关系得到当前帧IMU相对于世界坐标系的位姿估计。最后与测量相关的误差项被构造为测量与给定当前状态估计的预测测量之间的差异,待估计变量的误差函数e定义为:
Figure BDA0003792898890000121
其中下标表示对应变量的误差函数。利用Levenberg-Marquardt(LM)算法最小化所有误差项的累加和,通过迭代方式找到所有未知参数的最大似然估计。在迭代过程中,时间偏移量初始化为0,相机与IMU的初始相对位姿可根据硬件安装方向设置。
32)ORB特征点提取。ORB特征点由关键点和描述子组成。首先在图像中选择像素点p,已知其亮度为Ip,人为设置一个阈值T。接着以像素点p为中心,半径为3的圆上的16个像素点被选取,然后判断是否连续有9个像素点的亮度大于Ip+T或者小于Ip-T,如果存在,则认为点p为特征点。利用输入图像构造图像金字塔,并在金字塔的每一层进行FAST角点检测来实现特征点尺度不变性。利用灰度质心法实现特征点的旋转不变性。该方法首先在某个图像块B中定义图像块的矩:
Figure BDA0003792898890000122
其中I(x,y)为像素点亮度,(x,y)为像素点坐标。通过矩计算得到图像块的质心:
Figure BDA0003792898890000123
将图像块B的质心C与几何中心O相连,得到向量
Figure BDA0003792898890000124
则特征点的方向定义为:
θ=arctan(m01/m10) (16)
33)ORB描述子计算和特征匹配。使用二进制描述子BRIEF,描述向量由0和1组成。以检测到的ORB关键点p为中心,选取一个大小为d×d的像素区域,接着通过某一规则选出该区域内的n个像素点对,对每一个像素点对(Ii,Ij)进行如下判断:
Figure BDA0003792898890000125
将经过判断得到的二进制数据τ(p;i,j)写成N维向量的形式,得到ORB描述子。接着根以描述子之间的汉明距离为度量,利用快速近似最近邻算法进行特征点匹配,并采用渐进采样一致性(PRSAC)算法对特征点进行提纯与优化,获取图像之间的准确特征匹配点对。
4)以紧耦合的方式融合上述步骤获得的角速度、轮速积分信息和匹配特征点对信息,通过非线性优化得到精度更高的机器人位姿信息。
41)构建管道机器人的运动状态估计模型。视觉、IMU、轮速信息的融合框架如图3所示。根据传感器融合理论,以紧耦合的方式融合角速度、轮速积分信息和匹配特征点对信息,所组成的动态模型为:
Figure BDA0003792898890000131
其中xk表示机器人状态,包括旋转矩阵R和平移矩阵t,yk表示模型的观测量,即匹配得到的特征点像素坐标,uk-1表示模型输入,wk-1表示随机过程噪声,vk表示随机观测噪声,均假设为均值为0、方差为Rk和Qk的高斯白噪声:
wk~N(0,Rk),vk~N(0,Qk) (19)
接着通过带噪声的观测量以及模型的输入推断出待估计的管道机器人的运动状态,即求在已知的传感器输入数据和观测数据的条件下机器人状态的最大后验概率P(xk|uk-1,yk),根据贝叶斯法则可得到:
Figure BDA0003792898890000132
将机器人状态的最大后验概率问题转换为求解机器人状态xk的最大似然估计:
x* MLE=argm ax(P(uk-1,yk|xk)) (21)
42)机器人状态优化过程中相机投影模型和目标函数的构建。为了刻画机器人状态优化过程中相机的投影模型,一般用像素坐标系、图像坐标系、相机坐标系来描述如何将相机坐标系下的物体投影到像素坐标系上。如图4所示,为相机投影成像过程。其中Oc为相机光心,f为相机焦距,现实空间中相机坐标系下的点P经过光心O投影到物理成像平面上,在图像坐标系上得到点P′。设点P的坐标为[X,Y,Z],点P′的坐标为[X′,Y′],Z表示点P到相机平面X-Y的距离,即深度。根据相机投影模型和相似三角形得出:
Figure BDA0003792898890000141
通过采样和量化将图像坐标系上的点转换到像素坐标系上。图像坐标系和像素坐标系间的转换经过了一个缩放变换和平移变换。像素坐标系上u轴坐标相对图像坐标系缩放了α倍,v轴坐标相对图像坐标系缩放了β倍,原点o′相对图像坐标系平移了[cx,cy]。因此图像坐标系下的点P′和像素坐标[u,v]的关系为:
Figure BDA0003792898890000142
代入式(22)和(23)并将αf合并成fx,βf合并成fy,得到像素坐标系与相机坐标系的转换关系:
Figure BDA0003792898890000143
其中K表示相机内参矩阵,可以通过相机标定实验获得。假设有n对匹配好的特征点(p1,p1′),(p2,p2′)...(pn,pn′),并已获得了特征点对应的深度值,需要求得相邻图像帧间的旋转矩阵R和平移矩阵t,其中包含了相机与IMU的空间关系以及角速度和轮速信息求解得到的机器人运动状态,定义误差项ei为:
ei=pi-(Rpi′+t) (25)
接着构建误差平方和损失函数作为机器人状态优化过程中的目标函数:
Figure BDA0003792898890000144
43)非线性优化求解机器人位姿。上述目标函数可定义为总体意义下的最小二乘问题,利用非线性优化方法和匹配特征点对求得使误差平方和达到极小的R和t。采用Levenberg-Marquardt算法求解该问题,将误差函数进行泰勒展开:
e(x+Δx)=e(x)+J(x)Δx (27)
其中Δx表示迭代优化过程中代求变量的下降矢量,J为误差函数对代求变量的导数。则目标函数的最小化问题转化为求解使目标函数最小的Δx*
Figure BDA0003792898890000151
令目标函数对Δx的导数为0,求解使目标函数最小的矢量Δx,得到矢量方程:
J(x)TJ(x)Δx=-J(x)Te(x) (29)
机器人状态初值设为单位矩阵,求解每一次迭代过程中的误差和下降矢量,若Δx足够小,则停止迭代,令xk+1=xk+Δx。
5)根据北斗定位传感器返回的三维位置信息约束上述步骤中获得的机器人位姿信息,消除机器人位姿估计的累计误差,实现管道机器人的精准定位。
51)位姿图优化。上述步骤中经过非线性优化得到的管道机器人状态未考虑之前时刻机器人的位姿约束,位姿之间的相对运动与真实值存在偏差,利用位姿图优化再次修正管道机器人的位姿估计。如图5所示,位姿图由节点和边组成,节点代表管道机器人的位姿信息,两个位姿节点Ti和Tj之间的相对运动ΔTij表示位姿图的边,位姿之间的约束关系为ΔTij=Ti -1Tj,优化变量为各个顶点的位姿,边来自于位姿观测约束,构建最小二乘误差eij
eij=ln(ΔTij -1Ti -1Tj) (30)
其中∨表示矩阵转换为向量的运算,优化变量为Ti和Tj。误差对优化变量的扰动项δξ导数为:
Figure BDA0003792898890000152
其中ξ表示特殊欧式群中位姿矩阵对应的李代数,ρ和
Figure BDA0003792898890000153
表示旋转分量和平移分量,各变量之间的对应关系为:
Figure BDA0003792898890000154
其中^表示向量到矩阵的运算,I为单位阵。根据构造的误差函数和误差对位姿的导数,利用Levenberg-Marquardt算法获取经过位姿图优化后的位姿信息。
52)融合北斗定位信息,消除机器人位姿估计的累计误差。融合相机、IMU和轮式编码器信息并经过上述步骤得到的管道机器人的位姿估计会随着机器人轨迹的变长而发生漂移,产生累积误差。根据北斗定位传感器返回的经度lati、纬度longi和高度信息alti将其转换为以地球为参考系的全局三维坐标(Xg,Yg,Zg):
Figure BDA0003792898890000161
其中L表示地球半径,将全局三维坐标作为约束条件,结合已获取的管道机器人位姿信息进行全局优化,建立整体误差模型:
Figure BDA0003792898890000162
其中k表示某一时刻。将机器人初始的三维位置设为北斗定位设备返回的三维坐标,经过位姿图优化后的旋转矩阵R和平移矩阵t作为全局优化初值,利用Levenberg-Marquardt算法迭代优化获取局部准确和全局无漂移的机器人位姿信息,实现管道机器人的精准定位。
最后应该说明的是,结合上述实施例仅说明本发明的技术方案而非对其限制。所属领域的普通技术人员应当理解到,本领域技术人员可以对本发明的具体实施方式进行修改或者等同替换,但这些修改或变更均在申请待批的权利要求保护范围之中。

Claims (6)

1.一种多传感器协同的管道机器人精准定位方法,其特征在于,包括以下步骤:
1)利用IMU、轮式编码器、相机和北斗定位传感器实时获取管道机器人的加速度、角速度、局部轮速信息、机器人周围的环境信息和卫星定位信息;
2)利用卡尔曼滤波算法将IMU的加速度计输出作为观测值更新角速度信息,并融合角速度和轮速信息的预积分;
3)标定相机与IMU的外参,对相机拍摄的图像序列进行ORB特征点的检测和描述,匹配特征点对;
4)以紧耦合的方式融合步骤2)获得的角速度、轮速积分信息和步骤3)获得的匹配特征点对信息,通过非线性优化得到精度更高的机器人位姿信息;
5)根据北斗定位传感器返回的三维位置信息约束步骤4)中获得的机器人位姿信息,消除机器人位姿估计的累计误差,实现管道机器人的精准定位。
2.根据权利要求1所述的多传感器协同的管道机器人精准定位方法,其特征在于,在步骤1)中,利用IMU、轮式编码器、相机和北斗定位传感器实时获取管道机器人的加速度、角速度、局部轮速信息、机器人周围的环境信息和卫星定位信息,其具体步骤为:
以管道机器人为载体,机器人质心处安装IMU,机器人头部安装相机和北斗定位传感器,主动轮上搭载轮式编码器,根据主动轮半径r和编码轮返回的脉冲时间间隔dt计算出管道机器人的运动速度V:
Figure FDA0003792898880000011
当管道机器人启动时,实时获取各传感器对应信息。
3.根据权利要求1所述的多传感器协同的管道机器人精准定位方法,其特征在于,在步骤2)中,利用卡尔曼滤波算法将IMU的加速度计输出作为观测值更新角速度信息,并融合角速度和轮速信息的预积分,其具体步骤为:
21)卡尔曼滤波消除角速度积分的累计误差;求出当前时刻t和下一时刻t+1管道机器人的角速度均值和加速度均值,作为IMU数据采集间隔Δt时间内的平均角速度和平均加速度;通过角速度积分获取机器人运动过程中的三维角度信息,由于噪声和积分导致的误差累计,利用卡尔曼滤波将加速度计输出作为观测值更新角度信息;以Y轴角速度Gyro_Y在采集间隔内积分得到的角度信息U(k)作为卡尔曼滤波器状态估计量:
Figure FDA0003792898880000021
俯仰角YAngle作为滤波器的观测值,该值由IMU的X轴和Z轴加速度ACCEL_X和ACCEL_Z决定:
YAngle=arctan(ACCEL_X/ACCEL_Z)
建立t时刻和t-1时刻下俯仰角测量模型方程:
Figure FDA0003792898880000022
其中Ybias表示当前角速度偏置,dt表示IMU数据更新频率间隔;通过俯仰角的观测值不断修正和平滑IMU获得更准确和稳定的角度值,X轴和Z轴角度更新同Y轴;
22)角速度和轮速信息的预积分融合;通过求得的轮速信息和t时刻、t+1时刻下的角速度wt初步估计t+1时刻管道机器人的运动信息,利用平均角速度数据wt′和t时刻的机器人姿态Qt求得t+1时刻的姿态Qt+1
Qt+1=Qt(wt′Δt)
Figure FDA0003792898880000023
该姿态包含了管道机器人运动的三维方向信息,其中Bg表示角速度偏置,Δt表示两帧角速度数据之间的时间间隔,初始时刻的机器人姿态定义为单位矩阵,IMU的加速度数据at是在自身坐标系b下测得的,需要根据对应时刻机器人的姿态转换到世界坐标系w下:
at,w=Qt(at,b-Ba)-g
at+1,w=Qt+1(at+1,b-Ba)-g
其中Ba和g分别表示加速度偏置和重力加速度;
23)根据机器人的姿态、t时刻的位置Pt和轮速信息V求出管道机器人在当前时刻姿态下的速度Vt,w以及Δt时间内移动的距离Pt+1
Vt,w=Qt(V)
Pt+1=Pt+Vt,wΔt
获得管道机器人运动的方向和距离,实现管道机器人运动状态的初步估计。
4.根据权利要求1所述的多传感器协同的管道机器人精准定位方法,其特征在于,在所述步骤3)中,标定相机与IMU的外参,对相机拍摄的图像序列进行ORB特征点的检测和描述,匹配特征点对,其具体步骤为:
31)相机与IMU外参标定;在标定实验过程中需要估计的时不变参数为相对世界坐标系的重力方向gw、相机与IMU测量数据间的时间偏移量d、相机与IMU的空间变换Tc,i,待估计的时变参数为6自由度的IMU位姿Tw,i、加速度和角速度的偏置ba和bw;下标w、c、i分别表示世界坐标系、相机坐标系和IMU坐标系,T表示各坐标系之间的空间变换,它们之间的关系为:
Tw,i=Tw,cTc,i
首先收集一组相机与IMU的测量数据,T=[t1,tK],相机传感器获取的图片时间戳设置为tj,其中每个角点的像素坐标为ymj,m为单帧图片中角点个数;由于标定板的结构已知,每一个角点对应的世界坐标
Figure FDA0003792898880000031
根据标定板的实际尺寸大小获得,因此角点的像素坐标和在时间tk处采样得到的加速度和角速度的测量值αk
Figure FDA0003792898880000032
定义为:
αk=(Tw,i)r(a(tk)-gw)+ba(tk)+nak
Figure FDA0003792898880000033
Figure FDA0003792898880000034
其中(Tw,i)r表示IMU位姿的旋转分量,a(tk)和w(tk)表示IMU运动过程中产生的加速度和角速度,h表示角点的观测模型,每一个n和加速度、角速度的偏置都假定服从均值为0方差为R的高斯分布并统计独立;接着利用加速度的二次积分和角速度的一次积分获取IMU相邻测量数据帧之间的位姿估计,并结合前一帧的IMU相对于世界坐标系的位姿关系得到当前帧IMU相对于世界坐标系的位姿估计;最后与测量相关的误差项被构造为测量与给定当前状态估计的预测测量之间的差异,待估计变量的误差函数e定义为:
Figure FDA0003792898880000035
Figure FDA0003792898880000036
Figure FDA0003792898880000037
Figure FDA0003792898880000038
Figure FDA0003792898880000039
其中下标表示对应变量的误差函数;利用Levenberg-Marquardt算法最小化所有误差项的累加和,通过迭代方式找到所有未知参数的最大似然估计;在迭代过程中,时间偏移量初始化为0,相机与IMU的初始相对位姿根据硬件安装方向设置;
32)ORB特征点提取;ORB特征点由关键点和描述子组成,首先在图像中选择像素点p,已知其亮度为Ip,人为设置一个阈值T;接着以像素点p为中心,半径为3的圆上的16个像素点被选取,然后判断是否连续有9个像素点的亮度大于Ip+T或者小于Ip-T,如果存在,则认为点p为特征点;利用输入图像构造图像金字塔,并在金字塔的每一层进行FAST角点检测来实现特征点尺度不变性;利用灰度质心法实现特征点的旋转不变性:在某个图像块B中定义图像块的矩:
Figure FDA0003792898880000041
其中I(x,y)为像素点亮度,(x,y)为像素点坐标,通过矩计算得到图像块的质心:
Figure FDA0003792898880000042
将图像块B的质心C与几何中心O相连,得到向量
Figure FDA0003792898880000043
则特征点的方向角θ定义为:
θ=arctan(m01/m10);
33)ORB描述子计算和特征匹配;使用二进制描述子BRIEF,描述向量由0和1组成,以检测到的ORB关键点p为中心,选取一个大小为d×d的像素区域,通过某一规则选出该区域内的n个像素点对,对每一个像素点对(Ii,Ij)进行如下判断:
Figure FDA0003792898880000044
将经过判断得到的二进制数据τ(p;i,j)写成N维向量的形式,得到ORB描述子;以描述子之间的汉明距离为度量,利用快速近似最近邻算法进行特征点匹配,并采用渐进采样一致性算法对特征点进行提纯与优化,获取图像之间的准确特征匹配点对。
5.根据权利要求1所述的多传感器协同的管道机器人精准定位方法,其特征在于,在所述步骤4)中,以紧耦合的方式融合步骤2)获得的角速度、轮速积分信息和步骤3)获得的匹配特征点对信息,通过非线性优化得到精度更高的机器人位姿信息,其具体步骤为:
41)构建管道机器人的运动状态估计模型;根据传感器融合理论,以紧耦合的方式融合角速度、轮速积分信息和匹配特征点对信息,所组成的动态模型为:
Figure FDA0003792898880000051
其中xk表示机器人状态,包括旋转矩阵R和平移矩阵t,yk表示模型的观测量,即匹配得到的特征点像素坐标,uk-1表示模型输入,wk-1表示随机过程噪声,vk表示随机观测噪声,均假设为均值为0,方差为Rk和Qk的高斯白噪声:
wk~N(0,Rk),vk~N(0,Qk)
通过带噪声的观测量以及模型的输入推断出待估计的管道机器人的运动状态,即求在已知的传感器输入数据和观测数据的条件下机器人状态的最大后验概率P(xk|uk-1,yk),根据贝叶斯法则得到:
Figure FDA0003792898880000052
将机器人状态的最大后验概率问题转换为求解机器人状态xk的最大似然估计:
x* MLE=argm ax(P(uk-1,yk|xk));
42)机器人状态优化过程中相机投影模型和目标函数的构建;为了刻画机器人状态优化过程中相机的投影模型,用像素坐标系、图像坐标系、相机坐标系来描述如何将相机坐标系下的物体投影到像素坐标系上,其中Oc为相机光心,f为相机焦距,现实空间中相机坐标系下的点P经过光心O投影到物理成像平面上,在图像坐标系上得到点P′,设点P的坐标为[X,Y,Z],点P′的坐标为[X′,Y′],Z表示点P到相机平面X-Y的距离,即深度;根据相机投影模型和相似三角形得出:
Figure FDA0003792898880000053
通过采样和量化将图像坐标系上的点转换到像素坐标系上,图像坐标系和像素坐标系间的转换经过了一个缩放变换和平移变换,像素坐标系上u轴坐标相对图像坐标系缩放了α倍,v轴坐标相对图像坐标系缩放了β倍,原点o′相对图像坐标系平移了[cx,cy];因此图像坐标系下的点P′和像素坐标[u,v]的关系为:
Figure FDA0003792898880000061
将αf合并成fx,βf合并成fy,得到像素坐标系与相机坐标系的转换关系:
Figure FDA0003792898880000062
其中K表示相机内参矩阵,通过相机标定实验获得;假设有n对匹配好的特征点(p1,p1′),(p2,p2′)...(pn,pn′),并已获得了特征点对应的深度值,需要求得相邻图像帧间的旋转矩阵R和平移矩阵t,其中包含了相机与IMU的空间关系以及角速度和轮速信息求解得到的机器人运动状态,定义误差项ei为:
ei=pi-(Rpi′+t)
构建误差平方和损失函数作为机器人状态优化过程中的目标函数F:
Figure FDA0003792898880000063
43)非线性优化求解机器人位姿;目标函数定义为总体意义下的最小二乘问题,利用非线性优化方法和匹配特征点对求得使误差平方和达到极小的R和t;采用Levenberg-Marquardt算法求解,将误差函数进行泰勒展开:
e(x+Δx)=e(x)+J(x)Δx
其中Δx表示迭代优化过程中代求变量的下降矢量,J为误差函数对代求变量的导数,则目标函数的最小化问题转化为求解使目标函数最小的Δx*
Figure FDA0003792898880000064
令目标函数对Δx的导数为0,求解使目标函数最小的矢量Δx,得到矢量方程:
J(x)TJ(x)Δx=-J(x)Te(x)
机器人状态初值设为单位矩阵,求解每一次迭代过程中的误差和下降矢量,若Δx足够小,则停止迭代,令xk+1=xk+Δx。
6.根据权利要求1所述的多传感器协同的管道机器人精准定位方法,其特征在于,在所述步骤5)中,根据北斗定位传感器返回的三维位置信息约束步骤4)中获得的机器人位姿信息,消除机器人位姿估计的累计误差,实现管道机器人的精准定位,其具体步骤为:
51)位姿图优化;步骤4)中经过非线性优化得到的管道机器人状态未考虑之前时刻机器人的位姿约束,位姿之间的相对运动与真实值存在偏差,利用位姿图优化再次修正管道机器人的位姿估计;位姿图由节点和边组成,节点代表管道机器人的位姿信息,两个位姿节点Ti和Tj之间的相对运动ΔTij表示位姿图的边,位姿之间的约束关系为ΔTij=Ti -1Tj,优化变量为各个顶点的位姿,边来自于位姿观测约束,构建最小二乘误差eij
eij=ln(ΔTij -1Ti -1Tj)
其中∨表示矩阵转换为向量的运算,优化变量为Ti和Tj,误差对优化变量的扰动项δξ导数为:
Figure FDA0003792898880000071
其中ξ表示特殊欧式群中位姿矩阵对应的李代数,ρ和
Figure FDA0003792898880000072
表示旋转分量和平移分量,各变量之间的对应关系为:
Figure FDA0003792898880000073
exp(ξ^)=T,
Figure FDA0003792898880000074
其中∧表示向量到矩阵的运算,I为单位阵;根据构造的误差函数和误差对位姿的导数,利用Levenberg-Marquardt算法获取经过位姿图优化后的位姿信息;
52)融合北斗定位信息,消除机器人位姿估计的累计误差;融合相机、IMU和轮式编码器信息并经过管道机器人的位姿估计会随着机器人轨迹的变长而发生漂移,产生累积误差,根据北斗定位传感器返回的经度lati、纬度longi和高度信息alti将其转换为以地球为参考系的全局三维坐标全局三维坐标(Xg,Yg,Zg):
Figure FDA0003792898880000075
其中L表示地球半径,将全局三维坐标作为约束条件,结合已获取的管道机器人位姿信息进行全局优化,建立整体误差模型:
Figure FDA0003792898880000081
其中k表示某一时刻,将机器人初始的三维位置设为北斗定位设备返回的三维坐标,经过位姿图优化后的旋转矩阵R和平移矩阵t作为全局优化初值,利用Levenberg-Marquardt算法迭代优化获取局部准确和全局无漂移的机器人位姿信息,实现管道机器人的精准定位。
CN202210960470.7A 2022-08-11 2022-08-11 一种多传感器协同的管道机器人精准定位方法 Pending CN115453599A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210960470.7A CN115453599A (zh) 2022-08-11 2022-08-11 一种多传感器协同的管道机器人精准定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210960470.7A CN115453599A (zh) 2022-08-11 2022-08-11 一种多传感器协同的管道机器人精准定位方法

Publications (1)

Publication Number Publication Date
CN115453599A true CN115453599A (zh) 2022-12-09

Family

ID=84299016

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210960470.7A Pending CN115453599A (zh) 2022-08-11 2022-08-11 一种多传感器协同的管道机器人精准定位方法

Country Status (1)

Country Link
CN (1) CN115453599A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116026315A (zh) * 2023-03-22 2023-04-28 南京信息工程大学 一种基于多传感器融合的通风管道场景建模与机器人定位方法
CN117948885A (zh) * 2024-03-27 2024-04-30 中科慧远人工智能(烟台)有限公司 基于生产线的位姿测量方法、装置和系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116026315A (zh) * 2023-03-22 2023-04-28 南京信息工程大学 一种基于多传感器融合的通风管道场景建模与机器人定位方法
CN117948885A (zh) * 2024-03-27 2024-04-30 中科慧远人工智能(烟台)有限公司 基于生产线的位姿测量方法、装置和系统

Similar Documents

Publication Publication Date Title
CN110243358B (zh) 多源融合的无人车室内外定位方法及系统
CN111156998B (zh) 一种基于rgb-d相机与imu信息融合的移动机器人定位方法
CN115453599A (zh) 一种多传感器协同的管道机器人精准定位方法
CN110726406A (zh) 一种改进的非线性优化单目惯导slam的方法
CN107909614B (zh) 一种gps失效环境下巡检机器人定位方法
CN110766785B (zh) 一种地下管道实时定位与三维重建装置及方法
CN113175929B (zh) 一种基于upf的空间非合作目标相对位姿估计方法
CN109724586B (zh) 一种融合深度图和点云的航天器相对位姿测量方法
CN114608554B (zh) 一种手持slam设备以及机器人即时定位与建图方法
CN114019552A (zh) 一种基于贝叶斯多传感器误差约束的定位置信度优化方法
CN115272596A (zh) 一种面向单调无纹理大场景的多传感器融合slam方法
CN110929402A (zh) 一种基于不确定分析的概率地形估计方法
CN116772844A (zh) 一种基于动态环境下的视觉惯性室内机器人的导航方法
CN114690229A (zh) 一种融合gps的移动机器人视觉惯性导航方法
CN114234967B (zh) 一种基于多传感器融合的六足机器人定位方法
CN113052855B (zh) 一种基于视觉-imu-轮速计融合的语义slam方法
CN114858133A (zh) 一种恒星观测模式下姿态低频误差修正方法
CN108827287B (zh) 一种复杂环境下的鲁棒视觉slam系统
CN110211148B (zh) 一种基于目标状态预估的水下图像预分割方法
CN114543786B (zh) 一种基于视觉惯性里程计的爬壁机器人定位方法
CN116182855A (zh) 一种弱光强环境下仿复眼偏振视觉无人机组合导航方法
CN112923934A (zh) 一种适用于非结构化场景中结合惯导的激光slam技术
CN115218889A (zh) 一种基于点线特征融合的多传感器室内定位方法
CN115797490A (zh) 基于激光视觉融合的建图方法及系统
CN114690230A (zh) 一种基于视觉惯性slam的自动驾驶车辆导航方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20230424

Address after: No. 189, Jiefang Road, Yancheng City, Jiangsu Province

Applicant after: YANCHENG POWER SUPPLY BRANCH, STATE GRID JIANGSU ELECTRIC POWER Co.,Ltd.

Applicant after: State Grid Jiangsu Electric Power Co.,Ltd. innovation and Innovation Center

Address before: No. 189, Jiefang Road, Yancheng City, Jiangsu Province

Applicant before: YANCHENG POWER SUPPLY BRANCH, STATE GRID JIANGSU ELECTRIC POWER Co.,Ltd.