CN116105726A - 一种多传感器融合的爬壁机器人立面定位方法 - Google Patents

一种多传感器融合的爬壁机器人立面定位方法 Download PDF

Info

Publication number
CN116105726A
CN116105726A CN202211719113.8A CN202211719113A CN116105726A CN 116105726 A CN116105726 A CN 116105726A CN 202211719113 A CN202211719113 A CN 202211719113A CN 116105726 A CN116105726 A CN 116105726A
Authority
CN
China
Prior art keywords
uwb
communication base
positioning
base station
uwb communication
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211719113.8A
Other languages
English (en)
Inventor
李锦坤
孙凌宇
张轩
张超
张明路
杨磊
白意东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bhp Robot Tianjin Co ltd
Original Assignee
Bhp Robot Tianjin Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bhp Robot Tianjin Co ltd filed Critical Bhp Robot Tianjin Co ltd
Priority to CN202211719113.8A priority Critical patent/CN116105726A/zh
Publication of CN116105726A publication Critical patent/CN116105726A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/183Compensation of inertial measurements, e.g. for temperature effects
    • G01C21/188Compensation of inertial measurements, e.g. for temperature effects for accumulated errors, e.g. by coupling inertial systems with absolute positioning systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0257Hybrid positioning
    • G01S5/0263Hybrid positioning by combining or switching between positions derived from two or more separate positioning systems
    • G01S5/0264Hybrid positioning by combining or switching between positions derived from two or more separate positioning systems at least one of the systems being a non-radio wave positioning system
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0294Trajectory determination or predictive filtering, e.g. target tracking or Kalman filtering
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/14Determining absolute distances from a plurality of spaced points of known location
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)

Abstract

本发明公开了一种多传感器融合的爬壁机器人立面定位方法,S1:在有限场景布设UWB定位系统,获取定位区域内UWB定位标签的定位信息,对机器人进行立面定位;S2:通过惯性测量单元输出的数据进行预积分解算机器人的姿态、速度和位置;S3:将UWB输出的位置向量以及IMU输出的加速度作为初始时刻的状态向量,通过系统运行,通过EKF方程计算出状态估计向量;S4:利用箱型图法计算本次UWB定位数据的可靠性,并对扩展卡尔曼滤波计算出的状态估计向量和光流法计算出的状态估计向量进行加权融合,输出机器人的最优位置估计向量,本发明依靠不同的传感器对于位姿和姿态的测量精度各有优劣,利用各传感器的优势估计机器人位姿,能够有效提高爬壁机器人立面定位精度。

Description

一种多传感器融合的爬壁机器人立面定位方法
技术领域
本发明涉及机器人立面定位技术领域,尤其涉及一种多传感器融合的爬壁机器人立面定位方法。
背景技术
近年来,我国船舶、石化、核电、火电等国民经济支柱产业发展呈现井喷态势,其很大程度上依赖于石化及放射物储罐、船舶、锅炉等核心装备的安全运营。定期对上述装备开展清洁、除锈、喷漆、检测等立面维护作业已成为保障其安全运营的重要举措。
立面维护行业长期依赖于人工进行高空作业,智能化、自动化程度不高。由于环保压力,人力短缺等外在条件的制约,当前全球立面维护行业已处于维护作业工艺与装备升级换代的关键时期。作为立面作业机器人的控制定位系统,需要保证机器人作业的安全性,
INS依赖惯性测量单元(inertial measurement unit,IMU)输出的数据来解算机器人的姿态、速度和位置,但误差会随时间累计。超宽带(ultra wide band,UWB)技术是一种频率在3.1~10.6GHz的脉冲无线电通信技术,但由于信号传输以及位置解算的时间开销,UWB定位的输出频率低于爬壁机器人的控制频率,且短时间内的定位数据离散程度较大,无法满足机器人对高精度、低延迟定位的需求。因此,加快机器人控制定位系统的信息化建设,实现在复杂立面环境下的精确定位已成为本领域技术人员亟待解决的技术问题。
有鉴于此,特提出本发明。
发明内容
本发明的目的是提供一种多传感器融合的爬壁机器人立面定位方法,依靠不同的传感器对于位姿和姿态的测量精度各有优劣,利用各传感器的优势估计机器人位姿,能够有效提高爬壁机器人立面定位精度,具有广阔的应用前景,有利于推广应用。
为了实现上述目的,本发明提供的一种多传感器融合的爬壁机器人立面定位方法,包括以下步骤:
S1:在有限场景布设UWB定位系统,所述UWB定位系统包括四个UWB通信模块,每个通信模块由一台UWB通信基站以及与其连接的两根UWB天线构成,四台UWB通信基站均与中央处理器连接,所述中央处理器与存储单元连接,通过四台UWB通讯基站分别获取定位区域内的四台UWB基站对UWB定位标签的定位信息,对机器人进行立面定位;
S2:通过惯性测量单元(inertial measurement unit,IMU)输出的数据进行预积分解算机器人的姿态、速度和位置;
S3:将UWB输出的位置向量以及IMU输出的加速度作为初始时刻的状态向量,通过系统运行,通过EKF方程计算出状态估计向量;
S4:利用箱型图法计算本次UWB定位数据的可靠性,并对扩展卡尔曼滤波计算出的状态估计向量和光流法计算出的状态估计向量进行加权融合,输出机器人的最优位置估计向量。
优选地,所述S1的具体步骤如下:
SS1:布设的UWB定位系统中,四台UWB通信基站分别为第一UWB通信基站、第二UWB通信基站、第三UWB通信基站和第四UWB通信基站,第一UWB通信基站和第二UWB通信基站中的天线距离地面高度相同,且第一UWB通信基站的两根天线所在的直线与第二UWB通信基站的两个天线所在的直线之间夹角等于90°,使得第一UWB通信基站和第二UWB通信基站中天线在距离地面相同高度的水平面上均匀辐射以构成全向天线;
SS2:第三UWB通信基站和第四UWB通信基站放置于立面环境顶端,同样所在的直线与第一UWB通信基站、第二UWB通信基站的两根天线所在的直线之间夹角等于90°,且第三UWB通信基站、第四UWB通信基站两点所在直线与第一UWB通信基站、第二UWB通信基站两点所在直线夹角等于90°;
SS3:分别获取定位区域内的四台UWB通信基站对UWB定位标签的定位信息,针对UWB定位标签均建立一个对应的观测坐标系,根据基站与标签之间的信号传输时间计算距离,使用基于到达时间差方法,对机器人进行立面定位。
优选地,所述S2中,通过IMU测出机器人坐标系下的加速度和角速度,将其转化到导航坐标系下,通过积分解算位置、速度和姿态信息。
优选地,所述S3中,通过EKF方程计算出状态估计向量的步骤为:系统在初始时刻,将UWB输出的位置向量以及IMU输出的加速度作为初始时刻的状态向量,通过系统运行,EKF模块将当前时刻UWB输出的位置信息作为观测值,IMU输出的加速度以及上一时刻的状态向量输入机器人运动学方程中计算得到的位置信息作为预测值,利用EKF方程计算出状态估计向量。
优选地,所述S4中,将融合后的状态向量作为最优估计向量输入预积分中,输出机器人的最优位置估计向量的具体步骤如下:
SS1:光流传感器通过对前后两帧图像进行光流计算得到两帧图像之间的位移差,推算出爬壁机器人的瞬时速度,通过光流传感器、IMU及已知地图的融合,实现坐标系对齐及姿态补偿;
SS2:在UWB通信基站与立面环境的具体位置估计机器人的状态向量,光流定位模块根据光流输出的速度以及上一时刻的状态向量,利用运动学方程计算出状态估计向量,系统利用箱型图法计算本次UWB定位数据的可靠性;
SS3:光流法得到的速度即为爬壁机器人在机体坐标系下的相对速度,根据该可靠性推算出融合权重,并对已知地图、扩展卡尔曼滤波计算出的状态估计向量和光流法计算出的状态估计向量进行加权融合,得到最终的位置估计。
本发明提供的一种多传感器融合的爬壁机器人立面定位方法,具有如下有益效果。
1.本发明将UWB、IMU与可见光相机融合,成本低,体积小,布设简单,维护容易。
2.本发明引入自适应融合权值,与经典的EKF相比,具有更快和更可控的误差收敛。
3.本发明多传感器动态融合的定位方法,充分发挥各传感器的优点,提高了定位精度,减小了盲目融合带来的误差,最终提升了定位的精度以及算法的鲁棒性。
附图说明
图1为本发明提供的一种多传感器融合的爬壁机器人立面定位方法的流程图;
图2为本发明提供的一种多传感器融合的爬壁机器人立面定位方法的算法分析流程图;
图3为本发明UWB定位系统的结构示意图;
图4为本发明的机器人定位状态示意图。
具体实施方式
下面结合具体实施例和附图对本发明做进一步说明,以助于理解本发明的内容。
如图1-2所示,分别为本发明提供的一种多传感器融合的爬壁机器人立面定位方法的流程图和算法分析流程图。该多传感器融合的爬壁机器人立面定位方法包括以下步骤:
S1:在有限场景布设UWB定位系统,所述UWB定位系统包括四个UWB通信模块,每个通信模块由一台UWB通信基站以及与其连接的两根UWB天线构成,四台UWB通信基站均与中央处理器连接,所述中央处理器与存储单元连接,通过四台UWB通讯基站分别获取定位区域内的四台UWB基站对UWB定位标签的定位信息,对机器人进行立面定位;
所述S1的具体步骤如下:
SS1:布设的UWB定位系统中,四台UWB通信基站分别为第一UWB通信基站、第二UWB通信基站、第三UWB通信基站和第四UWB通信基站,第一UWB通信基站和第二UWB通信基站中的天线距离地面高度相同,且第一UWB通信基站的两根天线所在的直线与第二UWB通信基站的两个天线所在的直线之间夹角等于90°,使得第一UWB通信基站和第二UWB通信基站中天线在距离地面相同高度的水平面上均匀辐射以构成全向天线;
SS2:第三UWB通信基站和第四UWB通信基站放置于立面环境顶端,同样所在的直线与第一UWB通信基站、第二UWB通信基站的两根天线所在的直线之间夹角等于90°,且第三UWB通信基站、第四UWB通信基站两点所在直线与第一UWB通信基站、第二UWB通信基站两点所在直线夹角等于90°;
SS3:分别获取定位区域内的四台UWB通信基站对UWB定位标签的定位信息,针对UWB定位标签均建立一个对应的观测坐标系,根据基站与标签之间的信号传输时间计算距离,使用基于到达时间差方法,对机器人进行立面定位。
S2:通过惯性测量单元(inertial measurement unit,IMU)输出的数据进行预积分解算机器人的姿态、速度和位置;
所述S2中,通过IMU测出机器人坐标系下的加速度和角速度,将其转化到导航坐标系下,通过积分解算位置、速度和姿态信息。
S3:将UWB输出的位置向量以及IMU输出的加速度作为初始时刻的状态向量,通过系统运行,通过EKF方程计算出状态估计向量;
所述S3中,通过EKF方程计算出状态估计向量的步骤为:系统在初始时刻,将UWB输出的位置向量以及IMU输出的加速度作为初始时刻的状态向量,通过系统运行,EKF模块将当前时刻UWB输出的位置信息作为观测值,IMU输出的加速度以及上一时刻的状态向量输入机器人运动学方程中计算得到的位置信息作为预测值,利用EKF方程计算出状态估计向量。
S4:利用箱型图法计算本次UWB定位数据的可靠性,并对扩展卡尔曼滤波计算出的状态估计向量和光流法计算出的状态估计向量进行加权融合,输出机器人的最优位置估计向量。
所述S4中,将融合后的状态向量作为最优估计向量输入预积分中,输出机器人的最优位置估计向量的具体步骤如下:
SS1:光流传感器通过对前后两帧图像进行光流计算得到两帧图像之间的位移差,推算出爬壁机器人的瞬时速度,通过光流传感器、IMU及已知地图的融合,实现坐标系对齐及姿态补偿;
SS2:在UWB通信基站与立面环境的具体位置估计机器人的状态向量,光流定位模块根据光流输出的速度以及上一时刻的状态向量,利用运动学方程计算出状态估计向量,系统利用箱型图法计算本次UWB定位数据的可靠性;
SS3:光流法得到的速度即为爬壁机器人在机体坐标系下的相对速度,根据该可靠性推算出融合权重,并对已知地图、扩展卡尔曼滤波计算出的状态估计向量和光流法计算出的状态估计向量进行加权融合,得到最终的位置估计。
系统使用IMU测量机器人的加速度和速度,并将他们作为INS的输入。INS通过积分可以计算出机器人的位置、速度和姿态,但位置信息会存在累计误差。UWB使用基于到达时间差(time difference of arrival,TDOA)方法来对爬壁机器人进行定位,并输出机器人的位置向量。但由于受到多径效应、非视距(non-line-of-sight,NLOS)环境等影响,定位数据可能出现离群值,并导致滤波器性能下降甚至发散。系统在初始时刻,将UWB输出的位置向量、IMU输出的加速度作为初始时刻的状态向量,并输入UWB/IMU/光流融合定位算法中。在系统运行过程中,EKF模块将当前时刻UWB输出的位置信息作为观测值IMU输出的加速度以及上一时刻的状态向量输入机器人运动学方程中计算得到的位置信息作为预测值,利用EKF方程计算出状态估计向量。光流定位模块根据光流输出的速度以及上一时刻的状态向量,利用运动学方程计算出状态估计向量。随后,系统利用箱型图法计算本次UWB定位数据的可靠性,根据该可靠性推算出融合权重,并对已知地图、扩展卡尔曼滤波计算出的状态估计向量和光流法计算出的状态估计向量进行加权融合,最后将融合后的状态向量作为最优估计向量输入INS中,INS输出机器人的最优位置估计向量。
如图3所示,为本发明UWB定位系统的结构示意图。所述UWB定位系统包括四个UWB通信模块,每个通信模块由一台UWB通信基站以及与其连接的两根UWB天线构成,四台UWB通信基站均与中央处理器连接,所述中央处理器与存储单元连接。所述UWB通信基站均为支持IEEE802.15.4、IE802.15.4z的UWB协议的通信芯片,支持双向测距(TWR,Two-way Ranging)和达到相位差的测量。
在移动机器人定位中,基于概率的估计方法经常被使用,常用的概率定位方法有卡尔曼滤波和粒子滤波,他们的主要区别是概率分布函数的不同。机器人的条件概率可表示为:
P(xt|ut,xt-1)
其中,xt-1表示机器人在t-1时刻的位姿;xt表示机器人在t时刻的位姿;表示时刻的运动控制。模型表示在t-1时刻,已得机器人的位姿时,对其执行ut后,所得到的后验概率分布。假设m为周围环境地图信息,z为观测状态信息,则可得出图4所示的机器人定位状态示意图。
EKF初始化
滤波器初始化时,需要确定状态向量和先验协方差矩阵。本文状态向量为6维向量,包括机体坐标系下的位置、速度和加速度,可以为下式所示:
x=[px,vx,ax,py,vy,ay]T其中:px和py分别为UWB坐标系下的x轴坐标和y轴坐标;vx和vy分别为机体坐标系下x轴方向的速度和y轴方向的速度;ax和ay分别为机体坐标系下x轴方向的加速度和y轴方向的加速度。
协方差矩阵用来描述系统的不确定程度,在迭代过程中会逐渐收敛到一个稳定值。由于IMU获取的加速度信息较为准确,而速度信息和位置信息的获取需要进行积分,存在累计误差。故本系统初始状态先验协方差矩阵为:
Figure SMS_1
EKF预测阶段
在EKF预测阶段需要根据状态转移矩阵和上一次的最优状态估计来计算先验状态估计,可以为下式所示:
Figure SMS_2
其中:
Figure SMS_3
为t时刻先验估计状态向量;
Figure SMS_4
为t-1时刻最优估计状态向量;F为状态转移矩阵;B为控制矩阵;ut-1为t-1时刻对系统的控制矩阵。由于机器人运动模型是变加速运动模型,上一时刻的加速度和当前时刻距上一时刻的时间间隔会对先验状态估计产生影响,设Δt为时间间隔,则根据运动学公式可得当前阶段的先验协方差矩阵。
此外,还需要计算当前时刻的先验估计协方差矩阵,可以为下式所示:
Figure SMS_5
其中:
Figure SMS_6
为t时刻的先验协方差矩阵;Pt-1为t-1时刻的后验协方差矩阵;由于只能获取离散的加速度值,运动模型存在一定误差,增加过程噪声的方差矩阵Q。
EKF更新阶段
本发明观测模型为UWB,会将各基站的测距信息和时间戳先送入定位服务器中,待服务器解算出位置坐标后输入滤波器中,因此观测量z为二维矩阵,可以为下式所示:
z=[px,py]T
由于观测向量与状态向量维度不一致,因此添加测量矩阵H。
在EKF更新阶段,需要计算本次滤波的卡尔曼增益,可以为下式所示:
Figure SMS_7
其中:Kt为t时刻的卡尔曼增益矩阵;R为测量噪声的方差矩阵。
根据t时刻的先验状态估计
Figure SMS_8
和测量向量zt,可以计算出t时刻的最优状态估计
Figure SMS_9
可以为下式所示:
Figure SMS_10
最后,更新后验估计协方差,可以为下式所示:
Figure SMS_11
其中:Pt为t时刻后验估计协方差;I为单位矩阵。
使用箱型图计算UWB系统的可靠性
离群值指的是UWB系统因多径效应或基站信号丢失导致定位数据出现野值。机器人在移动过程中,较短的时间间隔内不会产生满足重尾分布的定位数据,且可以将定位数据按坐标轴进行单变量值分组,因此十分适合使用箱型图法来实时检测出定位数据中的离群值。箱型图法首先要对整段数据进行排序,然后找出该段数据中的中位数、第一个四分位数和第三个四分位数,并计算出四分位间距(interquartile range,IQR),可以为下式所示:
dIQR=q3-q1
其中:q1为第一个四分位数,代表在整个数据段中,比q1小的数占四分之一;q3为第三个四分位数,代表在整个数据段中,比q3小的数站四分之三;dIQR为四分位间距,代表箱体的大小。根据q3和dIQR,计算出可以排除离群值的下限和上限。
光流定位和加权融合
光流传感器通过对前后两帧图像进行光流计算以得两帧图像之间的位移差,来推算出机器人的瞬时速度。通过光流传感器和IMU的融合,以实现坐标系对齐及姿态补偿,于是光流法得到的速度即为机器人在机体坐标系下的相对速度。最后,将光流法和EKF输出的结果进行融合,得到最终的位置估计。
本发明将UWB、IMU与可见光相机融合,成本低,体积小,布设简单,维护容易。本发明引入自适应融合权值,与经典的EKF相比,具有更快和更可控的误差收敛。本发明多传感器动态融合的定位方法,充分发挥各传感器的优点,提高了定位精度,减小了盲目融合带来的误差,最终提升了定位的精度以及算法的鲁棒性。
本文中应用了具体个例对发明构思进行了详细阐述,以上实施例的说明只是用于帮助理解本发明的核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离该发明构思的前提下,所做的任何显而易见的修改、等同替换或其他改进,均应包含在本发明的保护范围之内。

Claims (5)

1.一种多传感器融合的爬壁机器人立面定位方法,其特征在于,包括以下步骤:
S1:在有限场景布设UWB定位系统,所述UWB定位系统包括四个UWB通信模块,每个通信模块由一台UWB通信基站以及与其连接的两根UWB天线构成,四台UWB通信基站均与中央处理器连接,所述中央处理器与存储单元连接,通过四台UWB通讯基站分别获取定位区域内的四台UWB基站对UWB定位标签的定位信息,对机器人进行立面定位;
S2:通过惯性测量单元输出的数据进行预积分解算机器人的姿态、速度和位置;
S3:将UWB输出的位置向量以及IMU输出的加速度作为初始时刻的状态向量,通过系统运行,通过EKF方程计算出状态估计向量;
S4:利用箱型图法计算本次UWB定位数据的可靠性,并对扩展卡尔曼滤波计算出的状态估计向量和光流法计算出的状态估计向量进行加权融合,输出机器人的最优位置估计向量。
2.根据权利要求1所述的一种多传感器融合的爬壁机器人立面定位方法,其特征在于,所述S1的具体步骤如下:
SS1:布设的UWB定位系统中,四台UWB通信基站分别为第一UWB通信基站、第二UWB通信基站、第三UWB通信基站和第四UWB通信基站,第一UWB通信基站和第二UWB通信基站中的天线距离地面高度相同,且第一UWB通信基站的两根天线所在的直线与第二UWB通信基站的两个天线所在的直线之间夹角等于90°,使得第一UWB通信基站和第二UWB通信基站中天线在距离地面相同高度的水平面上均匀辐射以构成全向天线;
SS2:第三UWB通信基站和第四UWB通信基站放置于立面环境顶端,同样所在的直线与第一UWB通信基站、第二UWB通信基站的两根天线所在的直线之间夹角等于90°,且第三UWB通信基站、第四UWB通信基站两点所在直线与第一UWB通信基站、第二UWB通信基站两点所在直线夹角等于90°;
SS3:分别获取定位区域内的四台UWB通信基站对UWB定位标签的定位信息,针对UWB定位标签均建立一个对应的观测坐标系,根据基站与标签之间的信号传输时间计算距离,使用基于到达时间差方法,对机器人进行立面定位。
3.根据权利要求1所述的一种多传感器融合的爬壁机器人立面定位方法,其特征在于,所述S2中,通过IMU测出机器人坐标系下的加速度和角速度,将其转化到导航坐标系下,通过积分解算位置、速度和姿态信息。
4.根据权利要求1所述的一种多传感器融合的爬壁机器人立面定位方法,其特征在于,所述S3中,通过EKF方程计算出状态估计向量的步骤为:系统在初始时刻,将UWB输出的位置向量以及IMU输出的加速度作为初始时刻的状态向量,通过系统运行,EKF模块将当前时刻UWB输出的位置信息作为观测值,IMU输出的加速度以及上一时刻的状态向量输入机器人运动学方程中计算得到的位置信息作为预测值,利用EKF方程计算出状态估计向量。
5.根据权利要求1所述的一种多传感器融合的爬壁机器人立面定位方法,其特征在于,所述S4中,将融合后的状态向量作为最优估计向量输入预积分中,输出机器人的最优位置估计向量的具体步骤如下:
SS1:光流传感器通过对前后两帧图像进行光流计算得到两帧图像之间的位移差,推算出爬壁机器人的瞬时速度,通过光流传感器、IMU及已知地图的融合,实现坐标系对齐及姿态补偿;
SS2:在UWB通信基站与立面环境的具体位置估计机器人的状态向量,光流定位模块根据光流输出的速度以及上一时刻的状态向量,利用运动学方程计算出状态估计向量,系统利用箱型图法计算本次UWB定位数据的可靠性;
SS3:光流法得到的速度即为爬壁机器人在机体坐标系下的相对速度,根据该可靠性推算出融合权重,并对已知地图、扩展卡尔曼滤波计算出的状态估计向量和光流法计算出的状态估计向量进行加权融合,得到最终的位置估计。
CN202211719113.8A 2022-12-30 2022-12-30 一种多传感器融合的爬壁机器人立面定位方法 Pending CN116105726A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211719113.8A CN116105726A (zh) 2022-12-30 2022-12-30 一种多传感器融合的爬壁机器人立面定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211719113.8A CN116105726A (zh) 2022-12-30 2022-12-30 一种多传感器融合的爬壁机器人立面定位方法

Publications (1)

Publication Number Publication Date
CN116105726A true CN116105726A (zh) 2023-05-12

Family

ID=86257477

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211719113.8A Pending CN116105726A (zh) 2022-12-30 2022-12-30 一种多传感器融合的爬壁机器人立面定位方法

Country Status (1)

Country Link
CN (1) CN116105726A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117368844A (zh) * 2023-09-28 2024-01-09 河北振创电子科技有限公司 爬壁机器人定位方法、装置、电子设备及存储介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117368844A (zh) * 2023-09-28 2024-01-09 河北振创电子科技有限公司 爬壁机器人定位方法、装置、电子设备及存储介质

Similar Documents

Publication Publication Date Title
CN112347840B (zh) 视觉传感器激光雷达融合无人机定位与建图装置和方法
CN109548141B (zh) 基于卡尔曼滤波算法的室内环境基站坐标位置标定方法
CN107817469B (zh) 基于非视距环境下超宽频测距实现室内定位方法
CN112066982B (zh) 一种在高动态环境下的工业移动机器人定位方法
CN113124856B (zh) 基于uwb在线锚点的视觉惯性紧耦合里程计及计量方法
CN111795686A (zh) 一种移动机器人定位与建图的方法
CN113074739A (zh) 基于动态鲁棒容积卡尔曼的uwb/ins融合定位方法
CN112967392A (zh) 一种基于多传感器触合的大规模园区建图定位方法
CN110187337B (zh) 一种基于ls和neu-ecef时空配准的高机动目标跟踪方法及系统
CN114323033A (zh) 基于车道线和特征点的定位方法、设备及自动驾驶车辆
CN115951369A (zh) 面向复杂港口环境的多传感器融合定位方法
CN116105726A (zh) 一种多传感器融合的爬壁机器人立面定位方法
CN113551670A (zh) 一种基于uwb的三维寻物方法和装置
CN118129733A (zh) 一种典型激光雷达退化场景下的移动机器人定位方法
Lin et al. Drift-free visual slam for mobile robot localization by integrating uwb technology
Kong et al. Hybrid indoor positioning method of BLE and monocular VINS based smartphone
CN117387604A (zh) 基于4d毫米波雷达和imu融合的定位与建图方法及系统
CN116772831A (zh) 基于多传感器融合的移动机器人导航定位系统及方法
CN116482735A (zh) 一种受限空间内外高精度定位方法
Zhang et al. UWB/IMU integrated inspection robot positioning in underground substation
CN116380052A (zh) 一种基于uwb融合imu的室内定位方法
Yao et al. Tightly coupled indoor positioning using UWB/mmWave radar/IMU
Ai et al. Research of AGV Positioning and Navigation System Based on UWB
CN117928527B (zh) 一种基于行人运动特征优化的视觉惯性定位方法
Xu et al. Multi-Sensor Fusion Framework Based on GPS State Detection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination