CN115326053A - 一种基于双层视觉的移动机器人多传感器融合定位方法 - Google Patents

一种基于双层视觉的移动机器人多传感器融合定位方法 Download PDF

Info

Publication number
CN115326053A
CN115326053A CN202210995947.5A CN202210995947A CN115326053A CN 115326053 A CN115326053 A CN 115326053A CN 202210995947 A CN202210995947 A CN 202210995947A CN 115326053 A CN115326053 A CN 115326053A
Authority
CN
China
Prior art keywords
mobile robot
camera
positioning
code
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210995947.5A
Other languages
English (en)
Inventor
张浪文
杨奕斌
谢巍
刘彦汝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN202210995947.5A priority Critical patent/CN115326053A/zh
Publication of CN115326053A publication Critical patent/CN115326053A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation

Abstract

本发明公开了一种基于双层视觉的移动机器人多传感器融合定位方法,采用新型特征码实现顶部底部摄像头的协同识别定位功能,同时利用获得的位姿信息用于移动机器人的数据融合算法,实现高精度的机器人定位功能,在行驶过程中,顶部摄像头用于识别铺设于地面的特征码,移动机器人能够提前对自身位姿进行纠偏,提高系统的鲁棒性,底部摄像头仅当机器人在运行至特征码上方时工作,用于移动机器人的精确定位以及在旋转过程中的冗余控制,由于摄像头识别特征码在时间上为间歇性的,引入信息更新频率高,同时没有间断的IMU传感器和轮式里程计,利用IMU和里程计提供的信息进行状态预测,通过摄像头间歇性的数据实现数据融合滤波器的状态更新。

Description

一种基于双层视觉的移动机器人多传感器融合定位方法
技术领域
本发明属于传感器和定位领域,具体涉及一种基于双层视觉的多传感器融合方法。
背景技术
随着我国智能制造技术的发展,各类拥有高智能的移动机器人在人们的生产,生活中得到愈加广泛的应该。作为移动机器人的基础,定位系统在协助完成机器人的移动过程中起到至关重要的作用。
目前移动机器人在应用领域用于导航和定位的传感器类型多样,例如激光雷达、IMU、UWB、蓝牙、里程计、GNSS、磁力计等。在室外情况下,通常采用成熟的GNSS定位技术,该技术能够获取机器人在地球上的绝对位置坐标,除此之外还有基站定位技术和ip定位(Girbés-Juan V,Armesto L,Hernández-Ferrándiz D,et al.Asynchronous SensorFusion of GPS,IMU and CAN-Based Odometry for Heavy-Duty Vehicles[J].IEEETransactions on Vehicular Technology,2021,70(9):8617-8626.)。室内定位技术包含多种,常见的定位方案有有激光雷达、IMU、里程计、深度视觉、蓝牙、WIFI以及UWB。由于室内环境的复杂多变,经常存在定位传感器因为遮挡,信号问题出现定位丢失,或者是产生定位较大的定位误差,因此对于室内定位而言,寻求一种稳定的高精度定位方案是十分必要的。目前室内的定位通常采用多传感器融合的方案以提高精确度以及稳定性,在传感器中有多重选择,常见的利用激光雷达、IMU、里程计和UWB作为定位传感器(Lee Y,Lim D.Vision/UWB/IMU sensor fusion based localization using an extended Kalman filter[C]//2019 IEEE Eurasia Conference on IOT,Communication and Engineering(ECICE).IEEE,2019:401-403.)。其中多数融合定位方式中采用激光雷达、以及UWB等高精度传感器以提高定位系统的精度,但使用这些传感器不可避免的就使得定位成本的大幅提高,随着移动机器人的数量增加,其成本提高更加明显。高精定位系统的成本问题成为影响其向中低端领域扩展的一大障碍。对于常见的定位传感器,其获取的信息通常具有连续且固定的采样周期,在可能出现的异步信息处理方案研究较少。
发明内容
为解决所述技术问题,本发明提出一种基于双层视觉的移动机器人多传感器融合定位方法,其中包括:通过轮式里程计获取移动机器人轮组的速度,并且通过IMU获取移动机器人的航向角等信息,同时利用顶部摄像头与底部摄像头进行特征码的识别,顶部摄像头在移动机器人到达特征码前能够提前识别特征码,并且获得移动机器人的位姿状态。底部摄像头在移动机器人到达特征码上方时开始作用,其识别定位精度高,通常用于精确定位以及各类高精度操作的偏差补偿。
本发明至少通过如下技术方案之一实现。
一种基于双层视觉的移动机器人多传感器融合定位方法,包括以下步骤:
S1、基于差分轮式移动机器人相应的系统控制量以及传感器获取的信息构建动力学模型;
S2、通过移动机器人顶部摄像头识别新型特征码中的外部定位码,在移动机器人到达新型特征码前提取获取移动机器人的位姿;
S3、采用移动机器人底部摄像头识别位于移动机器人底部的中部定位码,当移动机器人移动至新型特征码上方时,通过底部摄像识别新型特征码中的中部定位码,通过坐标转换算法能够获得定位偏差,同时通过匹配算法获得移动机器人的位姿;
S4、基于移动机器人的位姿和定位误差构建摄像头传感器测量模型,分析定位算法过程中的误差,获得移动机器人的状态向量以及与摄像头测量误差相关的协方差矩阵;
S5、通过IMU传感器作为状态预测传感器获取移动机器人的角速度,结合IMU角速度动力学模型以及差分轮动力学模型进行下一时刻移动机器人的状态预测,状态预测结果与摄像头状态向量和协方差矩阵中航向角部分进行数据融合;
S6、通过里程计获取移动机器人车轮的角速度,结合动力学模型进行下一时刻移动机器人的状态预测进行状态预测,状态预测结果与摄像头状态向量和协方差矩阵中坐标部分进行数据融合;
S7、在数据融合完成后,采用Rauch-Tung-Striebel反向平滑对获得的移动机器人的位姿数据进一步平滑处理,获得移动机器人状态的最优估计。
进一步地,动力学模型如下:
定义移动机器人的状态向量
Figure BDA0003804890350000031
其中[x,y]表示在平面世界坐标系上移动机器人对应的位置坐标,θ为移动机器人朝向相对于世界坐标系中x轴方向的夹角,δ、
Figure BDA0003804890350000032
分别表示为受到线速度与角速度影响而产生的对应系统偏差参数;相应的动力学模型表示为:
Figure BDA0003804890350000041
其中,
Figure BDA0003804890350000042
为状态向量关于时间的导数,反应移动机器人的状态变化,相对应的
Figure BDA0003804890350000043
分别为x、y、θ的导数,ωw为轮子旋转的角速度向量定义为[ωr,ωl]T,ωr、ωl分别表示移动机器人右轮以及左轮旋转的角速度,f(X)为移动机器人的状态变化的计算函数;
根据差分轮式机器人的结构,f(X)表示为:
Figure BDA0003804890350000044
其中r表示差分轮式移动机器人轮子的半径,d表示为移动机器人两个轮子之间的距离;
传感器对移动机器人的的状态观测向量Z通过测量方程表示为:
Z=h(X)
其中X为移动机器人的状态向量,h(·)为非线性的转移矩阵,表示传感器的观测量与移动机器人状态的相对关系;
通过加入时间周期Ts对系统进行离散化,同时加入因IMU及里程计产生的系统噪声误差:
Xk+1=Xk+f(Xk)TsΔω
Zk=h(Xk)
其中Xk+1、Xk分别表示为在k+1时刻和k时刻移动机器人的状态向量,Zk表示为k时刻的状态观测向量;Δω=ωwkk,ωwk为第k时刻的车轮的转速向量,εk为第k时刻的系统噪声,通过k时刻的状态变获得k+1时刻的状态向量,Ts为两相邻时刻之间的时间间隔即k与k+1时刻的时间间隔。
进一步地,新型特征码包括外部定位码以及中部定位码;
外部定位码采用自行编码的方式,通过识别黑白特征实现移动机器人的相对位置定位,通过识别数字实现移动机器人绝对位姿的定位;
中部定位码采用Apriltag码,其类型为36h11。
进一步地,移动机器人顶部摄像头识别新型特征码,包括以下步骤:
首先通过顶部摄像头获取移动机器人前方新型特征码的图像,通过视觉处理对图像进行特征提取,通过逐行扫描的方式将获取的数据进行识别,外部特征码具有识别的图案;
其次,通过识别的定位进行仿射变换,将特征码转换为正对摄像头状态,同时提取特征码中数字部分进行识别,识别结果表示为定位特征码在世界坐标系上的绝对位置;
最后,通过偏差以及特征码的在世界坐标系上的绝对位置计算得到移动机器人的位姿,具体计算方式如下:
摄像头识别特征码后,获得特征码中心点在图像坐标系上的坐标(u,v),计算摄像头的相对位姿:
Figure BDA0003804890350000051
其中,xc、yc为特征码中心在相对于摄像头中心的坐标,zc表示为特征码中心在光轴方向上与摄像头中心的距离,fx、fy、u0、v0为通过摄像头内部标定获取的参数,u、v表示某一确定点在图像上的坐标;
通过获得摄像头的定位根据摄像头在移动机器人上的安装位置,获得移动机器人的位姿:
Figure BDA0003804890350000061
其中R为3x3的旋转矩阵,M表示坐标的平移关系,通过变换矩阵获得移动机器人在世界坐标系上的位置。
进一步地,定位偏差表示为:
Figure BDA0003804890350000062
其中Δxb、Δyb为底部摄像头图像坐标系中中部定位码与图像中心的偏差,fx、fy、u0、v0为摄像头内部参数,zc表示摄像头光轴方向上摄像头中心与地面的距离。
进一步地,步骤S4具体包括以下步骤:
通过摄像头获得的摄像头位置与特征码中心的相对距离Δx、Δy和相对角度Δθ,移动机器人的状态向量为其在世界坐标系上的坐标以及航向角,为实现由相对距离到状态向量的转换,构建摄像头传感器测量模型:
Figure BDA0003804890350000063
其中
Figure BDA0003804890350000064
为摄像头的状态测量向量,hc(Xk)摄像头的状态转移函数,Δxc、Δyc、Δθc分别为移动机器人与特征码中心的偏移量,xq、yq为特征码中心在世界坐标系上的坐标,xk、yk为移动机器人的坐标,θk为移动机器人的航向角,
Figure BDA0003804890350000071
Figure BDA0003804890350000072
为摄像头与移动机器人中心的固定安装距离;上述过程中并不考虑摄像头在识别定位过程中的误差,在实际情况为实现精确定位,需要加入相应的误差项,因此,摄像头识别到特征码时其相应的测量方程表示为:
Figure BDA0003804890350000073
其中
Figure BDA0003804890350000074
为通过摄像头获得的测量值,其包含摄像头的测量误差,Δxk c、Δyk c、Δθk c分别为Δxc、Δyc、Δθk通过摄像头获得的测量值,
Figure BDA0003804890350000075
为在第k时刻的测量不确定度,
Figure BDA0003804890350000076
分别为x、y、θ关于自身的不确定度,不确定度通过在固定点进行多次定位获得。
进一步地,步骤S5具体包括以下步骤:
定义移动机器人角度状态向量Xθ=[θg,ug],其中θg为IMU测量获得的角度,ug为IMU测量获得的角度与角速度相关测量误差系数,每次传感器测量时间间隔Ts,则传感器角度测量模型表示为:
Figure BDA0003804890350000077
Figure BDA0003804890350000078
其中
Figure BDA0003804890350000079
为关于航向角的状态向量,下标k为k时刻时的变量值,类似的下标k-1为k-1时刻,
Figure BDA00038048903500000710
表示k时刻时IMU测量获得的角度,
Figure BDA00038048903500000711
k表示k时刻时IMU测量获得的角度与角速度相关测量误差系数,ωk为k时刻移动机器人的角速度,
Figure BDA00038048903500000712
表示为IMU产生的噪声误差,
Figure BDA00038048903500000713
为测量状态向量,
Figure BDA00038048903500000714
为状态转移函数,顶部摄像头与底部摄像头完成特征识别定位后,获取的观测量为相对新型特征码的角度偏移量Δθc,即
Figure BDA0003804890350000081
其中θtag为特征码的安装角度;
相应的测量方程表示为:
Figure BDA0003804890350000082
其中
Figure BDA0003804890350000083
为观测的真实值,
Figure BDA0003804890350000084
表示传感器测量值,
Figure BDA0003804890350000085
为视觉识别的获得移动机器人与特征码的角度偏差,
Figure BDA0003804890350000086
表示为摄像头的测量误差,如果
Figure BDA0003804890350000087
与ug为白噪声且相互之间互不影响,则通过扩展卡尔曼滤波进行融合;
预测阶段表示为:
Figure BDA0003804890350000088
Figure BDA0003804890350000089
其中,
Figure BDA00038048903500000810
为预测阶段移动机器人的状态预测值,
Figure BDA00038048903500000811
为预测阶段的协方差矩阵,
Figure BDA00038048903500000812
为k-1时刻的最佳状态估计值,
Figure BDA00038048903500000813
是k时刻到k+1时刻的变换矩阵,
Figure BDA00038048903500000814
为IMU测量获取的在第k时刻的角速度,
Figure BDA00038048903500000815
Figure BDA00038048903500000816
分别是根据测量方程关于状态向量X和角速度ω的雅可比矩阵,Qk-1为上一时刻的协方差矩阵,
Figure BDA00038048903500000817
为IMU在的噪声方差;当摄像头未识别到特征码时,无法获取观测值,将预测结果中的状态向量和协方差矩阵作为当前时刻的最优估计;
若摄像头识别特征码即存在观测值,则更新动机器人的状态,更新过程亦是融合过程:
Figure BDA0003804890350000091
Figure BDA0003804890350000092
Figure BDA0003804890350000093
其中I为单位矩阵,F为系统的输出矩阵,在此处F=[-1,0],
Figure BDA0003804890350000094
为扩展卡尔曼滤波增益,用于确定更新时传感器测量值的权重,通过上式实现扩展卡尔曼滤波数据融合并获得优化后的航向角,顶部摄像头与底部摄像头在更新过程是相同的,通过改变在于测量过程中定位信息的方差
Figure BDA0003804890350000095
完成。
进一步地,步骤S6具体包括以下步骤:
定义移动机器人位置信息的状态向量X=[x,y,δ1,δr],其中x,y表示在平面世界坐标系上移动机器人对应的位置坐标,δ1、δr分别表示为与左右轮速度相关的里程计的测量误差系数,相应的其状态预测模型表示为:
Figure BDA0003804890350000096
其中xk、yk表示k时刻在平面世界坐标系上移动机器人对应的位置坐标,
Figure BDA0003804890350000097
Figure BDA0003804890350000098
分别为k时刻里程计的测量误差系数,
Figure BDA0003804890350000099
分别为k时刻里程计的测量左右轮的角速度,
Figure BDA00038048903500000910
表示里程计的噪声误差,r表示差分轮式移动机器人轮子的半径,θk-1为k-1时刻的航向角。
进一步地,Rauch-Tung-Striebel反向平滑具体如下:
Figure BDA00038048903500000911
Figure BDA00038048903500000912
Figure BDA0003804890350000101
其中,
Figure BDA0003804890350000102
为k+1时刻预测协方差矩阵,Qk为k时刻数据融合后的协方差矩阵,Gk为转换矩阵,
Figure BDA0003804890350000103
为第k时刻优化后的移动机器人状态向量,通过利用k+1时刻的数据进行反向平滑,对k时刻的移动机器人状态进行优化,Mk、Nk分别是第k时刻根据测量方程关于状态向量X和角速度ω的雅可比矩阵,
Figure BDA0003804890350000104
为第k时刻IMU在的噪声方差,
Figure BDA0003804890350000105
为k时刻的最佳状态估计值。
进一步地,所述特征码上的外部定位码上包括数字特征,特征码的绝对位置通过两个数字,其中定义数字识别结果分别为a、b、c,特征码对应坐标表示为:
(xtag,ytag)=(a*L,b*L)
其中,L为特征码在实际场景中的铺设间距,(xtag,ytag)为特征码在世界坐标系中的坐标,识别结果c并不用于定位,在实际场景中应用于特征码节点定义。
与现有的技术相比,本发明的有益效果为:
本发明建立在双层视觉伺服定位系统的基础上,采用一种新型的特征码,融合了外部定位码和中部特征码,利用顶部与底部摄像头分别获取移动机器人的位姿,通过与IMU以及里程计进行融合,实现高精度的定位方案。通过双视觉摄像头定位,移动机器人在运动过程中能够通过顶部摄像头实现预测定位,提高了移动机器人的灵活性,通过底部摄像头能够提高移动机器人的停站精度,对于多点精确定位需求,极大的降低了移动机器人的成本,同时多传感器的数据冗余能够提高了移动机器人的鲁棒性,稳定性。
附图说明
图1为本实施例一种基于双层视觉的移动机器人多传感器融合定位方法的流程示意图;
图2为本实施例外部定位码与中部融合特征码示意图;
图3为本实施例基于差分轮式移动机器人车配置多传感器的结构图;
图4为本实施例移动机车双层视觉识别特征码示意图;
图5为本实施例移动机器人车顶部视觉在实际场景中实现环境感知示意图。
具体实施方式
以下通过结合实施例与相应附图,对本发明的应用进行详细说明,但本发明不局限所述实施方式。
实施例1
如图1所示,一种基于双层视觉的移动机器人多传感器融合定位方法,应用于运动控制的双层视觉伺服导航,包括如下步骤:
1)设计新型特征码,采用新型特征码进行视觉识别,实现在远距离与近距离情况下对新型特征码进行的准确识别与定位;
如图2所示,本发明的融合特征码包括外部定位码以及中部定位码,除中部定位码外特征皆属于外部定位码,新型特征码通过将外部定位码与中部定位码进行融合,采用同一定位特征码,实现多种单目视觉定位方案,两个的融合同时满足了顶部摄像头的识别与底部摄像头的识别,能够实现多种情况下,多角度多方案的实现各种的识别定位,实现多角度的识别方式,为双层视觉定位系统提供基础。
采用顶部视觉识别特征码的外部定位码,顶部特征码识别过程包括以下步骤:首先通过顶部摄像头获取移动机器人前方图像,通过视觉处理对图像进行特征提取,减少图像数据同时提高识别速度。然后通过逐行扫描的方式将获取的数据进行识别,外部特征码具有易于识别的图案,所述图案包括黑色正方形方块和黑色正方形方块外部包围的黑色正方形环,在视觉特征上结构简单,特征易于识别,在垂直于黑色边方向上,由外至内黑色区域长度与白色区域长度存在比例特征关系其中,黑色∶白色∶黑色∶白色黑色=1∶1∶4∶1∶1,通过识别所述的比例特征能够获取特征码在图像中的定位,通过坐标转换获取移动机器人与特征码的偏差;
其次,通过识别的定位进行仿射变换,将特征码装换为正对摄像头状态,同时提取特征码中数字部分进行识别,识别结果表示为定位特征码在世界坐标系上的绝对位置。
最后,通过偏差以及特征码的位置能够计算得到移动机器人的位姿,具体计算方式如下:
摄像头识别特征码后,获得特征码中心点在图像坐标系上的坐标(u,v),计算摄像头的相对位姿:
Figure BDA0003804890350000121
其中,xc、yc为特征码中心在相对于摄像头中心的坐标,zc表示为特征码中心在光轴方向上与摄像头中心的距离,fx、fy、u0、v0为通过摄像头内部标定获取的参数,u、v表示某一确定点在图像上的坐标,由于相机安装时拥有确定的高度与姿态,所铺设特征码其尺寸特征已知,因此通过上述方法能够实现单目视觉的深度估计。通过获得摄像头的定位根据摄像头在移动机器人上的安装位置,获得移动机器人的位姿,具体的:
Figure BDA0003804890350000131
其中R为3x3的旋转矩阵,M表示坐标的平移关系,通过变换矩阵获得移动机器人在世界坐标系上的位置。
外部定位码采用自行编码的方式,通过识别黑白特征实现移动机器人的相对位置定位,通过识别数字实现移动机器人绝对位姿的定位。移动机器人通过对黑白方块进行扫码,由于移动机器人在运动过程中,摄像头拍摄存在模糊的情况,因此舍弃外部定位码的列特性,通过对图像根据行特性进行分析,完成特征的识别过程,由于各特征方块在实际中存在固定的距离,通过坐标变换将图像坐标系与世界坐标系进行变换,获得移动机器人与定位特征码的相对位置,即获得移动机器人于特征码的位姿偏差。进一步,所述特征码根据识别数字实现移动机器人绝对位姿的定位,其中数字信息中包含特征码在世界坐标系中的绝对位置,结合获得的相对位置偏差能够求得移动机器人的绝对位姿。
采用底部视觉识别新型特征码的中部定位码,包括以下步骤:底部摄像头安置于移动机器人底部中心位置,由于底部摄像头光轴垂直于地面,相机的中心与地面为固定距离且中部定位码大小在设计中已经确定,当移动机器人运动至定位码上方时,通过识别算法与匹配算法实现单目视觉的定位,同时当移动机器人在定位码上方进行旋转或移动时,能够实时通过识别结果反馈定位精确信息,可以作为站点或工作点完成各类需要精确定位的需求。
中部定位码采用Apriltag码,其识别过程较为简单,采用36h11类型,其中有效方格为36个,外围黑色方格便于算法的定位,中部36格通过黑白颜色的交替进行编码,其满足旋转不变性。通过对内部36格黑白编码分别进行识别,识别黑色编码为0,是别为白色编码为1,以此将编码转换为二进制码,36格能获得长度为36的二进制码,实现解码。为确定移动机器人的相对旋转方向,需要对Apriltag码进行三次90°的旋转,四次解码,并通过与已有的编码库进行二进制码匹配。编码库中二进制码与绝对坐标进行绑定,因此能够实现中部定位码的绝对坐标的获取,通过坐标变换可以获得移动机器人与中部定位码的相对偏差,相对偏差向量可以表示为:
Figure BDA0003804890350000141
其中Δxb、Δyb为底部摄像头图像坐标系中中部定位码与图像中心的偏差,fx、fy、u0、v0为摄像头内部参数。
在识别外部定位码的过程中,由于中部定位码采用Apriltag码,其特征与外部定位码的定位图案不同,通过算法过滤,外部定位码在识别过程中不受中部特征码的变化影响。
具体的,本发明采用差分轮式移动机器人作为整体配置的基础,如图3所示,顶部摄像头安装于移动机器人顶部,光轴与移动机器人前进方向处于统一平面,光轴与地面的投影与该光轴形成一夹角,夹角大小为35°。安装于顶部的摄像头用于识别外部定位码,外部定位码特征较为明显,能够实现较远距离的识别定位,为顶部特征码的识别提供了条件,降低了对摄像头的精度要求。底部特征码安装于移动机器人底部中心位置,其与地面距离较近,用于识别中部特征码,同时配置相应的光源,具有识别稳定,定位精度高的特点。在控制上,通过工控机实现对摄像头获取信息的处理,并通过扩展卡尔曼滤波算法和RTSS反向平滑算法融合多个传感器数据。
移动机器人在运动过程中识别特征码过程如图4所示,当移动机器人运动至特征码上方时,通过底部摄像头实现对中部定位码的识别与定位。当移动机器人在移动过程中,若前方出现另一特征码,能够在移动机器人到达前进行预先识别,能够提前获取相应的偏差信息。
2)基于差分轮式移动机器人构建相应动力学模型,将相应的系统控制量与传感器获取的信息进行联系,为实现多传感器融合技术提供实际基础。定义移动机器人的状态向量
Figure BDA0003804890350000151
其中[x,y]表示在平面世界坐标系上移动机器人对应的位置坐标。θ为移动机器人朝向相对于世界坐标系x轴方向的夹角。δ、
Figure BDA0003804890350000152
分别表示为受到线速度与角速度影响而产生的对应系统偏差参数。相应的动力学模型表示为:
Figure BDA0003804890350000153
其中,
Figure BDA0003804890350000154
为状态向量关于时间的导数,反应移动机器人的状态变化,相对应的
Figure BDA0003804890350000155
分别为x、y、θ的导数,ωw为轮子旋转的角速度定义为[ωr,ωl]T,ωr、ωl分别表示移动机器人右轮以及左轮旋转的角速度,f(X)为移动机器人的状态变化的计算函数。
根据差分轮式机器人的结构,f(X)可以表示为:
Figure BDA0003804890350000161
其中r表示差分轮式移动机器人轮子的半径,d表示为移动机器人两个轮子之间的距离;
传感器对移动机器人的的状态观测向量Z可通过测量方程表示为:
Z=h(X)
其中X为移动机器人的状态向量,h(·)表示为非线性的转移矩阵,表示传感器的观测量与移动机器人的相对关系。通过加入时间周期Ts对系统进行离散化,同时在系统中加入因IMU及里程计产生的系统噪声误差:
Xk+1=Xk+f(Xk)TsΔω
Zk+1=h(X)
其中Xk+1、Xk分别表示为在k+1时刻和k时刻移动机器人的状态向量,Zk+1表示为k时刻的状态观测向量;Δω=ωwkk,ωwk为第k时刻的车轮的转速向量,εk为第k时刻的系统噪声,通过k时刻的状态变化可以获得k+1时刻的状态向量。
通过摄像头可以获得的摄像头位置与特征码中心的相对距离Δx和Δy和相对角度Δθ,然而摄像头的位置并不代表移动机器人位置,实际过程中通常摄像头与移动机器人中心存在一定的偏移,但摄像头固定位置为已知的,可以通过坐标变化获得移动机器人于定位码中心的相对距离。因此摄像头的测量方程表示为:
Figure BDA0003804890350000171
其中
Figure BDA0003804890350000172
为摄像头的状态测量向量,hc(Xk)摄像头的状态转移函数,
Figure BDA0003804890350000173
Δθc分别为机器人与特征码中心的偏移量,xq、yq为特征码中心在世界坐标系上的坐标,xk、yk为移动机器人的坐标,θk为移动机器人的航向角,
Figure BDA0003804890350000174
Figure BDA0003804890350000175
为摄像头与移动机器人中心的固定安装距离。以顶部摄像头为例,其测量过程如图5所示,地面铺设等间距特征码,相邻特征码之间距离为L,特征码的固定坐标为(xtag,ytag),特征码与世界坐标系x轴的夹角为θtag,移动机器人通过顶部摄像头识别特征码后,通过相应的解码过程获得相对偏差,其中Δxc、Δyc、Δθc在顶部摄像都的识别中为Δxtop、Δytop、Δθtop
当摄像头识别到特征码时其相应的测量方程为:
Figure BDA0003804890350000176
其中
Figure BDA0003804890350000177
通过摄像头获得的测量值其包含了摄像头的测量误差,相似的Δxk c、Δyk c、Δθk c分别为Δxc、Δyc、Δθk通过摄像头获得的测量值,
Figure BDA0003804890350000178
为在第kTs时刻的测量不确定度,
Figure BDA0003804890350000179
分别为x、y、θ关于自身的不确定度。3)由于特征码的识别存在间歇性,存在无特征码识别的情况,因此需要采用IMU传感器作为状态预测传感器,IMU传感器的高频信息反馈特点受外界的因素干扰小,作为定位系统的保障,对移动机器人状态进行预测;
通过IMU获取移动机器人的角速度,与移动机器人扫码获得的角度进行数据融合获得精确的定位效果。具体的实现方式如下:
定义状态向量x=[θg,ug],其中θg定义为IMU测量获得的角度,ug定位为与角速度相关测量误差系数,其中每次传感器测量时间间隔Ts,则传感器角度测量模型表示为:
Figure BDA0003804890350000181
Figure BDA0003804890350000182
其中
Figure BDA0003804890350000183
表示为关于航向角的状态向量,下标k表示为k时刻时的变量值,类似的下标k-1表示为k-1时刻,ωk表示为k时刻移动机器人的角速度,
Figure BDA0003804890350000184
表示为IMU产生的噪声误差,
Figure BDA0003804890350000185
为测量状态向量,
Figure BDA0003804890350000186
为状态转移函数,由于顶部摄像头与底部摄像头完成特征识别定位后,获取的观测量为相对新型特征码的角度偏移量Δθc。即
Figure BDA0003804890350000187
因此,相应的测量方程可以表示为
Figure BDA0003804890350000188
其中
Figure BDA0003804890350000189
为观测的真实值,
Figure BDA00038048903500001810
表示传感器测量值,
Figure BDA00038048903500001811
为视觉识别的获得移动机器人与特征码的角度偏差,
Figure BDA00038048903500001812
表示为摄像头的测量误差,如果
Figure BDA00038048903500001813
与ug为白噪声且相互之间互不影响,通过扩展卡尔曼滤波进行融合。根据上述式子,预测阶段可以表示为
Figure BDA00038048903500001814
Figure BDA00038048903500001815
其中,
Figure BDA00038048903500001816
为预测阶段移动机器人的状态预测值,
Figure BDA00038048903500001817
为预测阶段的协方差矩阵,
Figure BDA00038048903500001818
为k时刻的最佳状态估计值,
Figure BDA00038048903500001819
是k时刻到k+1时刻的变换矩阵,
Figure BDA0003804890350000191
为IMU测量获取的在第k时刻的角速度,
Figure BDA0003804890350000192
Figure BDA0003804890350000193
分别是根据测量模型方程关于状态向量X和角速度ω的雅可比矩阵,Qk-1为上一时刻的协方差矩阵,
Figure BDA0003804890350000194
为IMU在的噪声方差;
进一步,更新步骤可以表示为
Figure BDA0003804890350000195
Figure BDA0003804890350000196
Figure BDA0003804890350000197
其中I为单位矩阵,F为系统的输出矩阵,F=[-1,0],
Figure BDA0003804890350000198
为扩展卡尔曼滤波增益,用于确定更新时传感器测量值的权重,通过上式实现扩展卡尔曼滤波数据融合并获得优化后的航向角,顶部摄像头与底部摄像头在更新过程是相同的,通过改变在于测量过程中定位信息的方差
Figure BDA0003804890350000199
完成。
类似的,定义移动机器人位置信息的状态向量X=[x,y,δ1,δr],其中δ1、δr分别表示为与左右轮速度相关的里程计的测量误差系数。相应的其状态预测模型可以表示为:
Figure BDA00038048903500001910
其中
Figure BDA00038048903500001911
分别为k时刻里程计的测量误差系数,
Figure BDA00038048903500001912
分别为k时刻里程计的测量左右轮的角速度,r表示差分轮式移动机器人轮子的半径,θk-1为k-1时刻的航向角,
Figure BDA00038048903500001913
表示里程计的噪声误差,在实际运用过程中,摄像头的定位噪声与里程计的噪声是互不干扰的,若同时为白噪声可采用扩展卡尔曼滤波方法将摄像头获取的机器人坐标
Figure BDA0003804890350000201
和里程计预测的坐标值
Figure BDA0003804890350000202
进行融合,具体融合过程与航向角融合类似,不同的在于其中相应的雅各比矩阵以及后续的协方差矩阵的不同。
本发明采用双层视觉进行融合,在实现过程中,通过顶部与底部摄像头识别获取相应的位姿信息作为测量方程的输入,由于识别的定位特征码部位不同,摄像头的外参不同,其定位协方差参数也不同,同时在定位时间过程中采用连续的状态预测和间歇性的状态更新,以应对不连续的定位特征码的识别。本发明采用固定多点位测试方法,用于确定摄像头的定位误差参数。
实施例2
本发明提出一种基于双层视觉的移动机器人多传感器融合定位方法,发明包括:(1)采用创新性特征码实现,多角度识别定位功能,在移动机器人车顶部与底部放置摄像头,在移动机器人运动至特征码上方前,通过对固定与地面的特征码进行识别,获取移动机器人车的位姿,在移动机器人运动至特征码上方时,通过对新型特征码中部定位码进行扫描识别获取移动机器人的位姿。(2)一种基于新型特征码的双层伺服导航方式,通过双摄像头分别识别特征码,通过融合IMU、轮式里程计以及间歇性获取的视觉定位码获得高精度的定位信息。
在实现卡尔曼滤波后,通过其保存滤波数据对其进行方向平滑处理,实现数据优化,以提高移动机器人定位轨迹与实际情况的匹配度。平滑技术作为事后或准实时数据处理的一种方法,可以在一定程度上提高数据处理的精度,在测绘领域获得了广泛的应用。平滑技术总的来说分为三类:固定区间平滑、固定点平滑和固定滞后平滑。其中在数据后处理中应用最为广泛的方法就是固定区间平滑。
R-T-S算法是一种固定区间最优平滑算法,通过Rauch-Tung-Striebel平滑算法对获得的数据进行反向平滑处理,能够很好的解决因特征码识别的间歇性导致视觉定位数据不连续,进而产生定位偏移的情况,充分利用区间内所有时刻的测量值对某一时刻的状态进行估计,实现定位精度的进一步提高。反向平滑技术在卡尔曼滤波之后进行,同时利用卡尔曼滤波后的数据完成平滑,具体步骤如下:
Figure BDA0003804890350000211
Figure BDA0003804890350000212
Figure BDA0003804890350000213
其中,
Figure BDA0003804890350000214
为k+1时刻预测协方差矩阵,Qk为k时刻数据融合后的协方差矩阵,Gk为转换矩阵,
Figure BDA0003804890350000215
为第k时刻优化后的移动机器人状态向量,通过利用k+1时刻的数据进行反向平滑,对k时刻的移动机器人状态进行优化。
本发明所述基于双层视觉的移动机器人多传感器融合定位方法还可用于无人机的定点降落,用于提高无人机降落的稳定性与精确度。当无人机进行降落准备时,首先通过视觉对外部特征码进行识别,对降落点进行定位,当降落至一定高度时,能够通过视觉对中部特征码进行识别,获取更为精准的定位。由于无人机在较高的位置飞行,在降落过程中,由于飞行中的干扰,会导致降落位置的偏离,定位不精准的情况,在降落过程中需要预留较大的空间,同时利用平滑算法对定位轨迹进行处理能够获得更为精确的定位效果。
在降落过程前期,无人机与地面距离较远,视觉识别所需特征较大,采用设计的创新性特征码,识别外部特征码,同时具有抗运动模糊的特性,无人机通过识别外部定位码实现定位,在较远距离便能够更快更及时的调整姿态。当无人机进一步的降低高度,运动至距离特征码较近的距离时,外部定位码与中部定位码能够同时识别,此时能够通过融合算法对定位效果进行优化。当无人机高度进一步降低,外部定位码在摄像头的视野中以及无法完全显示,此时,外部定位码已无法识别,通过中部定位码对无人机的精确定位进行控制。值得一提的是,当识别到外部特征码时,通过基于偏差的控制算法控制无人机运动至特征码上方,确保中部定位码的识别。
实施例3
双层视觉定位方式在用于多节点需求的工业情况下,能够通过设计节点类型的方式提高移动机器人的运动效率,适用于物流仓储,高节拍工业运输的场景中。在外部特征码的识别过程中,外部特征码中的数字不仅仅能够包括定位信息,同时能够包含特征码节点信息,通过对该节点进行定义,例如快速移动节点,停止节点,转向节点等。移动机器人在运行过程中,顶部摄像头能够在未到达节点的情况下实现预知的功能,在经过快速运动节点时无需在特征码上识别等待。同时对于高精度定位节点,能够在牺牲控制时间的基础上,提供更加精确的定位效果。
根据不同的定位节点,本发明可采用如图2所示特征码,该特征码在初始基础上将外部定位码其中一个数字识别区域进行更改,将其改为更加易于识别的方格形状。
通过所采用的创新性特征码可通过自编码方式进行节点类型设定,具体可分为快速移动节点,停止节点等。具体实现过程如下,所述特征码上的外部定位码上,数字特征不仅仅能够包含所定位特征码的位置信息,同时能够对特征码进行相应的定义,实现移动机器人在不停顿的情况下,既实现了自身的定位,实现位置状态更新,又能够通过节点定义对移动机器人的控制进行预先判定。特征码的绝对位置能够通过两个数字实现,数字数量不足时通过字母进行扩充。顶部摄像头识别外部定位码过程中的已经对数字特征进行识别,定义数字识别结果分别为a、b、c。特征码对应坐标表示为:
(xtag,ytag)=(a*L,b*L)
其中,L为特征码在实际场景中的铺设间距,(xtag,ytag)表示为特征码在世界坐标系中的坐标。当实际场景中所需要的场地更加复杂时,通过数字能够实现的定位的方式仅仅能够实现10L*10L范围内的定位,通过扩展字母特征替换数字特征的方式实现定位范围的拓展,由于所采用的符号为标准字符,通过仿射变换后,在识别上难度较低,能够实现精准识别。其特征码的定位坐标计算方式与数字方案相同,但是别结果采用十进制ASCII码的方式表示。
数字识别结果c应用于特征码节点定义,识别结果通过与所预先定义的节点库进行比对,结合顶部视觉具有提前识别的特点,实现在移动机器人为到达特征码是提前获得节点信息,可应用于优化系统。剩余一个数字部分用于节点定义,当系统可以根据需求对不同节点采用不同的定位策略实现系统的优化控制。
实施例4
本发明中的基于双层视觉的多传感器融合定位方法可应用于复合机器人中。由于移动机器人的运动性能各不相同,在控制精度上也会产生一定的误差,本发明通过多传感器融合的方式实现了高精度的定位,当移动机器人的运动控制系统无法保证其运动至所需的定位精度时,通过提供定位偏差的方式进行补偿。
复合机器人通常在移动机器人的基础上添加机械臂,抓取装置等,在实际场景中,移动机器人作为运动的基础通常只需要满足运输上层结构的作用,但随着对高精度的移动需求的提高,对移动底盘的要求也在提高,相应的控制时长以及底盘结构设计的要求也相应提高,不可避免造成了成本的提升。采用双层视觉进行融合定位,能够获得高精度的定位需求,即使移动机器人无法在需求的位置达到需求的精度,依旧能够反馈定位偏差,通过误差补偿的方式将误差反馈给上层机构,通过上层机构的协调控制完成上层机构的精确操作。
以上公开的本发明优选实施例只是用于帮助阐述本发明。优选实施例并没有详尽叙述所有的细节,也不限制该发明仅为所述的具体实施方式。显然,根据本说明书的内容,可作很多的修改和变化。本说明书选取并具体描述这些实施例,是为了更好地解释本发明的原理和实际应用,从而使所属技术领域技术人员能很好地理解和利用本发明。本发明仅受权利要求书及其全部范围和等效物的限制。

Claims (10)

1.一种基于双层视觉的移动机器人多传感器融合定位方法,其特征在于,包括以下步骤:
S1、基于差分轮式移动机器人相应的系统控制量以及传感器获取的信息构建动力学模型;
S2、通过移动机器人顶部摄像头识别新型特征码中的外部定位码,在移动机器人到达新型特征码前提取获取移动机器人的位姿;
S3、采用移动机器人底部摄像头识别位于移动机器人底部的中部定位码,当移动机器人移动至新型特征码上方时,通过底部摄像识别新型特征码中的中部定位码,通过坐标转换算法能够获得定位偏差,同时通过匹配算法获得移动机器人的位姿;
S4、基于移动机器人的位姿和定位误差构建摄像头传感器测量模型,分析定位算法过程中的误差,获得移动机器人的状态向量以及与摄像头测量误差相关的协方差矩阵;
S5、通过IMU传感器作为状态预测传感器获取移动机器人的角速度,结合IMU角速度动力学模型以及差分轮动力学模型进行下一时刻移动机器人的状态预测,状态预测结果与摄像头状态向量和协方差矩阵中航向角部分进行数据融合;
S6、通过里程计获取移动机器人车轮的角速度,结合动力学模型进行下一时刻移动机器人的状态预测进行状态预测,状态预测结果与摄像头状态向量和协方差矩阵中坐标部分进行数据融合;
S7、在数据融合完成后,采用Rauch-Tung-Striebel反向平滑对获得的移动机器人的位姿数据进一步平滑处理,获得移动机器人状态的最优估计。
2.根据权利要求1所述的基于双层视觉的移动机器人多传感器融合定位方法,其特征在于,动力学模型如下:
定义移动机器人的状态向量
Figure FDA0003804890340000021
其中[x,y]表示在平面世界坐标系上移动机器人对应的位置坐标,θ为移动机器人朝向相对于世界坐标系中x轴方向的夹角,δ、
Figure FDA0003804890340000022
分别表示为受到线速度与角速度影响而产生的对应系统偏差参数;相应的动力学模型表示为:
Figure FDA0003804890340000023
其中,
Figure FDA0003804890340000024
为状态向量关于时间的导数,反应移动机器人的状态变化,相对应的
Figure FDA0003804890340000025
分别为x、y、θ的导数,ωw为轮子旋转的角速度向量定义为[ωr,ωl]T,ωr、ωl分别表示移动机器人右轮以及左轮旋转的角速度,f(X)为移动机器人的状态变化的计算函数;
根据差分轮式机器人的结构,f(X)表示为:
Figure FDA0003804890340000026
其中r表示差分轮式移动机器人轮子的半径,d表示为移动机器人两个轮子之间的距离;
传感器对移动机器人的的状态观测向量Z通过测量方程表示为:
Z=h(X)
其中X为移动机器人的状态向量,h(·)为非线性的转移矩阵,表示传感器的观测量与移动机器人状态的相对关系;
通过加入时间周期Ts对系统进行离散化,同时加入因IMU及里程计产生的系统噪声误差:
Xk+1=Xk+f(Xk)TsΔω
Zk=h(Xk)
其中Xk+1、Xk分别表示为在k+1时刻和k时刻移动机器人的状态向量,Zk表示为k时刻的状态观测向量;Δω=ωwkk,ωwk为第k时刻的车轮的转速向量,εk为第k时刻的系统噪声,通过k时刻的状态变获得k+1时刻的状态向量,Ts为两相邻时刻之间的时间间隔即k与k+1时刻的时间间隔。
3.根据权利要求1所述的基于双层视觉的移动机器人多传感器融合定位方法,其特征在于,新型特征码包括外部定位码以及中部定位码;
外部定位码采用自行编码的方式,通过识别黑白特征实现移动机器人的相对位置定位,通过识别数字实现移动机器人绝对位姿的定位;
中部定位码采用Apriltag码,其类型为36h11。
4.根据权利要求1所述的基于双层视觉的移动机器人多传感器融合定位方法,其特征在于,移动机器人顶部摄像头识别新型特征码,包括以下步骤:
首先通过顶部摄像头获取移动机器人前方新型特征码的图像,通过视觉处理对图像进行特征提取,通过逐行扫描的方式将获取的数据进行识别,外部特征码具有识别的图案;
其次,通过识别的定位进行仿射变换,将特征码转换为正对摄像头状态,同时提取特征码中数字部分进行识别,识别结果表示为定位特征码在世界坐标系上的绝对位置;
最后,通过偏差以及特征码的在世界坐标系上的绝对位置计算得到移动机器人的位姿,具体计算方式如下:
摄像头识别特征码后,获得特征码中心点在图像坐标系上的坐标(u,v),计算摄像头的相对位姿:
Figure FDA0003804890340000043
其中,xc、yc为特征码中心在相对于摄像头中心的坐标,zc表示为特征码中心在光轴方向上与摄像头中心的距离,fx、fy、u0、v0为通过摄像头内部标定获取的参数,u、v表示某一确定点在图像上的坐标;
通过获得摄像头的定位根据摄像头在移动机器人上的安装位置,获得移动机器人的位姿:
Figure FDA0003804890340000041
其中R为3x3的旋转矩阵,M表示坐标的平移关系,通过变换矩阵获得移动机器人在世界坐标系上的位置。
5.根据权利要求1所述的基于双层视觉的移动机器人多传感器融合定位方法,其特征在于,定位偏差表示为:
Figure FDA0003804890340000042
其中Δxb、Δyb为底部摄像头图像坐标系中中部定位码与图像中心的偏差,fx、fy、u0、v0为摄像头内部参数,zc表示摄像头光轴方向上摄像头中心与地面的距离。
6.据权利要求1所述的基于双层视觉的移动机器人多传感器融合定位方法,其特征在于,步骤S4具体包括以下步骤:
通过摄像头获得的摄像头位置与特征码中心的相对距离Δx、Δy和相对角度Δθ,移动机器人的状态向量为其在世界坐标系上的坐标以及航向角,为实现由相对距离到状态向量的转换,构建摄像头传感器测量模型:
Figure FDA0003804890340000051
其中
Figure FDA0003804890340000052
为摄像头的状态测量向量,hc(Xk)摄像头的状态转移函数,Δxc、Δyc、Δθc分别为移动机器人与特征码中心的偏移量,xq、yq为特征码中心在世界坐标系上的坐标,xk、yk为移动机器人的坐标,θk为移动机器人的航向角,
Figure FDA0003804890340000053
Figure FDA0003804890340000054
为摄像头与移动机器人中心的固定安装距离;上述过程中并不考虑摄像头在识别定位过程中的误差,在实际情况为实现精确定位,需要加入相应的误差项,因此,摄像头识别到特征码时其相应的测量方程表示为:
Figure FDA0003804890340000055
其中
Figure FDA0003804890340000056
为通过摄像头获得的测量值,其包含摄像头的测量误差,Δxk c、Δyk c、Δθk c分别为Δxc、Δyc、Δθk通过摄像头获得的测量值,
Figure FDA0003804890340000057
为在第k时刻的测量不确定度,
Figure FDA0003804890340000058
分别为x、y、θ关于自身的不确定度,不确定度通过在固定点进行多次定位获得。
7.根据权利要求1所述的基于双层视觉的移动机器人多传感器融合定位方法,其特征在于,步骤S5具体包括以下步骤:
定义移动机器人角度状态向量Xθ=[θg,ug],其中θg为IMU测量获得的角度,ug为IMU测量获得的角度与角速度相关测量误差系数,每次传感器测量时间间隔Ts,则传感器角度测量模型表示为:
Figure FDA0003804890340000061
Figure FDA0003804890340000062
其中
Figure FDA0003804890340000063
为关于航向角的状态向量,下标k为k时刻时的变量值,类似的下标k-1为k-1时刻,
Figure FDA0003804890340000064
表示k时刻时IMU测量获得的角度,
Figure FDA0003804890340000065
表示k时刻时IMU测量获得的角度与角速度相关测量误差系数,ωk为k时刻移动机器人的角速度,
Figure FDA0003804890340000066
表示为IMU产生的噪声误差,
Figure FDA0003804890340000067
为测量状态向量,
Figure FDA0003804890340000068
为状态转移函数,顶部摄像头与底部摄像头完成特征识别定位后,获取的观测量为相对新型特征码的角度偏移量Δθc,即
Figure FDA0003804890340000069
其中θtag为特征码的安装角度;
相应的测量方程表示为:
Figure FDA00038048903400000610
其中
Figure FDA00038048903400000611
为观测的真实值,
Figure FDA00038048903400000612
表示传感器测量值,
Figure FDA00038048903400000613
为视觉识别的获得移动机器人与特征码的角度偏差,
Figure FDA00038048903400000614
表示为摄像头的测量误差,如果
Figure FDA00038048903400000615
与ug为白噪声且相互之间互不影响,则通过扩展卡尔曼滤波进行融合;
预测阶段表示为:
Figure FDA00038048903400000616
Figure FDA00038048903400000617
其中,
Figure FDA0003804890340000071
为预测阶段移动机器人的状态预测值,
Figure FDA0003804890340000072
为预测阶段的协方差矩阵,
Figure FDA0003804890340000073
为k-1时刻的最佳状态估计值,
Figure FDA0003804890340000074
是k时刻到k+1时刻的变换矩阵,
Figure FDA0003804890340000075
为IMU测量获取的在第k时刻的角速度,
Figure FDA0003804890340000076
Figure FDA0003804890340000077
分别是根据测量方程关于状态向量X和角速度ω的雅可比矩阵,Qk-1为上一时刻的协方差矩阵,
Figure FDA0003804890340000078
为IMU在的噪声方差;当摄像头未识别到特征码时,无法获取观测值,将预测结果中的状态向量和协方差矩阵作为当前时刻的最优估计;
若摄像头识别特征码即存在观测值,则更新动机器人的状态,更新过程亦是融合过程:
Figure FDA0003804890340000079
Figure FDA00038048903400000710
Figure FDA00038048903400000711
其中I为单位矩阵,F为系统的输出矩阵,在此处F=[-1,0],
Figure FDA00038048903400000712
为扩展卡尔曼滤波增益,用于确定更新时传感器测量值的权重,通过上式实现扩展卡尔曼滤波数据融合并获得优化后的航向角,顶部摄像头与底部摄像头在更新过程是相同的,通过改变在于测量过程中定位信息的方差
Figure FDA00038048903400000713
完成。
8.根据权利要求1所述的基于双层视觉的移动机器人多传感器融合定位方法,其特征在于,步骤S6具体包括以下步骤:
定义移动机器人位置信息的状态向量X=[x,y,δ1,δr],其中x,y表示在平面世界坐标系上移动机器人对应的位置坐标,δ1、δr分别表示为与左右轮速度相关的里程计的测量误差系数,相应的其状态预测模型表示为:
Figure FDA0003804890340000081
其中xk、yk表示k时刻在平面世界坐标系上移动机器人对应的位置坐标,
Figure FDA0003804890340000082
Figure FDA0003804890340000083
分别为k时刻里程计的测量误差系数,
Figure FDA0003804890340000084
分别为k时刻里程计的测量左右轮的角速度,
Figure FDA0003804890340000085
表示里程计的噪声误差,r表示差分轮式移动机器人轮子的半径,θk-1为k-1时刻的航向角。
9.根据权利要求1所述的基于双层视觉的移动机器人多传感器融合定位方法,其特征在于,Rauch-Tung-Striebel反向平滑具体如下:
Figure FDA0003804890340000086
Figure FDA0003804890340000087
Figure FDA0003804890340000088
其中,
Figure FDA0003804890340000089
为k+1时刻预测协方差矩阵,Qk为k时刻数据融合后的协方差矩阵,Gk为转换矩阵,
Figure FDA00038048903400000810
为第k时刻优化后的移动机器人状态向量,通过利用k+1时刻的数据进行反向平滑,对k时刻的移动机器人状态进行优化,Mk、Nk分别是第k时刻根据测量方程关于状态向量X和角速度ω的雅可比矩阵,
Figure FDA00038048903400000811
为第k时刻IMU在的噪声方差,
Figure FDA00038048903400000812
为k时刻的最佳状态估计值。
10.根据权利要求2所述的基于双层视觉的移动机器人多传感器融合定位方法,其特征在于,所述特征码上的外部定位码上包括数字特征,特征码的绝对位置通过两个数字,其中定义数字识别结果分别为a、b、c,特征码对应坐标表示为:
(xtag,ytag)=(a*L,b*L)
其中,L为特征码在实际场景中的铺设间距,(xtag,ytag)为特征码在世界坐标系中的坐标,识别结果c并不用于定位,在实际场景中应用于特征码节点定义。
CN202210995947.5A 2022-08-18 2022-08-18 一种基于双层视觉的移动机器人多传感器融合定位方法 Pending CN115326053A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210995947.5A CN115326053A (zh) 2022-08-18 2022-08-18 一种基于双层视觉的移动机器人多传感器融合定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210995947.5A CN115326053A (zh) 2022-08-18 2022-08-18 一种基于双层视觉的移动机器人多传感器融合定位方法

Publications (1)

Publication Number Publication Date
CN115326053A true CN115326053A (zh) 2022-11-11

Family

ID=83925828

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210995947.5A Pending CN115326053A (zh) 2022-08-18 2022-08-18 一种基于双层视觉的移动机器人多传感器融合定位方法

Country Status (1)

Country Link
CN (1) CN115326053A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115542362A (zh) * 2022-12-01 2022-12-30 成都信息工程大学 电力作业现场的高精度空间定位方法、系统、设备及介质
CN116309885A (zh) * 2023-05-24 2023-06-23 同致电子科技(厦门)有限公司 一种基于视觉里程计的车载摄像头在线标定方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115542362A (zh) * 2022-12-01 2022-12-30 成都信息工程大学 电力作业现场的高精度空间定位方法、系统、设备及介质
CN116309885A (zh) * 2023-05-24 2023-06-23 同致电子科技(厦门)有限公司 一种基于视觉里程计的车载摄像头在线标定方法
CN116309885B (zh) * 2023-05-24 2023-09-01 同致电子科技(厦门)有限公司 一种基于视觉里程计的车载摄像头在线标定方法

Similar Documents

Publication Publication Date Title
CN109709801B (zh) 一种基于激光雷达的室内无人机定位系统及方法
CN112347840B (zh) 视觉传感器激光雷达融合无人机定位与建图装置和方法
CN115326053A (zh) 一种基于双层视觉的移动机器人多传感器融合定位方法
CN110116407B (zh) 柔性机器人位姿测量方法及装置
CN109885049B (zh) 一种基于航位推算的激光导引agv自动建图和路径匹配方法
CN113781582B (zh) 基于激光雷达和惯导联合标定的同步定位与地图创建方法
CN110411462B (zh) 一种gnss/惯导/车道线约束/里程计多源融合方法
CN113311411B (zh) 一种用于移动机器人的激光雷达点云运动畸变校正方法
CN112183133B (zh) 一种基于ArUco码引导的移动机器人自主充电方法
CN111044073B (zh) 基于双目激光高精度agv位置感知方法
CN111426320B (zh) 一种基于图像匹配/惯导/里程计的车辆自主导航方法
CN111123925A (zh) 一种移动机器人导航系统以及方法
CN111813113B (zh) 仿生视觉自运动感知地图绘制方法、存储介质及设备
CN114018248B (zh) 一种融合码盘和激光雷达的里程计方法与建图方法
CN110702091A (zh) 一种沿地铁轨道移动机器人的高精度定位方法
Bischoff et al. Fusing vision and odometry for accurate indoor robot localization
CN107219542B (zh) 基于gnss/odo的机器人双轮差速定位方法
CN112254729A (zh) 一种基于多传感器融合的移动机器人定位方法
CN114526745A (zh) 一种紧耦合激光雷达和惯性里程计的建图方法及系统
CN110926485A (zh) 一种基于直线特征的移动机器人定位方法及系统
CN115407357A (zh) 基于大场景的低线束激光雷达-imu-rtk定位建图算法
Zhou et al. An EKF-based multiple data fusion for mobile robot indoor localization
CN116358547B (zh) 一种基于光流估计获取agv位置的方法
CN115103299B (zh) 一种基于rfid的多传感器融合定位方法
CN114777775A (zh) 一种多传感器融合的定位方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination