CN111552293A - 一种视野约束下基于图像的移动机器人编队控制方法 - Google Patents

一种视野约束下基于图像的移动机器人编队控制方法 Download PDF

Info

Publication number
CN111552293A
CN111552293A CN202010400932.0A CN202010400932A CN111552293A CN 111552293 A CN111552293 A CN 111552293A CN 202010400932 A CN202010400932 A CN 202010400932A CN 111552293 A CN111552293 A CN 111552293A
Authority
CN
China
Prior art keywords
follower
pilot
image
navigator
relative
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010400932.0A
Other languages
English (en)
Other versions
CN111552293B (zh
Inventor
缪志强
林杰
王耀南
钟杭
张辉
刘理
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan University
Original Assignee
Hunan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan University filed Critical Hunan University
Priority to CN202010400932.0A priority Critical patent/CN111552293B/zh
Publication of CN111552293A publication Critical patent/CN111552293A/zh
Application granted granted Critical
Publication of CN111552293B publication Critical patent/CN111552293B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0287Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
    • G05D1/0291Fleet control
    • G05D1/0295Fleet control by at least one leading vehicle of the fleet

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)

Abstract

本发明公开了一种视野约束下基于图像的移动机器人编队控制方法,包括以下步骤:S1、建立领航者‑跟随者系统框架,并利用领航者‑跟随者系统框架对领航者和跟随者之间的相对运动学建模,得到在归一化图像空间中领航者和跟随者的相对视觉运动学;S2、定义基于归一化图像空间的具有预定性能规范以及视野约束的误差变换;S3、设计一种参数自适应估计律用于在线估计跟随者机载单目相机光学中心与领航者身上单个特征点之间的相对高度倒数;S4、解算出跟随者所需要的角速度和线速度,进而完成跟随者对领航者的跟踪。通过参数自适应估计律和具有预定性能规范以及视野约束的性能函数定义误差变换,具有计算简便、视场约束有效和瞬态、稳态性能良好的优点。

Description

一种视野约束下基于图像的移动机器人编队控制方法
技术领域
本发明属于移动机器人编队控制技术领域,具体涉及一种视野约束下基于图像的移动机器人编队控制方法。
背景技术
多移动机器人编队控制在处理复杂任务时,常常表现出高效率,强鲁棒性与安全性等特点,被广泛应用于工业生产、地形探测和灾难应对等领域。多移动机器人编队控制策略主要分为四类:领航者-跟随者方法,基于行为的方法,虚拟结构方法和滚动时域控制(或模型预测控制)方法。其中,领航者-跟随者方法因为其实现的简单性和应用的可伸缩性,被广为关注。但是,在领航者-跟随者编队控制中的大多数先前工作都假定每个机器人的全局位置信息是已知的,并且机器人之间的通信可用。在GPS受限和通信退化的环境中,编队控制问题变得更具挑战,期望扩大应用范围并改善机器人编队的自主性。与其他传统传感器相比,视觉相机可以以较低的成本提供更丰富的信息,从而使视觉相机在仅使用机载感应器的编队控制中被作为一个非常受欢迎的感应器选择。
各种基于视觉的领航者-跟随者编队控制方法可以归纳为两种类型:基于位置的视觉伺服(PBVS)和基于图像的视觉伺服(IBVS)。在PBVS方法中,利用车载视觉信息重建领航者与追随者之间的相对姿态。与PBVS方法相比,IBVS方法通过直接控制当前图像坐标和期望图像坐标的误差来实现对领航者期望姿势的跟踪。因此,IBVS方法更适用于移动机器人的编队控制,因为它对相机校准和对象模型错误不太敏感。但是基于视觉的控制方法存在机载摄像机固有的有限视野的问题,这对系统的控制施加了额外的视野约束。
发明内容
本发明的目的在于提供一种视野约束下基于图像的移动机器人编队控制方法,其不需要估计领航者与跟随者之间的相对角度、位置以及领航者的角速度和线速度,并且所提出的参数自适应估计律的计算复杂度非常低,计算简便。
本发明的目的通过以下技术方案实现:提供一种视野约束下基于图像的移动机器人编队控制方法,包括以下步骤:
S1、建立领航者-跟随者系统框架,并利用领航者-跟随者系统框架对领航者和跟随者之间的相对运动学建模,得到在归一化图像空间中领航者和跟随者的相对视觉运动学;
S2、定义基于归一化图像空间的具有预定性能规范以及视野约束的误差变换;
S3、设计一种参数自适应估计律用于在线估计跟随者机载单目相机光学中心与领航者身上单个特征点之间的相对高度倒数;
S4、解算出跟随者所需要的角速度和线速度,进而完成跟随者对领航者的跟踪。
作为进一步的改进,所述步骤S1具体包括以下内容:
S11、建立领航者-跟随者框架,将领航者相对于跟随者框架的位置定义为:
Figure BDA0002489443640000021
式中,rlf=[xlf,ylf]T为领航者相对于跟随者的位置,xlf和ylf分别表示相对位置的横坐标和纵坐标,T表示矩阵转置,在世界坐标系内rl为领航者的位置,rf为跟随者的位置,θf为跟随者的方位;
S12、对公式(1)求一阶微分得到领航者相对于跟随者的速度为:
Figure BDA0002489443640000031
式中,
Figure BDA0002489443640000032
为xlf的一阶微分,
Figure BDA0002489443640000033
为ylf的一阶微分,ωf为跟随者的角速度,vl为领航者的线速度,vf为跟随者的线速度,ωl为领航者的角速度,θlf表示领航者和跟随者之间的相对角度,
Figure BDA0002489443640000034
为θlf的一阶微分,其中:
θlf=θlf (3)
式中,θl表示领航者的方位;
S13、领航者身上单个特征点在跟随者机载单目相机框架中的归一化坐标定义为:
Figure BDA0002489443640000035
式中,P=[X,Y,Z]T为领航者身上单个特征点相对于跟随者机载单目相机框架中的三维位置坐标,T表示矩阵转置,p和q分别表示特征点在归一化图像空间的横坐标和纵坐标;
S14、归一化图像空间中领航者和跟随者的相对视觉运动学为:
Figure BDA0002489443640000036
式中,
Figure BDA0002489443640000037
为p的一阶微分,
Figure BDA0002489443640000038
为q的一阶微分,h为跟随者机载单目相机的光学中心与领航者身上单个特征点之间的相对高度,且
Figure BDA0002489443640000039
为s=[p,q]T的一阶微分,s=[p,q]T为归一化图像坐标。
作为进一步的改进,所述步骤S2中误差变换ε的计算过程如下:
S21、输入领航者的特征点在跟随者机载单目相机框架中的期望恒定视觉特征向量s*=[p*,q*]T,其中,p*和q*分别表示特征点在归一化图像空间期望的横坐标和纵坐标;
S22、利用霍夫圆检测技术实时获取领航者身上单个特征点在跟随者机载单目相机框架中的图像平面坐标[m,n]T,则归一化图像坐标s=[p,q]T和图像平面坐标[m,n]T的关系如下所示:
Figure BDA0002489443640000041
其中,am、an分别为图像在水平方向和垂直方向上的尺度因子,且am>0,an>0,[m0,n0]T是图像平面的主点坐标,m0、n0分别为图像平面主点的横坐标和纵坐标,m、n分别为特征点在图像空间的横坐标和纵坐标;
S23、令图像误差向量为e=[e1,e2]T,实时测量跟随者机载单目相机框架中的归一化图像坐标s=[p,q]T与期望恒定视觉特征向量s*=[p*,q*]T的误差,其中:
e=[e1,e2]T=[p-p*,q-q*]T (7)
S24、用性能函数ρk定义图像误差向量e中的图像误差ek的边界:
Figure BDA0002489443640000042
其中,Ck
Figure BDA0002489443640000043
为正参数,k={1,2},且性能函数ρk由下式定义:
Figure BDA0002489443640000044
式中,ρ>0表示最终误差界参数,e-lt为关于参数l>0的指数衰减函数;
S25:定义具有预定性能规范以及视野约束的误差变换εk
Figure BDA0002489443640000045
其中,ξk=ekk,k={1,2}。
作为进一步的改进,所述步骤S3的具体内容为:
S31、对公式(7)中图像误差向量e求一阶微分式:
Figure BDA0002489443640000051
其中,λ=1/h,G表示矩阵,f表示向量,且G和f的表达式分别为:
Figure BDA0002489443640000052
Figure BDA0002489443640000053
S32、误差变换向量ε=[ε12]T的一阶微分式为:
Figure BDA0002489443640000054
其中,J表示,δ表示,且
Figure BDA0002489443640000055
Figure BDA0002489443640000056
被定义为:
Figure BDA0002489443640000057
Figure BDA0002489443640000058
式(15)和(16)中
Figure BDA0002489443640000059
为ρk的一阶微分;
S33、对于h的估计,间接用
Figure BDA00024894436400000510
估计λ=1/h,参数自适应估计律为:
Figure BDA00024894436400000511
其中,
Figure BDA00024894436400000512
Figure BDA00024894436400000513
的一阶微分,εT为ε的转置矩阵,sgn(h)为关于参数h的符号函数,|h|的上下限定义为
Figure BDA00024894436400000514
上限
Figure BDA00024894436400000515
下限h均为正参数,g=[pq,q2]T,γ为正参数。
作为进一步的改进,所述步骤S4具体包括以下步骤:
S41、为了使跟随者跟踪领航者,定义
Figure BDA0002489443640000061
如下:
Figure BDA0002489443640000062
式中,
Figure BDA0002489443640000063
表示vf的平均值,
Figure BDA0002489443640000064
表示ωf的平均值,T表示矩阵转置,T表示矩阵转置,K1、K2分别为正定矩阵;
S42、为了使跟随者跟踪领航者,令跟随者的角速度和线速度输入如下:
Figure BDA0002489443640000065
S43、通过公式(19)解算出跟随者所需要的角速度和线速度。
与现有技术相比,本发明具有以下有益效果:
1)所设计的解决方案只需要最小的感测功能,因为它仅依赖与跟随者身上的一台单目摄像机和与领航者相连的一个特征点。
2)设计的编队控制方法不需要估计领航者与跟随者之间的相对角度、位置以及领航者的速度,计算简便。
3)直接在图像空间中处理视野约束,选择具有预定性能规范以及视野约束的性能函数定义误差变换,所提出的策略可确保图像误差在指定的瞬态和稳态性能指标下收敛,并且不会违反视野约束。
附图说明
利用附图对本发明作进一步说明,但附图中的实施例不构成对本发明的任何限制,对于本领域的普通技术人员,在不付出创造性劳动的前提下,还可以根据以下附图获得其它的附图。
图1为本发明实施例提供的一种视野约束下基于图像的移动机器人编队控制方法的流程图。
图2为本发明实施例提供的一种视野约束下基于图像的移动机器人编队控制方法的原理图。
图3为本发明实施例的领航者-跟随者系统框架示意图。
图4为本发明实施例的领航者和跟随者在仿真中的关系拓扑示意图。
图5为本发明实施例的领航者和跟随者在仿真中的编队过程轨迹示意图。
图6为本发明实施例的领航者和跟随者在仿真中的编队误差收敛示意图。
图7为本发明实施例的领航者和跟随者在仿真中的相对高度倒数估计示意图。
图8为本发明实施例的机器人R2在仿真中的归一化图像误差
Figure BDA0002489443640000071
收敛过程示意图。
图9为本发明实施例的机器人R2在仿真中的归一化图像误差
Figure BDA0002489443640000072
收敛过程示意图。
图10为本发明实施例的机器人R3在仿真中的归一化图像误差
Figure BDA0002489443640000073
收敛过程示意图。
图11为本发明实施例的机器人R3在仿真中的归一化图像误差
Figure BDA0002489443640000074
收敛过程示意图。
图12为本发明实施例的机器人R4在仿真中的归一化图像误差
Figure BDA0002489443640000075
收敛过程示意图。
图13为本发明实施例的机器人R4在仿真中的归一化图像误差
Figure BDA0002489443640000076
收敛过程示意图。
图14为本发明实施例的机器人R5在仿真中的归一化图像误差
Figure BDA0002489443640000077
收敛过程示意图。
图15为本发明实施例的机器人R5在仿真中的归一化图像误差
Figure BDA0002489443640000078
收敛过程示意图。
具体实施方式
为了使本领域的技术人员更好地理解本发明的技术方案,下面结合附图和具体实施例对本发明作进一步详细的描述,需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
图1为本发明实施例提供的一种视野约束下基于图像的移动机器人编队控制方法的流程图。图2为本发明实施例提供的一种视野约束下基于图像的移动机器人编队控制方法的原理图。参见图1和图2,本发明提供了一种视野约束下基于图像的移动机器人编队控制方法,包括以下步骤:
S1、建立领航者-跟随者系统框架,并利用领航者-跟随者系统框架对领航者和跟随者之间的相对运动学建模,得到在归一化图像空间中领航者和跟随者的相对视觉运动学,图3即为本发明实施例的领航者-跟随者系统框架示意图;
优选地,该步骤S1具体包括以下内容:
S11、建立领航者-跟随者框架,将领航者相对于跟随者框架的位置定义为:
Figure BDA0002489443640000081
式中,rlf=[xlf,ylf]T为领航者相对于跟随者的位置,xlf和ylf分别表示相对位置的横坐标和纵坐标,T表示矩阵转置,在世界坐标系内rl为领航者的位置,rf为跟随者的位置,θf为跟随者的方位;
S12、对公式(1)求一阶微分得到领航者相对于跟随者的速度为:
Figure BDA0002489443640000082
式中,
Figure BDA0002489443640000083
为xlf的一阶微分,
Figure BDA0002489443640000084
为ylf的一阶微分,ωf为跟随者的角速度,vl为领航者的线速度,vf为跟随者的线速度,ωl为领航者的角速度,θlf表示领航者和跟随者之间的相对角度,
Figure BDA0002489443640000085
为θlf的一阶微分,其中:
θlf=θlf (3)
式中,θl表示领航者的方位;
S13、领航者身上单个特征点在跟随者机载单目相机框架中的归一化坐标定义为:
Figure BDA0002489443640000091
式中,P=[X,Y,Z]T为领航者身上单个特征点相对于跟随者机载单目相机框架中的三维位置坐标,T表示矩阵转置,p和q分别表示特征点在归一化图像空间的横坐标和纵坐标;
S14、归一化图像空间中领航者和跟随者的相对视觉运动学为:
Figure BDA0002489443640000092
式中,
Figure BDA0002489443640000093
为p的一阶微分,
Figure BDA0002489443640000094
为q的一阶微分,h为跟随者机载单目相机的光学中心与领航者身上单个特征点之间的相对高度,且
Figure BDA0002489443640000095
Figure BDA0002489443640000096
为s=[p,q]T的一阶微分,s=[p,q]T为归一化图像坐标;
S2、定义基于归一化图像空间的具有预定性能规范以及视野约束的误差变换ε;需要说明的是误差变换ε的具体计算过程如下:
S21、输入领航者的特征点在跟随者机载单目相机框架中的期望恒定视觉特征向量s*=[p*,q*]T,其中,p*和q*分别表示特征点在归一化图像空间期望的横坐标和纵坐标;
S22、利用霍夫圆检测技术实时获取领航者身上单个特征点在跟随者机载单目相机框架中的图像平面坐标[m,n]T,则归一化图像坐标s=[p,q]T和图像平面坐标[m,n]T的关系如下所示:
Figure BDA0002489443640000101
其中,am、an分别为图像在水平方向和垂直方向上的尺度因子,且am>0,an>0,[m0,n0]T是图像平面的主点坐标,m0、n0分别为图像平面主点的横坐标和纵坐标,m、n分别为特征点在图像空间的横坐标和纵坐标;
S23、令图像误差向量为e=[e1,e2]T,实时测量跟随者机载单目相机框架中的归一化图像坐标s=[p,q]T与期望恒定视觉特征向量s*=[p*,q*]T的误差,其中:
e=[e1,e2]T=[p-p*,q-q*]T (7)
S24、用性能函数ρk定义图像误差向量e中的图像误差ek的边界:
Figure BDA0002489443640000102
其中,C k
Figure BDA0002489443640000103
为正参数,k={1,2},且性能函数ρk由下式定义:
Figure BDA0002489443640000104
式中,ρ>0表示最终误差界参数,e-lt为关于参数l>0的指数衰减函数;
S25:定义具有预定性能规范以及视野约束的误差变换εk
Figure BDA0002489443640000105
其中,ξk=ekk,k={1,2}。
S3、设计一种参数自适应估计律用于在线估计跟随者机载单目相机光学中心与领航者身上单个特征点之间的相对高度倒数;
优选地,步骤S3具体表现为:
S31、对公式(7)中图像误差向量e求一阶微分式:
Figure BDA0002489443640000111
其中,λ=1/h,G表示矩阵,f表示向量,且G和f的表达式分别为:
Figure BDA0002489443640000112
Figure BDA0002489443640000113
S32、误差变换向量ε=[ε12]T的一阶微分式为:
Figure BDA0002489443640000114
其中,
Figure BDA0002489443640000115
Figure BDA0002489443640000116
被定义为:
Figure BDA0002489443640000117
Figure BDA0002489443640000118
式(15)和(16)中
Figure BDA0002489443640000119
为ρk的一阶微分;
S33、对于h的估计,间接用
Figure BDA00024894436400001110
估计λ=1/h,参数自适应估计律为:
Figure BDA00024894436400001111
其中,
Figure BDA00024894436400001112
Figure BDA00024894436400001113
的一阶微分,εT为ε的转置矩阵,sgn(h)为关于参数h的符号函数,|h|的上下限定义为
Figure BDA00024894436400001114
上限
Figure BDA00024894436400001115
下限h均为正参数,g=[pq,q2]T,γ为正参数。
S4、解算出跟随者所需要的角速度和线速度,进而完成跟随者对领航者的跟踪。需要说明的是,上述步骤所述步骤S4具体包括以下步骤:
S41、为了使跟随者跟踪领航者,定义
Figure BDA0002489443640000121
如下:
Figure BDA0002489443640000122
式中,
Figure BDA0002489443640000123
表示vf的平均值,
Figure BDA0002489443640000124
表示ωf的平均值,T表示矩阵转置,T表示矩阵转置,K1、K2分别为正定矩阵;
S42、为了使跟随者跟踪领航者,令跟随者的角速度和线速度输入如下:
Figure BDA0002489443640000125
S43、通过公式(19)解算出跟随者所需要的角速度和线速度。
参见图4,本发明实施例中移动机器人编队有五个非完整的移动机器人R1、R2、R3、R4和R5,设定跟随者Ri(i∈{2,3,4,5})上的摄像头和领航者Rj(j∈{1,2,3})上的特征点之间的相对高度分别为是h12=h13=-0.27,h24=h35=0.27,单目相机的固有参数为:m0=320像素,n0=240像素,am=an=616像素,R1-R2、R2-R4、R1-R3、R3-R5的所需相对位置矢量分别设置为rd12=rd24=[0.8,-0.2]T,rd13=rd35=[0.8,0.2]T,每个跟随机器人的期望标准化坐标为
Figure BDA0002489443640000126
Figure BDA0002489443640000127
领航者R1的线速度和角速度为v1=1和ω1=0,跟随者控制器增益设置为K1i=diag(0.05,0.08)和K2i=diag(0.005,0.002),并给出观察者增益由γi=0.5,其中(i=2,…,5);在性能函数中,最大允许稳态误差设置为ρ=0.0081(5个像素),收敛速度设置为l=2,通过上述进行仿真实验。
图5显示了整个编队形成的轨迹,其中每2秒提供一次当前机器人的位置,从图中看出所需的V编队在大约2秒时实现。在图6中,编队误差被定义为
Figure BDA0002489443640000128
其中rij
Figure BDA0002489443640000129
分别是领航者Ri和跟随者Rj之间的实际和期望相对位置,可以看出,所有跟随者的编队误差迅速接近零。在图7中,尽管使用了非常粗糙的初始值,但仍可以确保所有估计值都保持有界。在图8-图15中
Figure BDA0002489443640000131
表示第i个跟随者Ri的归一化图像特征误差,从图中可以看出所有的归一化图像特征误差不仅收敛迅速,而且保留在预定的性能范围内,因此始终满足摄像机视野的约束。通过前述方法,归一化特征误差达到了约0.005(3像素)的满意的稳态性能,具有视场约束的有效性和良好的瞬态、稳态性能。
上面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用其他不同于在此描述的其他方式来实施,因此,不能理解为对本发明保护范围的限制。
总之,本发明虽然列举了上述优选实施方式,但是应该说明,虽然本领域的技术人员可以进行各种变化和改型,除非这样的变化和改型偏离了本发明的范围,否则都应该包括在本发明的保护范围内。

Claims (5)

1.一种视野约束下基于图像的移动机器人编队控制方法,其特征在于,包括以下步骤:
S1、建立领航者-跟随者系统框架,并利用领航者-跟随者系统框架对领航者和跟随者之间的相对运动学建模,得到在归一化图像空间中领航者和跟随者的相对视觉运动学;
S2、定义基于归一化图像空间的具有预定性能规范以及视野约束的误差变换;
S3、设计一种参数自适应估计律用于在线估计跟随者机载单目相机光学中心与领航者身上单个特征点之间的相对高度倒数;
S4、解算出跟随者所需要的角速度和线速度,进而完成跟随者对领航者的跟踪。
2.根据权利要求1所述的视野约束下基于图像的移动机器人编队控制方法,其特征在于,所述步骤S1具体包括以下内容:
S11、建立领航者-跟随者框架,将领航者相对于跟随者框架的位置定义为:
Figure FDA0002489443630000011
式中,rlf=[xlf,ylf]T为领航者相对于跟随者的位置,xlf和ylf分别表示相对位置的横坐标和纵坐标,T表示矩阵转置,在世界坐标系内rl为领航者的位置,rf为跟随者的位置,θf为跟随者的方位;
S12、对公式(1)求一阶微分得到领航者相对于跟随者的速度为:
Figure FDA0002489443630000012
式中,
Figure FDA0002489443630000013
为xlf的一阶微分,
Figure FDA0002489443630000014
为ylf的一阶微分,ωf为跟随者的角速度,vl为领航者的线速度,vf为跟随者的线速度,ωl为领航者的角速度,θlf表示领航者和跟随者之间的相对角度,
Figure FDA0002489443630000021
为θlf的一阶微分,其中:
θlf=θlf (3)
式中,θl表示领航者的方位;
S13、领航者身上单个特征点在跟随者机载单目相机框架中的归一化坐标定义为:
Figure FDA0002489443630000022
式中,P=[X,Y,Z]T为领航者身上单个特征点相对于跟随者机载单目相机框架中的三维位置坐标,T表示矩阵转置,p和q分别表示特征点在归一化图像空间的横坐标和纵坐标;
S14、归一化图像空间中领航者和跟随者的相对视觉运动学为:
Figure FDA0002489443630000023
式中,
Figure FDA0002489443630000024
为p的一阶微分,
Figure FDA0002489443630000025
为q的一阶微分,h为跟随者机载单目相机的光学中心与领航者身上单个特征点之间的相对高度,且
Figure FDA0002489443630000026
Figure FDA0002489443630000027
为s=[p,q]T的一阶微分,s=[p,q]T为归一化图像坐标。
3.根据权利要求2所述的视野约束下基于图像的移动机器人编队控制方法,其特征在于,所述步骤S2中误差变换的计算过程如下:
S21、输入领航者的特征点在跟随者机载单目相机框架中的期望恒定视觉特征向量s*=[p*,q*]T,其中,p*和q*分别表示特征点在归一化图像空间期望的横坐标和纵坐标;
S22、利用霍夫圆检测技术实时获取领航者身上单个特征点在跟随者机载单目相机框架中的图像平面坐标[m,n]T,则归一化图像坐标s=[p,q]T和图像平面坐标[m,n]T的关系如下所示:
Figure FDA0002489443630000031
其中,am、an分别为图像在水平方向和垂直方向上的尺度因子,且am>0,an>0,[m0,n0]T是图像平面的主点坐标,m0、n0分别为图像平面主点的横坐标和纵坐标,m、n分别为特征点在图像空间的横坐标和纵坐标;
S23、令图像误差向量为e=[e1,e2]T,实时测量跟随者机载单目相机框架中的归一化图像坐标s=[p,q]T与期望恒定视觉特征向量s*=[p*,q*]T的误差,其中:
e=[e1,e2]T=[p-p*,q-q*]T (7)
S24、用性能函数ρk定义图像误差向量e中的图像误差ek的边界:
Figure FDA0002489443630000032
其中,Ck
Figure FDA0002489443630000033
为正参数,k={1,2},且性能函数ρk由下式定义:
Figure FDA0002489443630000034
式中,ρ>0表示最终误差界参数,e-lt为关于参数l>0的指数衰减函数;
S25:定义具有预定性能规范以及视野约束的误差变换εk
Figure FDA0002489443630000035
其中,ξk=ekk,k={1,2}。
4.根据权利要求3所述的视野约束下基于图像的移动机器人编队控制方法,其特征在于,所述步骤S3的具体内容为:
S31、对公式(7)中图像误差向量e求一阶微分式:
Figure FDA0002489443630000041
其中,λ=1/h,G表示矩阵,f表示向量,且G和f的表达式分别为:
Figure FDA0002489443630000042
Figure FDA0002489443630000043
S32、误差变换向量ε=[ε12]T的一阶微分式为:
Figure FDA0002489443630000044
其中
Figure FDA0002489443630000045
Figure FDA0002489443630000046
被定义为:
Figure FDA0002489443630000047
Figure FDA0002489443630000048
式(15)和(16)中
Figure FDA0002489443630000049
为ρk的一阶微分;
S33、对于h的估计,间接用
Figure FDA00024894436300000410
估计λ=1/h,参数自适应估计律为:
Figure FDA00024894436300000411
其中,
Figure FDA00024894436300000412
Figure FDA00024894436300000413
的一阶微分,εT为ε的转置矩阵,sgn(h)为关于参数h的符号函数,|h|的上下限定义为
Figure FDA00024894436300000414
上限
Figure FDA00024894436300000415
下限h均为正参数,g=[pq,q2]T,γ为正参数。
5.根据权利要求4所述的视野约束下基于图像的移动机器人编队控制方法,其特征在于,所述步骤S4具体包括以下步骤:
S41、为了使跟随者跟踪领航者,定义
Figure FDA0002489443630000051
如下:
Figure FDA0002489443630000052
式中,
Figure FDA0002489443630000053
表示vf的平均值,
Figure FDA0002489443630000054
表示ωf的平均值,T表示矩阵转置,K1、K2分别为正定矩阵;
S42、为了使跟随者跟踪领航者,令跟随者的角速度和线速度输入如下:
Figure FDA0002489443630000055
S43、通过公式(19)解算出跟随者所需要的角速度和线速度。
CN202010400932.0A 2020-05-13 2020-05-13 一种视野约束下基于图像的移动机器人编队控制方法 Active CN111552293B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010400932.0A CN111552293B (zh) 2020-05-13 2020-05-13 一种视野约束下基于图像的移动机器人编队控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010400932.0A CN111552293B (zh) 2020-05-13 2020-05-13 一种视野约束下基于图像的移动机器人编队控制方法

Publications (2)

Publication Number Publication Date
CN111552293A true CN111552293A (zh) 2020-08-18
CN111552293B CN111552293B (zh) 2021-01-15

Family

ID=72001939

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010400932.0A Active CN111552293B (zh) 2020-05-13 2020-05-13 一种视野约束下基于图像的移动机器人编队控制方法

Country Status (1)

Country Link
CN (1) CN111552293B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112099505A (zh) * 2020-09-17 2020-12-18 湖南大学 一种低复杂度的移动机器人视觉伺服编队控制方法
CN112256001A (zh) * 2020-09-29 2021-01-22 华南理工大学 一种视角约束下的移动机器人视觉伺服控制方法
CN112767546A (zh) * 2021-01-22 2021-05-07 湖南大学 移动机器人基于双目图像的视觉地图生成方法
CN113050634A (zh) * 2021-03-12 2021-06-29 北方工业大学 一种攀爬机器人闭环控制方法及系统
CN113110429A (zh) * 2021-04-02 2021-07-13 北京理工大学 视野约束下多机器人系统的最小持久编队生成与控制方法
CN113190042A (zh) * 2021-05-06 2021-07-30 南京云智控产业技术研究院有限公司 一种基于图形矩的无人机地面移动目标追踪控制方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010077389A2 (en) * 2008-08-05 2010-07-08 University Of Florida Research Foundation, Inc. Systems and methods for maintaining multiple objects within a camera field-of-view
US20170176188A1 (en) * 2015-12-18 2017-06-22 Invensense, Inc. Apparatus and methods for ultrasonic sensor navigation
CN108614426A (zh) * 2018-06-06 2018-10-02 黄山学院 一种基于干扰观测器的多移动机器人编队鲁棒控制方法
CN108983786A (zh) * 2018-08-08 2018-12-11 华南理工大学 一种通讯范围约束下移动机器人的编队控制方法
CN109375648A (zh) * 2018-12-07 2019-02-22 北京理工大学 一种多约束条件下椭圆轨道卫星编队构形初始化方法
CN109976347A (zh) * 2019-04-11 2019-07-05 中南大学 一种基于快速扩展随机树和势场法的视觉伺服路径规划方法
CN110766723A (zh) * 2019-10-22 2020-02-07 湖南大学 一种基于颜色直方图相似性的无人机目标跟踪方法及系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010077389A2 (en) * 2008-08-05 2010-07-08 University Of Florida Research Foundation, Inc. Systems and methods for maintaining multiple objects within a camera field-of-view
US20170176188A1 (en) * 2015-12-18 2017-06-22 Invensense, Inc. Apparatus and methods for ultrasonic sensor navigation
CN108614426A (zh) * 2018-06-06 2018-10-02 黄山学院 一种基于干扰观测器的多移动机器人编队鲁棒控制方法
CN108983786A (zh) * 2018-08-08 2018-12-11 华南理工大学 一种通讯范围约束下移动机器人的编队控制方法
CN109375648A (zh) * 2018-12-07 2019-02-22 北京理工大学 一种多约束条件下椭圆轨道卫星编队构形初始化方法
CN109976347A (zh) * 2019-04-11 2019-07-05 中南大学 一种基于快速扩展随机树和势场法的视觉伺服路径规划方法
CN110766723A (zh) * 2019-10-22 2020-02-07 湖南大学 一种基于颜色直方图相似性的无人机目标跟踪方法及系统

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
DIMITRA PANAGOU等: "Cooperative Visibility Maintenance for Leader–Follower Formations in Obstacle Environments", 《IEEE TRANSACTIONS ON ROBOTICS》 *
YIFAN XU等: "A One-Leader Multi-Follower Bayesian-Stackelberg Game for Anti-Jamming Transmission in UAV Communication Networks", 《DIGITAL OBJECT IDENTIFIER》 *
YUANZHE WANG等: "A Practical Leader–Follower Tracking Control Scheme for Multiple Nonholonomic Mobile Robots in Unknown Obstacle Environments", 《IEEE TRANSACTIONS ON CONTROL SYSTEMS TECHNOLOGY》 *
曹雨等: "基于单应性矩阵的移动机器人编队跟随控制", 《控制理论与应用》 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112099505A (zh) * 2020-09-17 2020-12-18 湖南大学 一种低复杂度的移动机器人视觉伺服编队控制方法
CN112099505B (zh) * 2020-09-17 2021-09-28 湖南大学 一种低复杂度的移动机器人视觉伺服编队控制方法
CN112256001A (zh) * 2020-09-29 2021-01-22 华南理工大学 一种视角约束下的移动机器人视觉伺服控制方法
CN112767546A (zh) * 2021-01-22 2021-05-07 湖南大学 移动机器人基于双目图像的视觉地图生成方法
CN112767546B (zh) * 2021-01-22 2022-08-02 湖南大学 移动机器人基于双目图像的视觉地图生成方法
CN113050634A (zh) * 2021-03-12 2021-06-29 北方工业大学 一种攀爬机器人闭环控制方法及系统
CN113110429A (zh) * 2021-04-02 2021-07-13 北京理工大学 视野约束下多机器人系统的最小持久编队生成与控制方法
CN113110429B (zh) * 2021-04-02 2022-07-05 北京理工大学 视野约束下多机器人系统的最小持久编队生成与控制方法
CN113190042A (zh) * 2021-05-06 2021-07-30 南京云智控产业技术研究院有限公司 一种基于图形矩的无人机地面移动目标追踪控制方法

Also Published As

Publication number Publication date
CN111552293B (zh) 2021-01-15

Similar Documents

Publication Publication Date Title
CN111552293B (zh) 一种视野约束下基于图像的移动机器人编队控制方法
Wang et al. Dynamics-level finite-time fuzzy monocular visual servo of an unmanned surface vehicle
Liang et al. Formation control of nonholonomic mobile robots without position and velocity measurements
CN111522351B (zh) 水下机器人三维编队及避障方法
US20100246899A1 (en) Method and Apparatus for Dynamic Estimation of Feature Depth Using Calibrated Moving Camera
CN107807069B (zh) 一种海面溢油的自适应跟踪控制方法及其系统
CN114721275B (zh) 一种基于预设性能的视觉伺服机器人自适应跟踪控制方法
CN112947407A (zh) 一种多智能体有限时间的编队路径跟踪控制方法及系统
CN114111818A (zh) 一种通用视觉slam方法
CN111948937A (zh) 多智能体系统的多梯度递归强化学习模糊控制方法及系统
CN109760047A (zh) 一种基于视觉传感器的舞台机器人预测控制方法
CN111618861A (zh) 一种基于四轴结构的双随动智能手臂控制方法
CN109443353B (zh) 基于模糊自适应ickf的视觉-惯性紧耦合组合导航方法
CN109443355B (zh) 基于自适应高斯pf的视觉-惯性紧耦合组合导航方法
Hu et al. Vision-based impedance control of an aerial manipulator using a nonlinear observer
Lu et al. Adaptive visual regulation of wheeled mobile robots: A switching approach
CN110967017A (zh) 一种用于双移动机器人刚体协作搬运的协同定位方法
CN114434441A (zh) 基于自适应动态规划的移动机器人视觉伺服跟踪控制方法
CN112099505B (zh) 一种低复杂度的移动机器人视觉伺服编队控制方法
CN113031002A (zh) 基于Kinect3和激光雷达的SLAM陪跑小车
Fuchs et al. Advanced 3-D trailer pose estimation for articulated vehicles
Malis et al. Dynamic estimation of homography transformations on the special linear group for visual servo control
CN110722547B (zh) 模型未知动态场景下移动机器人视觉镇定
CN108629084A (zh) 一种cmac和pid复合的智能车辆轨迹跟踪控制方法
Dani et al. Position-based visual servo control of leader-follower formation using image-based relative pose and relative velocity estimation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant