CN102736626B - 基于视觉的移动小车位姿镇定控制方法 - Google Patents

基于视觉的移动小车位姿镇定控制方法 Download PDF

Info

Publication number
CN102736626B
CN102736626B CN201210146961.4A CN201210146961A CN102736626B CN 102736626 B CN102736626 B CN 102736626B CN 201210146961 A CN201210146961 A CN 201210146961A CN 102736626 B CN102736626 B CN 102736626B
Authority
CN
China
Prior art keywords
dolly
pose
control
controller
design
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201210146961.4A
Other languages
English (en)
Other versions
CN102736626A (zh
Inventor
曹政才
殷龙杰
付宜利
靳保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Chemical Technology
Original Assignee
Beijing University of Chemical Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Chemical Technology filed Critical Beijing University of Chemical Technology
Priority to CN201210146961.4A priority Critical patent/CN102736626B/zh
Publication of CN102736626A publication Critical patent/CN102736626A/zh
Application granted granted Critical
Publication of CN102736626B publication Critical patent/CN102736626B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明公开了一种基于视觉的移动小车位姿镇定控制方法,充分考虑小车的运动学模型和动力学模型以及摄像机模型,在起始位姿和期望位姿处通过摄像机分别获取初始图像和期望图像,并在运动过程中实时获取当前图像;然后利用拍摄到的图像间的对极几何关系和三线性约束关系,基于Epipolar geometry和1D trifocal tensor采用三步切换控制策略设计三个独立有序的运动学控制器;最后将运动学控制器的输出作为动力学控制器的输入利用反演方法设计一种动态切换控制律,使小车沿着最短路径快速镇定到期望位姿。本发明解决传统视觉伺服方法在位姿镇定控制时未考虑小车动力学特性以及伺服速度慢问题,更切合实际,能够使小车更快地镇定到期望位姿。

Description

基于视觉的移动小车位姿镇定控制方法
技术领域
本发明涉及智能机器人技术领域,具体地说是指一种基于视觉的移动小车位姿镇定控制方法。
技术背景
近年来移动小车在工业、民用、科学探索等多种行业和领域得到广泛应用。随着计算机技术、微电子技术及人工智能等技术的发展,移动小车在未知或时变环境下自主工作的可靠性、安全性和智能化水平不断提高。视觉传感器由于具有成本低、信息丰富、可靠性高等特点被广泛应用于移动小车控制系统,而位姿镇定是移动小车运动控制最基本问题,研究移动小车视觉伺服镇定问题具有重要理论与应用价值。移动小车是一种受非完整约束限制的系统,任何连续时不变的状态反馈控制方法都很难有效地解决其镇定问题;另外视觉信息中包含大量的数据,要从中获得有用的信息,需要复杂的算法、耗费大量的运算时间。因此,基于视觉的移动小车位姿镇定是一个十分具有挑战性的课题,吸引众多学者的研究兴趣。
Lopez-Nicolas等人在2010年IEEE Transactions on Systems,Man,and Cybernetics,Part B:Cybernetics,40(4)期刊上利用当前图像和目标图像间的单应性关系设计一种切换控制律,使小车沿着一些最佳的路线到达期望的位姿。Becerra等人在2011年IEEEInternational Conference on Robotics and Automation会议上利用极线几何对移动小车的位姿进行动态估计,获得其位置和方向。虽然这些方法能够有效地解决基于视觉的位姿镇定问题,但是还存在以下主要不足:(1)设计视觉控制器时都只考虑小车的运动学模型,把小车当作一个理想的点来看待,未考虑最能反映小车本质特性的动力学模型;(2)伺服速度慢,视觉控制算法在设计时没有和控制理论相结合,在实际应用中很难获得满意的性能。
发明内容
本发明的目的在于提供一种基于视觉的移动小车位姿镇定控制方法,以解决上述方法在基于视觉的位姿镇定控制时未考虑小车动力学模型和伺服速度慢问题。本发明方法利用Epipolar geometry,1D trifocal tensor及反演方法设计一种动态切换控制律,使小车沿着最短路径快速镇定到期望位姿。
一种基于视觉的移动小车位姿镇定控制方法,包含以下步骤:
1.1.构建基于视觉的移动小车运动学模型和动力学模型,摄像机模型;
1.2.根据步骤1.1中的摄像机模型,建立摄像机在起始位姿、运动过程中所处的位姿和期望位姿处拍摄到的图像间的几何约束关系;
图像间的几何约束关系包括:两幅图像间对极几何关系和三幅图像间三线性约束关系,分别用Epipolar geometry模型和1D trifocal tensor模型表示,其中C1=(x1,z11)、C2=(x2,z22)和Cd=(0,0,0)分别为摄像机的初始位姿、当前位姿和期望位姿,e1d,e2d,ed1和e21为相应图像上的极点在图像平面x轴方向上的坐标,T1和T2为1阶张量;
1.3.根据步骤1.1中的移动小车运动学模型和步骤1.2中的图像间的几何约束关系,采用切换控制策略设计数个独立有序的运动学控制器;
1.4.根据步骤1.1中的移动小车动力学模型和步骤1.3中设计的运动学控制器,利用反演方法设计三个独立有序的动力学控制器,完成整个视觉控制器的设计。
步骤1.3中根据步骤1.2中图像间的几何约束关系采用三步控制策略设计切换的运动学控制器,为动力学控制器提供期望速度:
小车在原地旋转,期望线速度υd1为零,利用Epipolar geometry设计角速度控制器,其输出作为动力学控制器的输入,为控制小车旋转直至摄像机光轴指向期望位置提供所需的期望角速度ωd1
当摄像机光轴指向期望位置时,利用1D trifocal tensor和Epipolar geometry分别设计线速度控制器和角速度控制器,其输出作为动力学控制器的输入,为控制小车做直线运动到达期望位置提供所需的期望线速度υd2和期望角速度ωd2
当小车到达期望位置时,期望线速度υd3为零,利用Epipolar geometry设计角速度控制器,其输出作为动力学控制器的输入,为控制小车旋转到期望方向提供所需的期望角速度ωd3
步骤1.4中利用反演方法设计的动力学控制器将步骤1.3中设计的运动学控制器所提供的期望速度作为输入,用其输出力矩来控制小车的速度,使其趋向于期望速度,从而控制小车沿着最短路径镇定到期望位姿:
首先,驱动力矩为零,设计转动力矩控制器控制小车的角速度,使其趋向于期望的角速度ωd1,从而控制小车旋转使摄像机光轴方向与基线C1Cd重合;
其次,当摄像机光轴方向与基线C1Cd重合时,设计驱动力矩控制器和转动力矩控制器分别控制小车的线速度和角速度,使其趋向于期望的线速度υd2和角速度ωd2,从而控制小车沿着基线C1Cd到达期望位置;
最后,当小车到达期望位置时,驱动力矩为零,设计转动力矩控制器控制小车的角速度,使其趋向于期望的角速度ωd3,从而控制小车旋转使其方向与期望的方向一致。
本发明一种基于视觉的移动小车位姿镇定控制方法,与现有技术相比,具有以下明显的优势和有益效果:
本发明设计过程明确简单,鲁棒性好,伺服速度快。本发明解决了现有视觉伺服方法在位姿镇定时没有考虑机器人本质特性以及镇定过程时间长的问题,大大提高视觉位姿镇定的速度和精度。
附图说明
图1是本发明中的一个带有单目摄像机的四轮差动驱动移动小车模型示意图;
图2是本发明中的三视角间的对极几何关系示意图;
图3是本发明中的摄像机相对位置关系示意图;
图4是本发明中的移动小车三步运动示意图;
图5是本发明中的基于视觉的移动小车位姿镇定控制方法流程图;
图6~13是本发明中的基于视觉的移动小车位姿镇定仿真结果图。
具体实施方式
为了更好地理解本发明的技术方案,以一个带有单目摄像机的四轮差动驱动移动小车为研究对象对本发明的实施方式做进一步的介绍。
1.1.构建基于视觉的移动小车运动学模型和动力学模型,摄像机模型
如图1所示为四轮移动小车模型,前两轮从动,后两轮差动驱动,单目摄像机固定安装在小车中心处且其光轴指向小车运动方向。O-XYZ为世界坐标系,C-xcyczc为摄像机坐标系,原点C与小车质心o重合。该小车的位姿由向量q=[x,z,θ]T表示,(x,z)为小车质心o的坐标,θ为车身方向与Z轴夹角,L为后两轮中心的距离,r为轮子半径,υ和ω分别为小车的线速度和角速度。根据图1所定义的坐标系,在不考虑轮子侧滑等因素时,移动小车的运动学模型可表示为:
x · = - υ sin θ z · = υ cos θ θ · = ω - - - ( 1 )
移动小车非完整约束条件为:
x · cos θ + z · sin θ = 0 - - - ( 2 )
采用拉格朗日建模方法,移动小车的动力学模型可表示为:
M ( q ) q · · + V m ( q , q · ) q · + G ( q ) = N ( q ) τ + A T ( q ) λ - - - ( 3 )
其中M是正定惯性矩阵,是向心力和哥式力矩阵,G(q)是重力向量矩阵,N(q)是输入转换矩阵,τ是小车转矩,λ是Lagrange乘子。
在不考虑阻力矩时,式(3)中的变量定义如下:
M ( q ) = m 0 0 0 m 0 0 0 I , V m ( q ) = 0 0 0 0 0 0 0 0 0 , G ( q ) = 0 0 0 ,
N ( q ) = 1 r - sin θ - sin θ cos θ cos θ L - L , A(q)=[cosθ sinθ 0],τ=[τ12]T
其中m为小车质量,I为小车相对于质心o的转动惯量,τ12分别为后两轮左右轮的输出力矩。式(3)变为:
M ( q ) q · · = N ( q ) τ + A T ( q ) λ - - - ( 4 )
对式(1)进行微分后代入式(4),并考虑式(2),则有:
m 0 0 I υ · ω · = 1 r 1 1 L - L τ l τ r - - - ( 5 )
定义 分别为小车后两轮的驱动力矩和转动力矩,式(5)变为:
m 0 0 I υ · ω · = τ d τ t - - - ( 6 )
则动力学方程可表示为:
υ · = τ d m ω · = τ t I - - - ( 7 )
摄像机模型可由其内部标定矩阵K来表示:
K = α x s x 0 0 α y y 0 0 0 1 - - - ( 8 )
其中αx和αy是摄像机以像素为单位的焦距,s是斜交参数,(x0,y0)是摄像机主点像素坐标。
1.2.根据步骤1.1中的摄像机模型,建立摄像机在起始位姿、运动过程中所处的位姿和期望位姿处拍摄到的图像间的几何约束关系
1.2.1Epipolar geometry模型
Epipolar geometry描述的是两幅图像间的对极几何关系,其可由一基础矩阵来表示并可利用两幅图像间的对应点来确定,已经被广泛应用于机器视觉和机器人学。如图2所示,Cd是摄像机的期望位姿,C1和C2分别为摄像机相对于Cd的初始位姿和当前位姿。线段C1Cd(C1C2,C2Cd)与相应的图像平面的交点称作极点,e1d(e2d,ed1,e21)为极点在x方向上的坐标,在图2中用黑线加粗表示。双下标表示相对应的图像,比如,e21表示的是在图像2上相对于图像1计算得到的极点。由于小车在平面上运动,所有极点的y方向坐标为零。
设C1=(x1,z11),C2=(x2,z22),Cd=(0,0,0),根据图2所示的几何关系,极点的x方向坐标可以表示为摄像机位置和参数αx的函数:
e 1 d = α x x 1 cos θ 1 + z 1 sin θ 1 z 1 cos θ 1 - x 1 sin θ 1 - - - ( 9 )
e 2 d = α x x 2 cos θ 2 + z 2 sin θ 2 z 2 cos θ 2 - x 2 sin θ 2 - - - ( 10 )
e 21 = α x ( x 1 - x 2 ) cos θ 2 + ( z 1 - z 2 ) sin θ 2 ( z 1 - z 2 ) cos θ 2 - ( x 1 - x 2 ) sin θ 2 - - - ( 11 )
e d 1 = α x x 1 z 1 - - - ( 12 )
1.2.21D Trifocal tensor模型
Trifocal tensor描述的是三幅图像之间的三线性约束关系,不依赖于所观察到的场景,只取决于三幅图像间的相对位置和摄像机的内部标定参数,其可通过三幅图像间的相应特征估计得到。
如图3所示,(tx1,tz1)和(tx2,tz2)分别为Cd相对于C1和C2的坐标,根据三幅图像间的对应关系,一阶张量的数学表达式可表示为:
T 1 = T 111 T 112 T 121 T 122 = t z 1 sin θ 2 - t z 2 sin θ 1 - t z 1 cos θ 2 + t z 2 cos θ 1 t z 1 cos θ 2 + t x 2 sin θ 1 t z 1 sin θ 2 - t x 2 cos θ 1 - - - ( 13 )
T 2 = T 211 T 212 T 221 T 222 = - t x 1 sin θ 2 - t z 2 cos θ 1 t x 1 cos θ 2 - t z 2 sin θ 1 - t x 1 cos θ 2 + t x 2 cos θ 1 - t x 1 sin θ 2 + t x 2 sin θ 1 - - - ( 14 )
其中
txi=-xi cosθi-zi sinθi,
                                (15)
tzi=xi sinθi-zi cosθi,(i=1,2)
1.3.根据步骤1.1中的移动小车运动学模型和步骤1.2中的图像间的几何约束关系,采用切换控制策略设计数个独立有序的运动学控制器
运动学控制器为动力学控制器提供期望速度,控制小车沿着最短路径快速到达期望位姿。如图4所示为小车三步运动示意图。
小车在原地旋转,期望线速度υd1为零,利用Epipolar geometry设计角速度控制器,其输出作为动力学控制器的输入,为控制小车旋转直至摄像机光轴指向期望位置提供所需的期望角速度ωd1
如图4(a)所示,当C2=C1时,e2d=e1d;当摄像机指向目标时,e2d=0,因此,将e2d作为控制量。由于小车只做旋转运动,因此我们可知
x2=x1,z2=z1,υ=0                                      (16)
对式(10)进行求导,并将式(1)与(16)代入,我们得到:
e · 2 d = ( α x + 1 α x e 2 d 2 ) ω - - - ( 17 )
利用状态反馈控制方法,我们设计如下简单的角速度比例控制器:
ω = - k 1 e 2 d α x + e 2 d 2 / α x - - - ( 18 )
其中k1为正的控制增益。
将式(18)代入式(17),可得:显然,e2d以指数形式渐近收敛到零,此时摄像机光轴方向与基线C1Cd重合。因此角速度控制器(18)的输出即为所需的期望角速度ωd1
当摄像机光轴指向期望位置时,利用1D trifocal tensor和Epipolar geometry分别设计线速度控制器和角速度控制器,其输出作为动力学控制器的输入,为控制小车做直线运动到达期望位置提供所需的期望线速度υd2和期望角速度ωd2
如图4(b)所示,当摄像机沿着基线运动时,极点的值将不会发生变化,因此Epipolargeometry不能用来设计线速度控制器,在这里我们利用1D Trifocal tensor来设计线速度控制器。设摄像机光轴方向与基线重合时所处的位姿为C′1=(x1,z1,θ′1),并将其作为第二步小车运动的初始位姿。根据图3及图4(b)所示的几何关系,我们有t′x1=tx2=0,则1阶张量表达式(13)和(14)变为:
T 1 ′ = T 111 ′ T 112 ′ T 121 ′ T 122 ′ = t z 1 ′ sin θ 2 - t z 2 sin θ 1 ′ - t z 1 ′ cos θ 2 + t z 2 cos θ 1 ′ t z 1 ′ cos θ 2 t z 1 ′ sin θ 2 - - - ( 19 )
T 2 ′ = T 211 ′ T 212 ′ T 221 ′ T 222 ′ = - t z 2 cos θ 1 ′ - t z 2 sin θ 1 ′ 0 0 - - - ( 20 )
当小车到达期望位置时,tz2=0,由式(20)可知:T′211=0。因此,选择T′211作为控制量。
考虑式(1)和(15),对式(20)中的T′211进行求导,可得:
T · 211 ′ = υ cos θ 1 ′ - - - ( 21 )
根据状态反馈控制方法,设计如下线速度控制器:
υ = - k 2 T 211 ′ cos θ 1 ′ - - - ( 22 )
其中k2为正的控制增益。
将式(22)代入式(21)中,可得:显然,T′211以指数形式渐近收敛到零,此时小车运动到期望位置。因此控制器(22)的输出即为所需的期望线速度υd2
为了计算方向角θ′1,我们将摄像机在完成第一步时拍摄到的当前图像储存起来,采用平面视差法可得:
θ 1 ′ = arctan ( e cx α x ) - arctan ( e tx α x ) - - - ( 23 )
其中ecx为当前图像上的极点,etx为期望图像上的极点。
在实际应用中,小车在运动过程中会受到各种噪声,漂移等因素的影响,进而影响小车的运动方向。为了使小车朝着期望位置的方向做直线运动,我们采用角速度控制器(18)来校正小车的方向误差,因此将角速度控制器(18)的输出作为所需的期望角速度ωd2
当小车到达期望位置时,期望线速度υd3为零,利用Epipolar geometry设计角速度控制器,其输出作为动力学控制器的输入,为控制小车旋转到期望方向提供所需的期望角速度ωd3
如图4(c)所示,当C2=Cd时,e21=ed1,x2=z2=0,因此选择e21作为控制量。由于小车在期望位置只做旋转运动,可知υ=0。
定义误差函数:
e=e21-ed1                                               (24)
考虑式(1)和(11),对式(24)进行求导可得:
e · = ( α x + 1 α x e 21 2 ) ω - - - ( 25 )
利用状态反馈控制方法,设计如下角速度控制器:
ω = - k 3 e α x + e 21 2 / α x - - - ( 26 )
其中k3为正的控制增益。
将式(26)代入式(25)中可得:显然误差e以指数形式渐近收敛到零,也就是e21渐近收敛到ed1,此时小车方向与期望方向一致,小车到达期望位姿。因此角速度控制器(26)的输出即为所需的期望角速度ωd3
1.4.根据步骤1.1中的移动小车动力学模型和步骤1.3中设计的运动学控制器,利用反演方法设计三个独立有序的动力学控制器。
动力学控制器将运动学控制器所提供的期望速度作为输入,用其输出力矩[τdt]T来控制小车速度使其趋向于期望速度,从而控制小车镇定到期望位姿。
定义速度跟踪误差 ϵ = v → - v → d = [ υ - υ d , ω - ω d ] T 及其微分 ϵ · = v → · d - v → · d = [ υ · - υ · d , ω · - ω · d ] T , 根据反演方法,选取如下Lyapunov候选函数:
V = 1 2 m ( υ - υ d ) 2 + 1 2 I ( ω - ω d ) 2 - - - ( 27 )
对式(27)进行求导,并考虑式(7)可得:
V · = m ( υ - υ d ) ( υ · - υ · d ) + I ( ω - ω d ) ( ω · - ω · d )
                                                (28)
= ( υ - υ d ) ( τ d - m υ · d ) + ( ω - ω d ) ( τ t - I ω · d )
选取
τ d = - k 4 ( υ - υ d ) + m υ · d τ t = - k 5 ( ω - ω d ) + I ω · d - - - ( 29 )
其中k4,k5为正的常数。
则式(28)变为:
V · = - k 4 ( υ - υ d ) 2 - k 5 ( ω - ω d ) 2 ≤ 0 - - - ( 30 )
根据Lyapunov稳定性理论可知该系统能全局渐近稳定。
因此,根据步骤3设计的运动学控制器分别设计如下三个独立有序的动力学控制器控制小车速度使其趋向于期望速度,从而控制小车沿着最短路径镇定到期望位姿:
首先,选取
τ d = 0 τ t = - k 5 ( ω - ω d 1 ) + I ω · d 1 - - - ( 31 )
其中控制小车的角速度ω,使其趋向于期望的角速度ωd1,从而控制小车旋转使摄像机光轴方向与基线C1Cd重合;
其次,选取
τ d = - k 4 ( υ - υ d 2 ) + m υ · d 2 τ t = - k 5 ( ω - ω d 2 ) + I ω · d 2 - - - ( 32 )
其中 控制小车的线速度υ和角速度ω,使其趋向于期望的线速度υd2和角速度ωd2,从而控制小车沿着基线C1Cd到达期望位置;
最后,选取
τ d = 0 τ t = - k 5 ( ω - ω d 3 ) + I ω · d 3 - - - ( 33 )
其中控制小车的角速度ω,使其趋向于期望的角速度ωd3,从而控制小车旋转使其方向与期望的方向一致。
至此完成整个视觉控制器的设计,整个控制过程如图5所示。
对所设计的控制器的有效性进行仿真验证:设小车质量m=4kg,转动惯量I=2.5kg·m2,小车初始位姿为q0=[1.5,-5.5,10°]T,期望位姿为qd=[0,0,0°]T。构造一个虚拟的场景,并在场景中产生一些随机的三维点作为目标特征点,这些三维点通过一个虚拟摄像机映射到虚拟图像平面上,虚拟图像的大小为640×480像素。在每一次控制回路中,摄像机拍摄图片与期望图片相比较,利用匹配的点计算极点和1阶张量,控制器将速度(υ,ω)传送给虚拟的机器人,仿真结果如图6~13所示。
说明:图6为小车在XZ平面的运动轨迹,图7为三维目标点在图像像素平面上的运动轨迹,图8为小车位姿变化曲线,图9为极点e2d和e21的估计曲线,图10为1阶张量中T′211的估计曲线,图11为小车实际线速度和期望线速度曲线,图12为实际角速度和期望角速度曲线,图13为力矩输出曲线。
由以上仿真结果图6~13可以看出,小车能够沿着最短路径快速镇定到期望位姿,因此所设计的控制器能够实现基于视觉的移动小车位姿镇定。

Claims (1)

1.一种基于视觉的移动小车位姿镇定控制方法,其特征在于:包含以下步骤:
1.1.构建基于视觉的移动小车运动学模型和动力学模型,摄像机模型;
1.2.根据步骤1.1中的摄像机模型,建立摄像机在起始位姿、运动过程中所处的位姿和期望位姿处拍摄到的图像间的几何约束关系;
所述的图像间的几何约束关系包括:两幅图像间对极几何关系和三幅图像间三线性约束关系,分别用Epipolar geometry模型和1D trifocal tensor模型表示,其中C1=(x1,z11)、C2=(x2,z22)和Cd=(0,0,0)分别为摄像机的初始位姿、当前位姿和期望位姿,e1d,e2d,ed1和e21为相应图像上的极点在图像平面x轴方向上的坐标,T1和T2为1阶张量;
1.3.根据步骤1.1中的移动小车运动学模型和步骤1.2中的图像间的几何约束关系,采用切换控制策略设计数个独立有序的运动学控制器;
步骤1.3中根据步骤1.2中图像间的几何约束关系采用三步控制策略设计切换的运动学控制器,为动力学控制器提供期望速度:
小车在原地旋转,期望线速度υd1为零,利用Epipolar geometry设计角速度控制器,其输出作为动力学控制器的输入,为控制小车旋转直至摄像机光轴指向期望位置提供所需的期望角速度ωd1
当摄像机光轴指向期望位置时,利用1D trifocal tensor和Epipolar geometry分别设计线速度控制器和角速度控制器,其输出作为动力学控制器的输入,为控制小车做直线运动到达期望位置提供所需的期望线速度υd2和期望角速度ωd2
当小车到达期望位置时,期望线速度υd3为零,利用Epipolar geometry设计角速度控制器,其输出作为动力学控制器的输入,为控制小车旋转到期望方向提供所需的期望角速度ωd3
1.4.根据步骤1.1中的移动小车动力学模型和步骤1.3中设计的运动学控制器,利用反演方法设计三个独立有序的动力学控制器,完成整个视觉控制器的设计;
步骤1.4中利用反演方法设计的动力学控制器将步骤1.3中设计的运动学控制器所提供的期望速度作为输入,用其输出力矩来控制小车的速度,使其趋向于期望速度,从而控制小车沿着最短路径镇定到期望位姿:
首先,驱动力矩为零,设计转动力矩控制器控制小车的角速度,使其趋向于期望的角速度ωd1,从而控制小车旋转使摄像机光轴方向与基线C1Cd重合;
其次,当摄像机光轴方向与基线C1Cd重合时,设计驱动力矩控制器和转动力矩控制器分别控制小车的线速度和角速度,使其趋向于期望的线速度υd2和角速度ωd2,从而控制小车沿着基线C1Cd到达期望位置;
最后,当小车到达期望位置时,驱动力矩为零,设计转动力矩控制器控制小车的角速度,使其趋向于期望的角速度ωd3,从而控制小车旋转使其方向与期望的方向一致。
CN201210146961.4A 2012-05-11 2012-05-11 基于视觉的移动小车位姿镇定控制方法 Expired - Fee Related CN102736626B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210146961.4A CN102736626B (zh) 2012-05-11 2012-05-11 基于视觉的移动小车位姿镇定控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210146961.4A CN102736626B (zh) 2012-05-11 2012-05-11 基于视觉的移动小车位姿镇定控制方法

Publications (2)

Publication Number Publication Date
CN102736626A CN102736626A (zh) 2012-10-17
CN102736626B true CN102736626B (zh) 2014-08-20

Family

ID=46992283

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210146961.4A Expired - Fee Related CN102736626B (zh) 2012-05-11 2012-05-11 基于视觉的移动小车位姿镇定控制方法

Country Status (1)

Country Link
CN (1) CN102736626B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6188440B2 (ja) 2013-06-17 2017-08-30 キヤノン株式会社 ロボット装置及びロボット制御方法
CN104950893A (zh) * 2015-06-26 2015-09-30 浙江大学 基于单应性矩阵的最短路径视觉伺服控制方法
CN105929849B (zh) * 2016-04-28 2018-10-23 东南大学 一种基于点镇定的轮式移动机器人目标跟踪控制方法
CN109816717A (zh) * 2017-11-20 2019-05-28 天津工业大学 动态场景中轮式移动机器人的视觉镇定控制
CN109141449A (zh) * 2018-07-02 2019-01-04 中国计量大学 自动导引运输车最短环形路径导航方法及导引运输车
CN110722533B (zh) * 2018-07-17 2022-12-06 天津工业大学 轮式移动机器人外参数无标定视觉伺服跟踪
CN112123370B (zh) * 2019-06-24 2024-02-06 内蒙古汇栋科技有限公司 期望位姿变动的移动机器人视觉镇定控制
CN111604901B (zh) * 2020-05-18 2022-06-24 哈尔滨工业大学 一种适用于机械手在手操作的目标旋转检测方法
CN111741199B (zh) * 2020-06-30 2022-02-01 北京飞影科技有限公司 一种摄像画面保持方法及装置
CN114738597B (zh) * 2022-04-15 2023-09-05 哈工大机器人(合肥)国际创新研究院 一种管道带水检测机器人的控制系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101794153A (zh) * 2010-03-05 2010-08-04 北京化工大学 智能小车点镇定控制方法
CN102346483A (zh) * 2011-06-07 2012-02-08 南京航空航天大学 基于无源rfid和辅助视觉的agv运行控制方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8494225B2 (en) * 2010-02-19 2013-07-23 Julian L. Center Navigation method and aparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101794153A (zh) * 2010-03-05 2010-08-04 北京化工大学 智能小车点镇定控制方法
CN102346483A (zh) * 2011-06-07 2012-02-08 南京航空航天大学 基于无源rfid和辅助视觉的agv运行控制方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
刘沙沙等.基于视觉引导AGV路径跟踪模糊控制研究.《机床与液压》.2009,第37卷(第08期),108-111.
基于图像视觉伺服的AGV动力学控制;李惠光等;《控制工程》;20120131;第19卷(第01期);56-59 *
基于视觉引导AGV路径跟踪模糊控制研究;刘沙沙等;《机床与液压》;20090831;第37卷(第08期);108-111 *
李惠光等.基于图像视觉伺服的AGV动力学控制.《控制工程》.2012,第19卷(第01期),56-59.

Also Published As

Publication number Publication date
CN102736626A (zh) 2012-10-17

Similar Documents

Publication Publication Date Title
CN102736626B (zh) 基于视觉的移动小车位姿镇定控制方法
Wu et al. Path following control of autonomous ground vehicle based on nonsingular terminal sliding mode and active disturbance rejection control
CN104406598B (zh) 一种基于虚拟滑模控制的非合作航天器姿态估计方法
Spica et al. A real-time game theoretic planner for autonomous two-player drone racing
Li et al. Vision-based model predictive control for steering of a nonholonomic mobile robot
Ma et al. Vision guided navigation for a nonholonomic mobile robot
Li et al. Adaptive trajectory tracking of nonholonomic mobile robots using vision-based position and velocity estimation
Gomez-Balderas et al. Tracking a ground moving target with a quadrotor using switching control: nonlinear modeling and control
CN103760902B (zh) 一种基于模糊控制的无人水面艇直线路径跟踪方法
Schaub et al. Reactive obstacle avoidance for highly maneuverable vehicles based on a two-stage optical flow clustering
CN109960145B (zh) 移动机器人混合视觉轨迹跟踪策略
Rioux et al. Autonomous SLAM based humanoid navigation in a cluttered environment while transporting a heavy load
Kim Control laws to avoid collision with three dimensional obstacles using sensors
Wang et al. Vision-based tracking control of nonholonomic mobile robots without position measurement
Lv et al. A collision-free planning and control framework for a biomimetic underwater vehicle in dynamic environments
Boztaş et al. Implementation of pure pursuit algorithm for nonholonomic mobile robot using robot operating system
Li et al. Microassembly path planning using reinforcement learning for improving positioning accuracy of a 1 cm 3 omni-directional mobile microrobot
Liu et al. A deep-learning based multi-modality sensor calibration method for usv
López-Nicolás et al. Vision-based exponential stabilization of mobile robots
Kamel et al. Developments and challenges in wheeled mobile robot control
Dai et al. Navigation of simultaneous localization and mapping by fusing RGB-D camera and IMU on UAV
Dani et al. Position-based visual servo control of leader-follower formation using image-based relative pose and relative velocity estimation
Cao et al. Adaptive dynamic surface control for vision-based stabilization of an uncertain electrically driven nonholonomic mobile robot
Rioux et al. Cooperative vision-based object transportation by two humanoid robots in a cluttered environment
Alzorgan et al. Actuator trajectory planning for uavs with overhead manipulator using reinforcement learning

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20140820

Termination date: 20150511

EXPY Termination of patent right or utility model