CN109542094B - 无期望图像的移动机器人视觉镇定控制 - Google Patents
无期望图像的移动机器人视觉镇定控制 Download PDFInfo
- Publication number
- CN109542094B CN109542094B CN201710885886.6A CN201710885886A CN109542094B CN 109542094 B CN109542094 B CN 109542094B CN 201710885886 A CN201710885886 A CN 201710885886A CN 109542094 B CN109542094 B CN 109542094B
- Authority
- CN
- China
- Prior art keywords
- robot
- coordinate system
- pose
- mobile robot
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000006641 stabilisation Effects 0.000 title claims abstract description 20
- 238000011105 stabilization Methods 0.000 title claims abstract description 20
- 230000004438 eyesight Effects 0.000 title claims abstract description 18
- 238000000034 method Methods 0.000 claims abstract description 53
- 230000008569 process Effects 0.000 claims abstract description 6
- 230000000007 visual effect Effects 0.000 claims description 44
- 239000013598 vector Substances 0.000 claims description 16
- 230000003044 adaptive effect Effects 0.000 claims description 14
- 239000011159 matrix material Substances 0.000 claims description 14
- 238000013519 translation Methods 0.000 claims description 13
- 230000009466 transformation Effects 0.000 claims description 12
- 238000005070 sampling Methods 0.000 claims description 11
- 238000013461 design Methods 0.000 claims description 8
- 230000009897 systematic effect Effects 0.000 claims description 8
- 238000003384 imaging method Methods 0.000 claims description 7
- 238000010586 diagram Methods 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 6
- 230000003287 optical effect Effects 0.000 claims description 6
- 239000000126 substance Substances 0.000 claims description 6
- 238000004422 calculation algorithm Methods 0.000 claims description 5
- 238000000354 decomposition reaction Methods 0.000 claims description 3
- 238000011161 development Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 239000011541 reaction mixture Substances 0.000 claims description 3
- 230000000087 stabilizing effect Effects 0.000 claims description 3
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 claims 1
- HOWHQWFXSLOJEF-MGZLOUMQSA-N systemin Chemical compound NCCCC[C@H](N)C(=O)N[C@@H](CCSC)C(=O)N[C@@H](CCC(N)=O)C(=O)N[C@@H]([C@@H](C)O)C(=O)N[C@@H](CC(O)=O)C(=O)OC(=O)[C@@H]1CCCN1C(=O)[C@H]1N(C(=O)[C@H](CC(O)=O)NC(=O)[C@H](CCCN=C(N)N)NC(=O)[C@H](CCCCN)NC(=O)[C@H](CO)NC(=O)[C@H]2N(CCC2)C(=O)[C@H]2N(CCC2)C(=O)[C@H](CCCCN)NC(=O)[C@H](CO)NC(=O)[C@H](CCC(N)=O)NC(=O)[C@@H](NC(=O)[C@H](C)N)C(C)C)CCC1 HOWHQWFXSLOJEF-MGZLOUMQSA-N 0.000 claims 1
- 108010050014 systemin Proteins 0.000 claims 1
- 238000002474 experimental method Methods 0.000 description 7
- 238000004088 simulation Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 5
- 238000011160 research Methods 0.000 description 3
- 238000009795 derivation Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 241000764238 Isis Species 0.000 description 1
- 230000004308 accommodation Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001914 calming effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 239000012636 effector Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0014—Image feed-back for automatic industrial control, e.g. robot with camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Robotics (AREA)
- Electromagnetism (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
一种移动机器人的无期望图像视觉伺服方法。本文提出了移动机器人的无期望图像视觉伺服方法,能够在期望图像无法事先获得的情况下,将移动机器人由当前位姿镇定至任意指定位姿处。首先,为了处理期望图像确实的情况,根据目标特征定义了参考坐标系,并引入了比例意义下的临时期望坐标系。镇定过程分为两个阶段,首先求取当前坐标系与临时期望坐标系之间的极坐标关系,即可得到以极坐标表示下的系统误差。之后根据移动机器人的运动学方程,设计基于极坐标的镇定控制律。并根据并发学习策略,设计能辨识未知特征点高度信息的自适应更新律。进而移动机器人的镇定过程中,同时将特征点高度辨识出,并可以得到机器人的全状态信息。此后在第二阶段中,利用移动机器人的全状态信息,根据极坐标控制方法,将其由临时期望坐标系镇定至任意指定的期望坐标系处。
Description
技术领域
本发明属于计算机视觉与移动机器人的技术领域,特别是涉及一种无期望图像的移动机器人视觉镇定控制方法。
背景技术
近年来,通过视觉反馈手段来控制操作臂和轮式移动机器人等智能设备的问题,已经成为控制理论和机器人应用的重要方向。在通常情况下,期望图像在视觉伺服中起到了很重要的作用,其作用是为机器人系统定义期望位姿。然而,对于未提前获取期望图像或机器人在陌生的场景下运行的情况,现有方法无法适用。本文中,我们将研究轮式移动机器人系统的视觉伺服问题,其中目标位姿处对应的期望图像是不存在的。对于机器人来说,一个主要的任务是能够移动到任意指定位姿处。然而,由于非完整性约束和场景深度缺乏等原因,移动机器人的视觉控制是十分困难的。为了完成无期望图像的控制目标,必须充分利用图像信息,辨识出场景模型。当不存在期望图像时,控制问题变得更加复杂,加之目标模型和视觉深度信息是未知的,又考虑到非完整特性的存在,无期望图像视觉伺服在机器人和控制领域是一个非常具有挑战性且有趣的问题。
许多研究者把他们的注意力都集中在处理机器人操作臂的视觉控制问题,并得到了许多有意义的研究成果。对于经典的方法,基于位置和基于图像的视觉伺服系统利用当前和期望的图像分别产生位姿误差和图像误差,而混合视觉伺服则包含了从期望和当前图像中提取出的图像特征和旋转运动。通过计算关系矩阵得到所涉及到的整个图像的光度信息来代替点特征的使用,使这些方法在遮蔽和反光的场景下也能适用。然而,也可利用密集的深度图和像素强度增加系统在外部干扰下的鲁棒性。为了满足物理约束和避免碰撞,从初始位姿到期望位姿来规划末端操作器路径是一个好的解决方法。为了处理内部不确定因素,采用一些无标定的视觉伺服方法来处理未知的摄像机内参数和未知的操作臂模型。基于视觉伺服结构,机器人操作臂可以完成目标跟踪和处理目标畸变等多项任务。不幸的是,上述所有方法都需要期望图像来完成视觉伺服任务,而这些任务能够为机器人操作臂提供参考位姿。众所周知,在没有提前捕获期望图的情况下,这种示教模式是无法运作的。
相比于机器人操作臂,轮式移动机器人有操作灵活和工作空间宽阔的优势,通过视觉信息控制机器人一直是机器人领域的一个活跃的研究课题。由于期望图像、当前图像和初始图像的存在,移动机器人的状态信息可以由单应性、基本矩阵和三焦张量估计出。为了处理位姿控制中的非完整性约束,采用平滑时变控制、基于极坐标控制和转换控制将机器人镇定到期望位姿处。为了处理未知的信息深度,通常在视觉伺服系统中引入自适应补偿机制。将深度信息作为已知动力学方程的不可测量参数,并引入非线性观测器来辨识视觉调节过程中的特征深度。在自适应更新律识别目标特征位姿之后,移动机器人的位姿是可测量的。为了保持摄像机视野中的图像信息,采用一些基于主动视觉和基于路径规划的方法来使移动机器人进行适当移动。此外,对于视觉轨迹跟踪任务,附加的静态图像是为期望轨迹和当前轨迹提供参考的必要条件。然而,在上述方法中,视觉伺服目标需要期望图像意味着移动机器人可以在预先捕获期望图像的前提下到达目标位姿,并且机器人只能在熟悉的场景中运行。因此,在没有预先获取期望图像的情况下,将基于视觉的移动机器人镇定到期望位姿处,则整个系统将变得更加智能。
为了实现无期望图像的视觉伺服任务,需要在控制算法中实现视觉目标模型的在线学习。最近,关于机器人系统的视觉深度辨识,已经获得了一些研究成果。基于含积分符号的稳定误差,对静态和动态场景分别设计非线性观测器来识别特征深度和摄像机速度。基于成像系统中可测量的运动参数,设计了一种非线性观测器来渐进地估计照相机的坐标。例如操纵器和水下航空器等各种机器人系统,也都应用到了图像数据的深度辨识算法。然而,现有的方法通常需要持续激励的条件,并且不能保证控制器与观测器组合的结构的全局稳定。当配备用于测量视觉目标深度的距离传感器时,系统复杂性和成本将增加,并且传感器也存在一定的误差。因此,无论在实际上还是在理论上,利用图像和运动信息来识别目标模型都是有益的。研究者们开发了一种用于不确定线性动力系统的并发学习自适应控制律,它同时利用历史和当前数据进行未知参数更新,并保证辨识和控制误差同时收敛。对于操作臂的视觉伺服,一些研究者设计了一种并发学习适应机制,可以在没有持续激励的轨迹跟踪过程中重建场景结构。本发明提供了一种新颖的视觉伺服策略,用于将轮式移动机器人镇定到期望位姿处,而不需要在现有方法中提前捕获期望图像。
发明内容
本发明的目的是解决现有移动机器人视觉镇定控制存在的不足,提供了一种移动机器人的无期望图像视觉伺服方法。
本发明提出了一种新颖的移动机器人的无期望图像视觉伺服方法。该方法最大的特点是能够在期望图像无法事先获得的情况下,将移动机器人由当前位姿镇定至任意指定位姿处。因而,在未提前获取期望图像的情况下或在陌生的场景下,解决了现有的方法无法使机器人运行的问题,并且无需外加距离传感器,不增加系统复杂度和成本。具体而言,由于不存在期望图像,因此首先对于视觉目标定义参考系。然后,引入比例意义下的临时期望坐标系,使整个调节任务分为两个阶段。第一阶段,在当前坐标系和临时期望坐标系之间获得极坐标关系,然后设计自适应镇定控制律将移动机器人镇定至临时坐标系,其中根据基于并发学习结构的历史和当前数据为未知特征高度构建参数更新律。采用李雅普诺夫法严格地证明位姿调节误差和高度辨识误差可以同时收敛到零。之后,可以通过所辨识的特征高度来估计移动机器人的全状态信息,并通过极坐标控制律将移动机器人从临时坐标系驱动到期望坐标系。仿真与实验结果均证明本方法有效可靠。
本发明主要做出了以下几方面贡献:1.与采用视觉伺服示教模式的现有方法相比,该方法可以在没有预先获取期望图像的情况下将移动机器人镇定到期望位姿处,使移动机器人系统在非结构化场景中的运行变得更加智能可靠;2.当驱动机器人到临时期望坐标系时,通过并发学习结构辨识出特征高度,从而成功地学习了视觉目标模型,并通过视觉系统对外部环境有了很好的认识;3.为了代替期望图像,对视觉目标的所有坐标进行详细定义,为移动机器人定位和位姿调节提供参考。
本发明提供的移动机器人的无期望图像视觉伺服方法包括:
第1,定义系统坐标系
第1.1,系统坐标系的描述
基于视觉目标定义了基准坐标系设置摄像机与移动机器人的坐标系相重合,进而定义在当前位姿处的机器人/摄像机坐标系为其中的原点在摄像机的光心位置处,也即车轮轴线中心点的正上方;的zc轴与摄像机光轴重合,同时也和机器人前进方向重合,xc轴和机器人轮轴平行;yc轴垂直于zcxc平面。定义表示摄像机当前位姿坐标系。
第1.2,控制方案
根据坐标系定义,本文的目的是提出一种新颖的视觉伺服方案来驱动移动机器人,使坐标系与坐标系一致。附图2给出了所提供方案的框图。首先,利用视觉目标和平面运动约束来定义坐标系然后利用当前和初始图像来计算相对于坐标系的比例意义下的机器人位姿。
在阶段1中,首先为移动机器人的临时镇定设置比例意义下的期望位姿。然后通过极坐标系表示方法设计自适应调节控制器,以将机器人镇定至坐标系处。接着,根据并发学习结构为特征高度辨识构建参数更新律。通过稳定性分析得以证明,在进行位姿调节时,能够同时确定特征高度。
第2,构造系统模型
第2.1,基准坐标系的定义
基于视觉目标定义基准坐标系,其要求特征点应该是共面的,如附图3所示。在不失一般性的情况下,选择来表示参数特征点。利用垂直于机器人运动平面且过点的直线来定义坐标系的yb轴,并且设置yb的方向与坐标系的yc轴的方向一致。其中,的原点是yb与zcxc平面的交点。
基于坐标系的定义,可以用极坐标表示移动机器人的当前位姿。的原点和的原点之间的距离标记为mc(t)。在下的旋转角度表示为θc(t),即移动机器人的朝向角。以φc(t)表示zb轴与从到的平移向量之间的角度,αc(t)表示zc轴与从到的平移向量之间的角度,因此αc(t)=φc(t)-θc(t)。此外,αc(t),φc(t),θc(t)的方向也被标记,并且在附图3中的角度为正值。因此,机器人的位姿可表示为(mc(t),αc(t),φc(t))。
第2.2,可测量信号
利用移动机器人的平面运动约束,可知Y1 b=Y1 c且为恒值。
其中(u0,v0)为像素主点,f表示焦距,du,dv为单个像素块分别在xc,yc方向上的长度,经过变换得到:
其中fu,fv是以像素大小表示的焦距。由于缺乏场景深度,因而无法估计出mc(t),只能估计出比例意义下的值:
其中定义为以表示的特征平面的正单位矢量;K是校准摄像机内参数;和0Tc(t)分别是相对于的旋转矩阵和平移向量;是从的原点到沿着nc(t)的特征平面的未知距离。然后,nc(t)可以通过单应性分解算法来计算。
由于xb坐标轴定义为特征点平面与机器人运动平面相交线方向,可知nc(t)垂直于xb坐标轴,并且可知nc(t)在机器人运动平面zcxc的投影与zb坐标轴方向一致。进而可以计算出机器人的方向角θc(t)为:
然后,得到φc(t)为:
φc=αc+θc (9)
第3,临时坐标系的镇定
在本阶段中,首先求取与之间的极坐标关系。之后根据移动机器人的运动学方程,设计基于极坐标的镇定控制律。并根据并发学习策略,设计能辨识未知特征点高度Y1 c的自适应更新律。进而在将移动机器人从镇定至处的过程中,同时将特征点高度Y1 c辨识出。
附图4显示了与之间的坐标变换关系,其中θd1c(t)表示在下的旋转角,图中的角度为负。φd1c(t)表示zd1轴与从到的平移向量之间的角度,图中的角度为正。αc(t)表示zc轴与从到的平移向量之间的角度,在图中为正值。表示比例意义下的原点与原点之间的距离:
θd1c=θc-θd1 (11)
并且可以计算出αd1c(t):αd1c(t)=φd1c(t)-θd1c(t)。
第3.2,建立机器人运动学方程
其中vr(t)和ωr(t)分别代表机器人的线速度和角速度。
由于机器人位姿只能按比例的方式进行测量,所以可以在(10)带入(14)之后,得到移动机器人模型在比例意义下的运动学方程为:
第3.3,自适应控制律设计
为了实现位姿镇定的目标,通过基于李雅普诺夫的控制设计方法构建移动机器人的线速度和角速度如下:
根据并发学习方法,设计自适应更新律为:
投影函数Proj{χ}定义为:
定理1:当满足如下条件时,控制律(16)和(17)与参数更新律(18)一起将机器人镇定到临时期望位姿:
第4,期望位姿的镇定
此外,与第3.2中的方法类似,(md2c(t),αd2c(t),φd2c(t))表示在下的极坐标。类似于(11)、(25)和(26),将其设置为阶段二的系统误差。然后,根据如下公式,可以从(mc(t),αc(t),φc(t))和(md2,αd2,φd2)中得到(md2c(t),αd2c(t),φd2c(t)):
θd2c=θc-θd2 (24)
并且可以计算出αd2c(t):αd2c(t)=φd2c(t)-θd2c(t)。
vr=kmmd2ccosαd2c (28)
其中系统误差(md2c(t),αd2c(t),φd2c(t))同时收敛至零。
本发明的优点和有益效果
本发明提供了一种移动机器人的无期望图像视觉伺服方法。本发明主要做出了以下几方面贡献:1.与采用视觉伺服示教模式的现有方法相比,该方案可以在没有预先记录期望图像的情况下将移动机器人镇定到期望位姿处,使移动机器人系统在非结构化场景中的运行变得更加智能可靠;2.当机器人被驱动到临时期望坐标系时,通过并发学习结构辨识特征高度,从而成功地学习了视觉目标模型,并通过视觉系统对外部环境有了很好的认识;3.为了代替期望图像,对视觉目标的所有坐标进行详细定义,为移动机器人定位和位姿镇定提供参考。
附图说明:
图1为无期望图视觉伺服任务的坐标系关系;
图2为视觉伺服策略框图;
图3为基准坐标系的定义;
图5为仿真结果:移动机器人的特征点和运动轨迹[加粗三角形:期望和临时期望位姿];
图6为仿真结果:机器人位姿的变化[实线:机器人位姿;虚线:期望位姿];
图8表示实验结果:移动机器人的运动轨迹[加粗三角形:两个阶段的期望和临时期望位姿];
图9表示实验结果:机器人位姿的变化[实线:机器人位姿;虚线:期望值(0)];
图10表示实验结果:两个阶段的系统误差的变化[实线:误差值;虚线:期望值(0)];
图12表示实验结果:移动机器人的速度;
图13表示实验结果:特征点的图像轨迹[星点:阶段一的最终图像;方形点:阶段二的最终图像];
具体实施方式:
实施例1
第1,定义系统坐标系
第1.1,系统坐标系的描述
基于视觉目标定义了基准坐标系设置摄像机与移动机器人的坐标系相重合,进而定义在当前位姿处的机器人/摄像机坐标系为其中的原点在摄像机的光心位置处,也即车轮轴线中心点的正上方;的zc轴与摄像机光轴重合,同时也和机器人前进方向重合,xc轴和机器人轮轴平行;yc轴垂直于zcxc平面。定义表示摄像机当前位姿坐标系。
第1.2,控制方案
根据坐标系定义,本文的目的是提出一种新颖的视觉伺服方案来驱动移动机器人,使坐标系与坐标系一致。附图2给出了所提供方案的框图。首先,利用视觉目标和平面运动约束来定义坐标系然后利用当前和初始图像来计算相对于坐标系的比例意义下的机器人位姿。
在阶段1中,首先为移动机器人的临时镇定设置比例意义下的期望位姿。然后通过极坐标系表示方法设计自适应调节控制器,以将机器人镇定至坐标系处。接着,根据并发学习结构为特征高度辨识构建参数更新律。通过稳定性分析得以证明,在进行位姿调节时,能够同时确定特征高度。
第2,构造系统模型
第2.1,基准坐标系的定义
基于视觉目标定义基准坐标系,其要求特征点应该是共面的,如附图3所示。在不失一般性的情况下,选择来表示参数特征点。利用垂直于机器人运动平面且过点的直线来定义坐标系的yb轴,并且设置yb的方向与坐标系的yc轴的方向一致。其中,的原点是yb与zcxc平面的交点。
基于坐标系的定义,可以用极坐标表示移动机器人的当前位姿。的原点和的原点之间的距离标记为mc(t)。在下的旋转角度表示为θc(t),即移动机器人的朝向角。以φc(t)表示zb轴与从到的平移向量之间的角度,αc(t)表示zc轴与从到的平移向量之间的角度,因此αc(t)=φc(t)-θc(t)。此外,αc(t),φc(t),θc(t)的方向也被标记,并且在附图3中的角度为正值。因此,机器人的位姿可表示为(mc(t),αc(t),φc(t))。
第2.2,可测量信号
利用移动机器人的平面运动约束,可知Y1 b=Y1 c且为恒值。
其中(u0,v0)为像素主点,f表示焦距,du,dv为单个像素块分别在xc,yc方向上的长度,经过变换得到:
其中fu,fv是以像素大小表示的焦距。由于缺乏场景深度,因而无法估计出mc(t),只能估计出比例意义下的值:
其中定义为以表示的特征平面的正单位矢量;K是校准摄像机内参数;和0Tc(t)分别是相对于的旋转矩阵和平移向量;是从的原点到沿着nc(t)的特征平面的未知距离。然后,nc(t)可以通过单应性分解算法来计算。
由于xb坐标轴定义为特征点平面与机器人运动平面相交线方向,可知nc(t)垂直于xb坐标轴,并且可知nc(t)在机器人运动平面zcxc的投影与zb坐标轴方向一致。进而可以计算出机器人的方向角θc(t)为:
然后,得到φc(t)为:
φc=αc+θc (9)
第3,临时坐标系的镇定
在本阶段中,首先求取与之间的极坐标关系。之后根据移动机器人的运动学方程,设计基于极坐标的镇定控制律。并根据并发学习策略,设计能辨识未知特征点高度Y1 c的自适应更新律。进而在将移动机器人从镇定至处的过程中,同时将特征点高度Y1 c辨识出。
附图4显示了与之间的坐标变换关系,其中θd1c(t)表示在下的旋转角,图中的角度为负。φd1c(t)表示zd1轴与从到的平移向量之间的角度,图中的角度为正。αc(t)表示zc轴与从到的平移向量之间的角度,在图中为正值。表示比例意义下的原点与原点之间的距离:
θd1c=θc-θd1 (11)
并且可以计算出αd1c(t):αd1c(t)=φd1c(t)-θd1c(t)。
第3.2,建立机器人运动学方程
其中vr(t)和ωr(t)分别代表机器人的线速度和角速度。
由于机器人位姿只能按比例的方式进行测量,所以可以在(10)带入(14)之后,得到移动机器人模型在比例意义下的运动学方程为:
第3.3,自适应控制律设计
为了实现位姿镇定的目标,通过基于李雅普诺夫的控制设计方法构建移动机器人的线速度和角速度如下:
根据并发学习方法,设计自适应更新律为:
投影函数Proj{χ}定义为:
定理1:当满足如下条件时,控制律(16)和(17)与参数更新律(18)一起将机器人镇定到临时期望位姿:
第4,定理1证明
本发明在此给出定理1的证明。
证明:首先定义Lyapunov候选函数为:
对上式关于时间求导有:
即控制律设计为:
根据并发学习方法,设计深度辨识的自适应更新律为:
在绝大多数情况下,上式处于“=”状态;符号>出现在Proj[χ]=0的情况。
将式(26)代入(24)可得:
将控制律代入,闭环误差方程可写为:
第5,期望位姿的镇定
此外,与第3.2中的方法类似,(md2c(t),αd2c(t),φd2c(t))表示在下的极坐标。类似于(11)、(33)和(34),将其设置为阶段二中的系统误差。然后,根据如下公式,可以从(mc(t),αc(t),φc(t))和(md2,αd2,φd2)中得到(md2c(t),αd2c(t),φd2c(t)):
θd2c=θc-θd2 (32)
并且可以计算出αd2c(t):αd2c(t)=φd2c(t)-θd2c(t)。
vr=kmmd2ccosαd2c (36)
其中系统误差(md2c(t),αd2c(t),φd2c(t))同时收敛至零。
第6,仿真和实验结果
第6.1,仿真结果
在这部分中,本发明提供了仿真结果来验证所提出的方法的性能。首先,随机设置四个平面特征点,并将的高度设置为-0.42m。其次,虚拟摄像机的内参数设置与后续实验中使用的相同:fu=1003.7,fv=1006.3,u0=376.9,v0=285.3。
对应于基准坐标系,设置期望位姿为(bTd2z,bTd2x,θd2)=(-1.6m,0.1m,0°),且将移动机器人的初始位姿设置为(bT0z,bT0x,θ0)=(-6.5m,-0.8m,27°)。在极坐标中设置临时期望位姿为此外,加入标准差为σ=0.15的图像噪音来测试控制器的稳定性和特征高度辨识的抗干扰能力。
设置控制参数为km=0.1,kα=0.4,kφ=2,Γ1=3,Γ2=0.001。随机选取为-0.1m,并且将设置为-1.0m。在阶段一中,设置N为100,即前100个采样周期所记录的数据。然后,采用三次多项式函数拟合通过这种方式来抑制干扰,并根据对三次多项式关于时间求导得到的精确估计。
图5给出了移动机器人在笛卡尔空间中的运动路径结果,其中加粗三角形分别表示期望位姿和临时位姿。其特征点也在该图中示出,其中利用圆点作为参考。可以看出机器人有效地移动到期望位姿处,并且路径在两个阶段中都非常平滑。图6表示机器人当前位姿(bTcz(t),bTcx(t),θc(t))的变化,其中虚线表示期望坐标系处的位姿。并且,已知两阶段的稳态误差都足够小。此外,图7中给出了阶段一中特征高度的估算。可以看出,特征高度估计会迅速收敛至其真实值,并且具有足够小的稳态误差,这意味着已成功辨识Y1 c。
第6.2,实验结果
在这部分中,本发明给出了实验结果以验证设计方案的性能,其中采用了携带CCD照相机的Pioneer3-DX移动机器人以及在两个正方形的共顶点处的四个特征平面。整个方案是通过使用Visual Studio环境和OpenCV库实现的。采样频率为50Hz,满足视觉伺服任务的实时性要求。
将移动机器人的期望位姿设置为(bTd2z,bTd2x,θd2)=(-1.1m,0m,0°),并且初始位姿随机设置在(bT0z,bT0x,θ0)=(-3.6m,1.1m,26°)处。将临时期望位姿设置为选择控制参数为km=0.4,kα=0.2,kφ=1,Γ1=4,Γ2=0.001。记录数据和拟合的方式与模拟部分相同。
图8表示移动机器人两个阶段的混合路径。图9表示机器人当前位姿(bTcz(t),bTcx(t),θc(t))的变化。图10表示阶段一中的系统误差和阶段二中的md2c(t)。可以看出,机器人以较小的稳态误差通过高效的路径到达期望和临时期望位姿。
此外,为了测试特征高度辨识的精度,本发明根据初始和当前图像信息以及某些特征点之间的已知度量距离来计算Y1 c的真实值。由于和之间的距离足够大,Y1 c的计算在阶段一的最后几秒内更准确。图11给出了的变化,其中虚线表示Y1 c的计算值。因此,可以看出,特征高度的估值迅速收敛到其真实值Y1 c,并且稳态估计误差足够小。
图12表示移动机器人的速度。图13表示特征点的图像轨迹,其中圆点表示初始图像中提取的特征点,星形表示阶段一中的最终图像,正方形是阶段二中的最终图像。
可以得出结论,这个实验设备适合于探索未知物体,在这种意义上,首先将机器人镇定到相对于目标物体粗略设置的比例意义下的位姿,然后将机器人镇定到易于观察的离目标物体更近的精确的位姿。
Claims (1)
1.一种移动机器人的无期望图像视觉伺服方法,其特征在于包括以下步骤:
第1,定义系统坐标系
第1.1,系统坐标系的描述
基于视觉目标定义了基准坐标系设置摄像机与移动机器人的坐标系相重合,进而定义在当前位姿处的机器人/摄像机坐标系为其中的原点在摄像机的光心位置处,也即车轮轴线中心点的正上方;的zc轴与摄像机光轴重合,同时也和机器人前进方向重合,xc轴和机器人轮轴平行;yc轴垂直于zcxc平面;定义表示摄像机当前位姿坐标系;
第1.2,控制方案
在阶段1中,首先为移动机器人的临时镇定设置比例意义下的期望位姿;然后通过极坐标系表示方法设计自适应调节控制器,以将机器人镇定至坐标系处;接着,根据并发学习结构为特征高度辨识构建参数更新律;通过稳定性分析得以证明,在进行位姿调节时,能够同时确定特征高度;
第2,构造系统模型
第2.1,基准坐标系的定义
基于视觉目标定义基准坐标系,其要求特征点应该是共面的;在不失一般性的情况下,选择来表示参数特征点;利用垂直于机器人运动平面且过点的直线来定义坐标系的yb轴,并且设置yb的方向与坐标系的yc轴的方向一致;其中,的原点是yb与zcxc平面的交点;
基于坐标系的定义,可以用极坐标表示移动机器人的当前位姿;的原点和的原点之间的距离标记为mc(t)(为了方便表述,对某一符号X,若其表示变量,在正文中出现时用X(t)表示,在带编号公式中出现时略去时间符号用X表示,这两种情况下所表达的含义相同);在下的旋转角度表示为θc(t),即移动机器人的朝向角;以φc(t)表示zb轴与从到的平移向量之间的角度,αc(t)表示zc轴与从到的平移向量之间的角度,因此αc(t)=φc(t)-θc(t);因此,机器人的位姿可表示为(mc(t),αc(t),φc(t));
第2.2,可测量信号
利用移动机器人的平面运动约束,可知Y1 b=Y1 c且为恒值;
其中(u0,v0)为像素主点,f表示焦距,du,dv为单个像素块分别在xc,yc方向上的长度,经过变换得到:
其中fu,fv是以像素大小表示的焦距;由于缺乏场景深度,因而无法估计出mc(t),只能估计出比例意义下的值:
其中定义为以表示的特征平面的正单位矢量;K是校准摄像机内参数;和0Tc(t)分别是相对于的旋转矩阵和平移向量;是从的原点到沿着nc(t)的特征平面的未知距离;然后,nc(t)可以通过单应性分解算法来计算;
由于xb坐标轴定义为特征点平面与机器人运动平面相交线方向,可知nc(t)垂直于xb坐标轴,并且可知nc(t)在机器人运动平面zcxc的投影与zb坐标轴方向一致;进而可以计算出机器人的方向角θc(t)为:
然后,得到φc(t)为:
φc=αc+θc (9)
第3,临时坐标系的镇定
在本阶段中,首先求取与之间的极坐标关系;之后根据移动机器人的运动学方程,设计基于极坐标的镇定控制律;并根据并发学习策略,设计能辨识未知特征点高度Y1 c的自适应更新律;进而在将移动机器人从镇定至处的过程中,同时将特征点高度Y1 c辨识出;
θd1c=θc-θd1 (11)
并且可以计算出αd1c(t):αd1c(t)=φd1c(t)-θd1c(t);
第3.2,建立机器人运动学方程
其中vr(t)和ωr(t)分别代表机器人的线速度和角速度;
由于机器人位姿只能按比例的方式进行测量,所以可以在式(10)带入式(14)之后,得到移动机器人模型在比例意义下的运动学方程为:
第3.3,自适应控制律设计
为了实现位姿镇定的目标,通过基于李雅普诺夫的控制设计方法构建移动机器人的线速度和角速度如下:
根据并发学习方法,设计自适应更新律为:
投影函数Proj{χ}定义为:
当满足如下条件时,控制律式(16)和式(17)与参数更新律式(18)一起将机器人镇定到临时期望位姿:
第4,期望位姿的镇定
(mc(t),αc(t),φc(t));
此外,与第3.2中的方法类似,(md2c(t),αd2c(t),φd2c(t))表示在下的极坐标;类似于式(11)、式(25)和式(26),将其设置为阶段二的系统误差;然后,根据如下公式,可以从(mc(t),αc(t),φc(t))和(md2,αd2,φd2)中得到(md2c(t),αd2c(t),φd2c(t)):
θd2c=θc-θd2 (24)
并且可以计算出αd2c(t):αd2c(t)=φd2c(t)-θd2c(t);
vr=kmmd2ccosαd2c (28)
其中系统误差(md2c(t),αd2c(t),φd2c(t))同时收敛至零。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710885886.6A CN109542094B (zh) | 2017-09-21 | 2017-09-21 | 无期望图像的移动机器人视觉镇定控制 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710885886.6A CN109542094B (zh) | 2017-09-21 | 2017-09-21 | 无期望图像的移动机器人视觉镇定控制 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109542094A CN109542094A (zh) | 2019-03-29 |
CN109542094B true CN109542094B (zh) | 2021-06-08 |
Family
ID=65830739
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710885886.6A Active CN109542094B (zh) | 2017-09-21 | 2017-09-21 | 无期望图像的移动机器人视觉镇定控制 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109542094B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112123370B (zh) * | 2019-06-24 | 2024-02-06 | 内蒙古汇栋科技有限公司 | 期望位姿变动的移动机器人视觉镇定控制 |
CN112363528B (zh) * | 2020-10-15 | 2022-06-14 | 北京理工大学 | 基于机载视觉的无人机抗干扰集群编队控制方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102855620A (zh) * | 2012-07-13 | 2013-01-02 | 南开大学 | 基于球形投影模型的纯旋转摄像机自标定方法 |
US9146561B2 (en) * | 2013-12-03 | 2015-09-29 | King Fahd University Of Petroleum And Minerals | Robotic leader-follower navigation and fleet management control method |
CN104950893A (zh) * | 2015-06-26 | 2015-09-30 | 浙江大学 | 基于单应性矩阵的最短路径视觉伺服控制方法 |
CN106774309A (zh) * | 2016-12-01 | 2017-05-31 | 天津工业大学 | 一种移动机器人同时视觉伺服与自适应深度辨识方法 |
-
2017
- 2017-09-21 CN CN201710885886.6A patent/CN109542094B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102855620A (zh) * | 2012-07-13 | 2013-01-02 | 南开大学 | 基于球形投影模型的纯旋转摄像机自标定方法 |
US9146561B2 (en) * | 2013-12-03 | 2015-09-29 | King Fahd University Of Petroleum And Minerals | Robotic leader-follower navigation and fleet management control method |
CN104950893A (zh) * | 2015-06-26 | 2015-09-30 | 浙江大学 | 基于单应性矩阵的最短路径视觉伺服控制方法 |
CN106774309A (zh) * | 2016-12-01 | 2017-05-31 | 天津工业大学 | 一种移动机器人同时视觉伺服与自适应深度辨识方法 |
Non-Patent Citations (2)
Title |
---|
Image Feature based Navigation of Nonholonomic;Satoshi Komada等;《The International Federation of Automatic Control》;20081231;全文 * |
移动机器人主动视觉伺服技术研究;刘玺;《中国优秀硕士学位论文全文数据库 信息科技辑》;20110115;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN109542094A (zh) | 2019-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Piepmeier et al. | Uncalibrated eye-in-hand visual servoing | |
Qiu et al. | Visual servo tracking of wheeled mobile robots with unknown extrinsic parameters | |
Zhang et al. | Acceleration-level pseudo-dynamic visual servoing of mobile robots with backstepping and dynamic surface control | |
Li et al. | Visual servo regulation of wheeled mobile robots with simultaneous depth identification | |
Chen et al. | Adaptive homography-based visual servo tracking for a fixed camera configuration with a camera-in-hand extension | |
Li et al. | Visual servoing of wheeled mobile robots without desired images | |
WO2015058297A1 (en) | Image-based trajectory robot programming planning approach | |
Husain et al. | Realtime tracking and grasping of a moving object from range video | |
CN110722533B (zh) | 轮式移动机器人外参数无标定视觉伺服跟踪 | |
Zhao et al. | Vision-based tracking control of quadrotor with backstepping sliding mode control | |
Silveira | On intensity-based nonmetric visual servoing | |
CN115351780A (zh) | 用于控制机器人设备的方法 | |
Roveda et al. | A control framework definition to overcome position/interaction dynamics uncertainties in force-controlled tasks | |
Colombo et al. | Image-based robot task planning and control using a compact visual representation | |
CN109542094B (zh) | 无期望图像的移动机器人视觉镇定控制 | |
Qiu et al. | Concurrent-learning-based visual servo tracking and scene identification of mobile robots | |
Fried et al. | Uncalibrated image-based visual servoing approach for translational trajectory tracking with an uncertain robot manipulator | |
Toro-Arcila et al. | Visual path following with obstacle avoidance for quadcopters in indoor environments | |
Fahimi et al. | An alternative closed-loop vision-based control approach for Unmanned Aircraft Systems with application to a quadrotor | |
Copot et al. | Image-based and fractional-order control for mechatronic systems | |
Mohebbi et al. | An eye-in-hand stereo visual servoing for tracking and catching moving objects | |
Jia et al. | Switched visual servo control of nonholonomic mobile robots with field-of-view constraints based on homography | |
CN110722547B (zh) | 模型未知动态场景下移动机器人视觉镇定 | |
Cao et al. | Adaptive dynamic surface control for vision-based stabilization of an uncertain electrically driven nonholonomic mobile robot | |
Cong | Combination of two visual servoing techniques in contour following task |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |