CN109542094B - 无期望图像的移动机器人视觉镇定控制 - Google Patents

无期望图像的移动机器人视觉镇定控制 Download PDF

Info

Publication number
CN109542094B
CN109542094B CN201710885886.6A CN201710885886A CN109542094B CN 109542094 B CN109542094 B CN 109542094B CN 201710885886 A CN201710885886 A CN 201710885886A CN 109542094 B CN109542094 B CN 109542094B
Authority
CN
China
Prior art keywords
robot
coordinate system
pose
mobile robot
coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710885886.6A
Other languages
English (en)
Other versions
CN109542094A (zh
Inventor
李宝全
师五喜
宋志伟
郭利进
陈奕梅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin Polytechnic University
Original Assignee
Tianjin Polytechnic University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin Polytechnic University filed Critical Tianjin Polytechnic University
Priority to CN201710885886.6A priority Critical patent/CN109542094B/zh
Publication of CN109542094A publication Critical patent/CN109542094A/zh
Application granted granted Critical
Publication of CN109542094B publication Critical patent/CN109542094B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0014Image feed-back for automatic industrial control, e.g. robot with camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Robotics (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

一种移动机器人的无期望图像视觉伺服方法。本文提出了移动机器人的无期望图像视觉伺服方法,能够在期望图像无法事先获得的情况下,将移动机器人由当前位姿镇定至任意指定位姿处。首先,为了处理期望图像确实的情况,根据目标特征定义了参考坐标系,并引入了比例意义下的临时期望坐标系。镇定过程分为两个阶段,首先求取当前坐标系与临时期望坐标系之间的极坐标关系,即可得到以极坐标表示下的系统误差。之后根据移动机器人的运动学方程,设计基于极坐标的镇定控制律。并根据并发学习策略,设计能辨识未知特征点高度信息的自适应更新律。进而移动机器人的镇定过程中,同时将特征点高度辨识出,并可以得到机器人的全状态信息。此后在第二阶段中,利用移动机器人的全状态信息,根据极坐标控制方法,将其由临时期望坐标系镇定至任意指定的期望坐标系处。

Description

无期望图像的移动机器人视觉镇定控制
技术领域
本发明属于计算机视觉与移动机器人的技术领域,特别是涉及一种无期望图像的移动机器人视觉镇定控制方法。
背景技术
近年来,通过视觉反馈手段来控制操作臂和轮式移动机器人等智能设备的问题,已经成为控制理论和机器人应用的重要方向。在通常情况下,期望图像在视觉伺服中起到了很重要的作用,其作用是为机器人系统定义期望位姿。然而,对于未提前获取期望图像或机器人在陌生的场景下运行的情况,现有方法无法适用。本文中,我们将研究轮式移动机器人系统的视觉伺服问题,其中目标位姿处对应的期望图像是不存在的。对于机器人来说,一个主要的任务是能够移动到任意指定位姿处。然而,由于非完整性约束和场景深度缺乏等原因,移动机器人的视觉控制是十分困难的。为了完成无期望图像的控制目标,必须充分利用图像信息,辨识出场景模型。当不存在期望图像时,控制问题变得更加复杂,加之目标模型和视觉深度信息是未知的,又考虑到非完整特性的存在,无期望图像视觉伺服在机器人和控制领域是一个非常具有挑战性且有趣的问题。
许多研究者把他们的注意力都集中在处理机器人操作臂的视觉控制问题,并得到了许多有意义的研究成果。对于经典的方法,基于位置和基于图像的视觉伺服系统利用当前和期望的图像分别产生位姿误差和图像误差,而混合视觉伺服则包含了从期望和当前图像中提取出的图像特征和旋转运动。通过计算关系矩阵得到所涉及到的整个图像的光度信息来代替点特征的使用,使这些方法在遮蔽和反光的场景下也能适用。然而,也可利用密集的深度图和像素强度增加系统在外部干扰下的鲁棒性。为了满足物理约束和避免碰撞,从初始位姿到期望位姿来规划末端操作器路径是一个好的解决方法。为了处理内部不确定因素,采用一些无标定的视觉伺服方法来处理未知的摄像机内参数和未知的操作臂模型。基于视觉伺服结构,机器人操作臂可以完成目标跟踪和处理目标畸变等多项任务。不幸的是,上述所有方法都需要期望图像来完成视觉伺服任务,而这些任务能够为机器人操作臂提供参考位姿。众所周知,在没有提前捕获期望图的情况下,这种示教模式是无法运作的。
相比于机器人操作臂,轮式移动机器人有操作灵活和工作空间宽阔的优势,通过视觉信息控制机器人一直是机器人领域的一个活跃的研究课题。由于期望图像、当前图像和初始图像的存在,移动机器人的状态信息可以由单应性、基本矩阵和三焦张量估计出。为了处理位姿控制中的非完整性约束,采用平滑时变控制、基于极坐标控制和转换控制将机器人镇定到期望位姿处。为了处理未知的信息深度,通常在视觉伺服系统中引入自适应补偿机制。将深度信息作为已知动力学方程的不可测量参数,并引入非线性观测器来辨识视觉调节过程中的特征深度。在自适应更新律识别目标特征位姿之后,移动机器人的位姿是可测量的。为了保持摄像机视野中的图像信息,采用一些基于主动视觉和基于路径规划的方法来使移动机器人进行适当移动。此外,对于视觉轨迹跟踪任务,附加的静态图像是为期望轨迹和当前轨迹提供参考的必要条件。然而,在上述方法中,视觉伺服目标需要期望图像意味着移动机器人可以在预先捕获期望图像的前提下到达目标位姿,并且机器人只能在熟悉的场景中运行。因此,在没有预先获取期望图像的情况下,将基于视觉的移动机器人镇定到期望位姿处,则整个系统将变得更加智能。
为了实现无期望图像的视觉伺服任务,需要在控制算法中实现视觉目标模型的在线学习。最近,关于机器人系统的视觉深度辨识,已经获得了一些研究成果。基于含积分符号的稳定误差,对静态和动态场景分别设计非线性观测器来识别特征深度和摄像机速度。基于成像系统中可测量的运动参数,设计了一种非线性观测器来渐进地估计照相机的坐标。例如操纵器和水下航空器等各种机器人系统,也都应用到了图像数据的深度辨识算法。然而,现有的方法通常需要持续激励的条件,并且不能保证控制器与观测器组合的结构的全局稳定。当配备用于测量视觉目标深度的距离传感器时,系统复杂性和成本将增加,并且传感器也存在一定的误差。因此,无论在实际上还是在理论上,利用图像和运动信息来识别目标模型都是有益的。研究者们开发了一种用于不确定线性动力系统的并发学习自适应控制律,它同时利用历史和当前数据进行未知参数更新,并保证辨识和控制误差同时收敛。对于操作臂的视觉伺服,一些研究者设计了一种并发学习适应机制,可以在没有持续激励的轨迹跟踪过程中重建场景结构。本发明提供了一种新颖的视觉伺服策略,用于将轮式移动机器人镇定到期望位姿处,而不需要在现有方法中提前捕获期望图像。
发明内容
本发明的目的是解决现有移动机器人视觉镇定控制存在的不足,提供了一种移动机器人的无期望图像视觉伺服方法。
本发明提出了一种新颖的移动机器人的无期望图像视觉伺服方法。该方法最大的特点是能够在期望图像无法事先获得的情况下,将移动机器人由当前位姿镇定至任意指定位姿处。因而,在未提前获取期望图像的情况下或在陌生的场景下,解决了现有的方法无法使机器人运行的问题,并且无需外加距离传感器,不增加系统复杂度和成本。具体而言,由于不存在期望图像,因此首先对于视觉目标定义参考系。然后,引入比例意义下的临时期望坐标系,使整个调节任务分为两个阶段。第一阶段,在当前坐标系和临时期望坐标系之间获得极坐标关系,然后设计自适应镇定控制律将移动机器人镇定至临时坐标系,其中根据基于并发学习结构的历史和当前数据为未知特征高度构建参数更新律。采用李雅普诺夫法严格地证明位姿调节误差和高度辨识误差可以同时收敛到零。之后,可以通过所辨识的特征高度来估计移动机器人的全状态信息,并通过极坐标控制律将移动机器人从临时坐标系驱动到期望坐标系。仿真与实验结果均证明本方法有效可靠。
本发明主要做出了以下几方面贡献:1.与采用视觉伺服示教模式的现有方法相比,该方法可以在没有预先获取期望图像的情况下将移动机器人镇定到期望位姿处,使移动机器人系统在非结构化场景中的运行变得更加智能可靠;2.当驱动机器人到临时期望坐标系时,通过并发学习结构辨识出特征高度,从而成功地学习了视觉目标模型,并通过视觉系统对外部环境有了很好的认识;3.为了代替期望图像,对视觉目标的所有坐标进行详细定义,为移动机器人定位和位姿调节提供参考。
本发明提供的移动机器人的无期望图像视觉伺服方法包括:
第1,定义系统坐标系
第1.1,系统坐标系的描述
基于视觉目标定义了基准坐标系
Figure BSA0000151251930000021
设置摄像机与移动机器人的坐标系相重合,进而定义在当前位姿处的机器人/摄像机坐标系为
Figure BSA0000151251930000022
其中
Figure BSA0000151251930000023
的原点在摄像机的光心位置处,也即车轮轴线中心点的正上方;
Figure BSA0000151251930000024
的zc轴与摄像机光轴重合,同时也和机器人前进方向重合,xc轴和机器人轮轴平行;yc轴垂直于zcxc平面。定义
Figure BSA0000151251930000025
表示摄像机当前位姿坐标系。
Figure BSA0000151251930000026
表示未预先获取期望图的期望坐标系,为了便于控制开发,引入
Figure BSA0000151251930000027
表示比例意义下的临时坐标系。
第1.2,控制方案
根据坐标系定义,本文的目的是提出一种新颖的视觉伺服方案来驱动移动机器人,使坐标系
Figure BSA0000151251930000028
与坐标系
Figure BSA0000151251930000029
一致。附图2给出了所提供方案的框图。首先,利用视觉目标和平面运动约束来定义坐标系
Figure BSA00001512519300000210
然后利用当前和初始图像来计算相对于坐标系
Figure BSA00001512519300000211
的比例意义下的机器人位姿。
在阶段1中,首先为移动机器人的临时镇定设置比例意义下的期望位姿。然后通过极坐标系表示方法设计自适应调节控制器,以将机器人镇定至坐标系
Figure BSA00001512519300000212
处。接着,根据并发学习结构为特征高度辨识构建参数更新律。通过稳定性分析得以证明,在进行位姿调节时,能够同时确定特征高度。
在阶段2中,利用辨识特征高度来获取移动机器人的全状态信息。然后,采用基于极坐标的调节控制器来驱动机器人到
Figure BSA00001512519300000329
表示下的期望位姿处。
第2,构造系统模型
第2.1,基准坐标系的定义
基于视觉目标定义基准坐标系,其要求特征点
Figure BSA0000151251930000031
应该是共面的,如附图3所示。在不失一般性的情况下,选择
Figure BSA0000151251930000032
来表示参数特征点。利用垂直于机器人运动平面且过点
Figure BSA0000151251930000033
的直线来定义坐标系
Figure BSA0000151251930000034
的yb轴,并且设置yb的方向与坐标系
Figure BSA0000151251930000035
的yc轴的方向一致。其中,
Figure BSA0000151251930000036
的原点是yb与zcxc平面的交点。
zcxc平面与特征平面的交线定义为xb轴。定义zb的方向与
Figure BSA0000151251930000037
相对于图像平面的方向相反。然后,通过标准右手规则定义xb轴的方向和zb轴。
基于坐标系
Figure BSA0000151251930000038
的定义,可以用极坐标表示移动机器人的当前位姿。
Figure BSA0000151251930000039
的原点和
Figure BSA00001512519300000310
的原点之间的距离标记为mc(t)。
Figure BSA00001512519300000311
Figure BSA00001512519300000312
下的旋转角度表示为θc(t),即移动机器人的朝向角。以φc(t)表示zb轴与从
Figure BSA00001512519300000313
Figure BSA00001512519300000314
的平移向量之间的角度,αc(t)表示zc轴与从
Figure BSA00001512519300000315
Figure BSA00001512519300000316
的平移向量之间的角度,因此αc(t)=φc(t)-θc(t)。此外,αc(t),φc(t),θc(t)的方向也被标记,并且在附图3中的角度为正值。因此,机器人的位姿可表示为(mc(t),αc(t),φc(t))。
第2.2,可测量信号
根据基准坐标系的定义,定义
Figure BSA00001512519300000317
Figure BSA00001512519300000318
Figure BSA00001512519300000319
下的坐标分别为:
Figure BSA00001512519300000320
利用移动机器人的平面运动约束,可知Y1 b=Y1 c且为恒值。
此外,相对于
Figure BSA00001512519300000321
在F0和Fc处捕获的图像分别为初始图像和当前图像。其中,
Figure BSA00001512519300000322
的当前图像坐标由
Figure BSA00001512519300000330
表示。
不失一般性,假设
Figure BSA00001512519300000323
在机器人运动平面的上方,即Y1 c<0。根据摄像机的成像原理,可得:
Figure BSA00001512519300000324
其中(u0,v0)为像素主点,f表示焦距,du,dv为单个像素块分别在xc,yc方向上的长度,经过变换得到:
Figure BSA00001512519300000325
其中fu,fv是以像素大小表示的焦距。由于缺乏场景深度,因而无法估计出mc(t),只能估计出比例意义下的值:
Figure BSA00001512519300000326
根据
Figure BSA00001512519300000327
在当前图像上的坐标,通过摄像机的成像原理可以直接计算得到αc(t):
Figure BSA00001512519300000328
通过当前和初始图像,可以计算出
Figure BSA0000151251930000041
Figure BSA0000151251930000042
之间的摄影单应矩阵G(t)为:
Figure BSA0000151251930000043
其中
Figure BSA0000151251930000044
分别是相对于
Figure BSA0000151251930000045
Figure BSA0000151251930000046
Figure BSA00001512519300000455
的齐次图像坐标,λi(t)是与深度比有关的系数,并定义G(t)为:
Figure BSA0000151251930000047
其中定义
Figure BSA0000151251930000048
为以
Figure BSA0000151251930000049
表示的特征平面的正单位矢量;K是校准摄像机内参数;
Figure BSA00001512519300000410
0Tc(t)分别是
Figure BSA00001512519300000411
相对于
Figure BSA00001512519300000412
的旋转矩阵和平移向量;
Figure BSA00001512519300000413
是从
Figure BSA00001512519300000414
的原点到沿着nc(t)的特征平面的未知距离。然后,nc(t)可以通过单应性分解算法来计算。
由于xb坐标轴定义为特征点平面与机器人运动平面相交线方向,可知nc(t)垂直于xb坐标轴,并且可知nc(t)在机器人运动平面zcxc的投影与zb坐标轴方向一致。进而可以计算出机器人的方向角θc(t)为:
Figure BSA00001512519300000415
然后,得到φc(t)为:
φc=αcc (9)
因此,可以得到比例意义下的机器人当前位姿
Figure BSA00001512519300000416
第3,临时坐标系的镇定
为将机器人镇定到临时坐标系
Figure BSA00001512519300000417
处,需要在
Figure BSA00001512519300000418
下定义
Figure BSA00001512519300000419
处对应的机器人位姿。此外,由于场景深度的缺失,设置
Figure BSA00001512519300000420
处的位姿为比例形式:
Figure BSA00001512519300000421
其中
Figure BSA00001512519300000422
要注意的是,设置
Figure BSA00001512519300000423
意味着使机器人运动到与
Figure BSA00001512519300000424
高度的某一比例值处。此外,设置αd1=0,φd1=0时表明机器人将正面面向特征平面,这对于探索未知目标是非常有实际意义的。
在本阶段中,首先求取
Figure BSA00001512519300000425
Figure BSA00001512519300000426
之间的极坐标关系。之后根据移动机器人的运动学方程,设计基于极坐标的镇定控制律。并根据并发学习策略,设计能辨识未知特征点高度Y1 c的自适应更新律。进而在将移动机器人从
Figure BSA00001512519300000427
镇定至
Figure BSA00001512519300000428
处的过程中,同时将特征点高度Y1 c辨识出。
第3.1,
Figure BSA00001512519300000429
Figure BSA00001512519300000430
下的极坐标表示
设置完
Figure BSA00001512519300000431
的位姿后,可以直接计算出
Figure BSA00001512519300000432
Figure BSA00001512519300000433
下的方向角为:θd1(t)=φd1(t)-αd1(t)。通过坐标变换律,利用
Figure BSA00001512519300000434
Figure BSA00001512519300000435
之间以及
Figure BSA00001512519300000436
Figure BSA00001512519300000437
之间的变换矩阵,可以得到
Figure BSA00001512519300000438
Figure BSA00001512519300000439
之间的变换矩阵
Figure BSA00001512519300000440
附图4显示了
Figure BSA00001512519300000441
Figure BSA00001512519300000442
之间的坐标变换关系,其中θd1c(t)表示
Figure BSA00001512519300000443
Figure BSA00001512519300000444
下的旋转角,图中的角度为负。φd1c(t)表示zd1轴与从
Figure BSA00001512519300000445
Figure BSA00001512519300000446
的平移向量之间的角度,图中的角度为正。αc(t)表示zc轴与从
Figure BSA00001512519300000447
Figure BSA00001512519300000448
的平移向量之间的角度,在图中为正值。
Figure BSA00001512519300000449
表示比例意义下的
Figure BSA00001512519300000450
原点与
Figure BSA00001512519300000451
原点之间的距离:
Figure BSA00001512519300000452
然后,根据如下公式,可以从
Figure BSA00001512519300000453
中提取θd1c(t),
Figure BSA00001512519300000454
和φd1c(t):
θd1c=θcd1 (11)
Figure BSA0000151251930000051
Figure BSA0000151251930000052
并且可以计算出αd1c(t):αd1c(t)=φd1c(t)-θd1c(t)。
因此,可测得
Figure BSA0000151251930000053
Figure BSA0000151251930000054
下的比例意义下极坐标
Figure BSA0000151251930000055
将其设置为阶段一的系统误差。
第3.2,建立机器人运动学方程
Figure BSA0000151251930000056
下,利用极坐标表示的移动机器人当前位姿(md1c(t),αd1c(t),φd1c(t))的运动学方程为:
Figure BSA0000151251930000057
其中vr(t)和ωr(t)分别代表机器人的线速度和角速度。
由于机器人位姿只能按比例的方式进行测量,所以可以在(10)带入(14)之后,得到移动机器人模型在比例意义下的运动学方程为:
Figure BSA0000151251930000058
易知,当
Figure BSA0000151251930000059
收敛至零时,移动机器人到达临时期望位姿
Figure BSA00001512519300000510
处。
第3.3,自适应控制律设计
为了实现位姿镇定的目标,通过基于李雅普诺夫的控制设计方法构建移动机器人的线速度和角速度如下:
Figure BSA00001512519300000511
Figure BSA00001512519300000512
其中km,kφ
Figure BSA00001512519300000513
为正控制增益,
Figure BSA00001512519300000514
表示特征高度Y1 c(t)的估值。由于sinαd1c(t)/αd1c(t)是有界的,因此没有奇异点。
根据并发学习方法,设计自适应更新律为:
Figure BSA00001512519300000515
其中
Figure BSA00001512519300000516
为更新增益。在式(18)中,
Figure BSA00001512519300000517
是一个正整数,表示控制系统启动阶段一之后的连续采样周期数,其中记录了系统数据,tk∈[0,t]是每个采样周期对应的时间点。
应该注意的是,由于在自适应更新律的并发学习方法中用到了N个采样周期中记录的数据,所以当使用滤波器时就可以得到
Figure BSA0000151251930000061
的精确估值。因此,可以显著提高参数估计的精度。
投影函数Proj{χ}定义为:
Figure BSA0000151251930000062
其中
Figure BSA0000151251930000063
是Y1 c的负下限。
首先,选取
Figure BSA0000151251930000064
的初值应小于
Figure BSA0000151251930000065
然后,从式(19)可知
Figure BSA0000151251930000066
最后,可以得出结论:
Figure BSA0000151251930000067
其中
Figure BSA0000151251930000068
表示为深度估计误差:
Figure BSA0000151251930000069
因此,可知当
Figure BSA00001512519300000610
趋于零时,成功识别特征高度。
定理1:当满足如下条件时,控制律(16)和(17)与参数更新律(18)一起将机器人镇定到临时期望位姿:
Figure BSA00001512519300000611
第4,期望位姿的镇定
在第一阶段后,移动机器人到达临时位姿
Figure BSA00001512519300000612
处,并且同时辨识特征高度Y1 c。因此,根据式(4),(5)和(9)可以得到移动机器人的全状态信息为:(mc(t),αc(t),φc(t))。
对于实际使用中,在笛卡尔坐标系下相对于
Figure BSA00001512519300000613
设置
Figure BSA00001512519300000614
的期望位姿为(bTd2zbTd2x,θd2),其中bTd2zbTd2x分别表示在
Figure BSA00001512519300000615
下的
Figure BSA00001512519300000616
原点的z轴和x轴坐标。
不失一般性,在此阶段中采用了基于极坐标的控制方法。其中,由(md2,αd2,φd2)表示
Figure BSA00001512519300000617
Figure BSA00001512519300000618
下的极坐标,并根据如下方式从(bTd2zbTd2x,θd2)中获得:
Figure BSA00001512519300000619
此外,与第3.2中的方法类似,(md2c(t),αd2c(t),φd2c(t))表示
Figure BSA00001512519300000620
Figure BSA00001512519300000621
下的极坐标。类似于(11)、(25)和(26),将其设置为阶段二的系统误差。然后,根据如下公式,可以从(mc(t),αc(t),φc(t))和(md2,αd2,φd2)中得到(md2c(t),αd2c(t),φd2c(t)):
θd2c=θcd2 (24)
Figure BSA00001512519300000622
Figure BSA00001512519300000623
并且可以计算出αd2c(t):αd2c(t)=φd2c(t)-θd2c(t)。
与(14)类似,在
Figure BSA00001512519300000624
下,移动机器人当前位姿(md2c(t),αd2c(t),φd2c(t))的运动学方程为:
Figure BSA0000151251930000071
并利用如下控制律将机器人镇定到期望位姿
Figure BSA0000151251930000072
处:
vr=kmmd2ccosαd2c (28)
Figure BSA0000151251930000073
其中系统误差(md2c(t),αd2c(t),φd2c(t))同时收敛至零。
本发明的优点和有益效果
本发明提供了一种移动机器人的无期望图像视觉伺服方法。本发明主要做出了以下几方面贡献:1.与采用视觉伺服示教模式的现有方法相比,该方案可以在没有预先记录期望图像的情况下将移动机器人镇定到期望位姿处,使移动机器人系统在非结构化场景中的运行变得更加智能可靠;2.当机器人被驱动到临时期望坐标系时,通过并发学习结构辨识特征高度,从而成功地学习了视觉目标模型,并通过视觉系统对外部环境有了很好的认识;3.为了代替期望图像,对视觉目标的所有坐标进行详细定义,为移动机器人定位和位姿镇定提供参考。
附图说明:
图1为无期望图视觉伺服任务的坐标系关系;
图2为视觉伺服策略框图;
图3为基准坐标系的定义;
图4为
Figure BSA0000151251930000074
Figure BSA0000151251930000075
之间的坐标变换;
图5为仿真结果:移动机器人的特征点和运动轨迹[加粗三角形:期望和临时期望位姿];
图6为仿真结果:机器人位姿的变化[实线:机器人位姿;虚线:期望位姿];
图7为仿真结果:由参数更新律(18)得到的
Figure BSA0000151251930000076
变化[实线:
Figure BSA0000151251930000077
的值;虚线:Y1 c(t)的真值];
图8表示实验结果:移动机器人的运动轨迹[加粗三角形:两个阶段的期望和临时期望位姿];
图9表示实验结果:机器人位姿的变化[实线:机器人位姿;虚线:期望值(0)];
图10表示实验结果:两个阶段的系统误差的变化[实线:误差值;虚线:期望值(0)];
图11表示实验结果:通过参数更新律得到的
Figure BSA0000151251930000078
的变化[实线:
Figure BSA0000151251930000079
的值;虚线:通过视觉估计算法计算的Y1 c];
图12表示实验结果:移动机器人的速度;
图13表示实验结果:特征点的图像轨迹[星点:阶段一的最终图像;方形点:阶段二的最终图像];
具体实施方式:
实施例1
第1,定义系统坐标系
第1.1,系统坐标系的描述
基于视觉目标定义了基准坐标系
Figure BSA00001512519300000710
设置摄像机与移动机器人的坐标系相重合,进而定义在当前位姿处的机器人/摄像机坐标系为
Figure BSA00001512519300000711
其中
Figure BSA00001512519300000712
的原点在摄像机的光心位置处,也即车轮轴线中心点的正上方;
Figure BSA0000151251930000081
的zc轴与摄像机光轴重合,同时也和机器人前进方向重合,xc轴和机器人轮轴平行;yc轴垂直于zcxc平面。定义
Figure BSA0000151251930000082
表示摄像机当前位姿坐标系。
Figure BSA0000151251930000083
表示未预先获取期望图的期望坐标系,为了便于控制开发,引入
Figure BSA0000151251930000084
表示比例意义下的临时坐标系。
第1.2,控制方案
根据坐标系定义,本文的目的是提出一种新颖的视觉伺服方案来驱动移动机器人,使坐标系
Figure BSA0000151251930000085
与坐标系
Figure BSA0000151251930000086
一致。附图2给出了所提供方案的框图。首先,利用视觉目标和平面运动约束来定义坐标系
Figure BSA0000151251930000087
然后利用当前和初始图像来计算相对于坐标系
Figure BSA0000151251930000088
的比例意义下的机器人位姿。
在阶段1中,首先为移动机器人的临时镇定设置比例意义下的期望位姿。然后通过极坐标系表示方法设计自适应调节控制器,以将机器人镇定至坐标系
Figure BSA0000151251930000089
处。接着,根据并发学习结构为特征高度辨识构建参数更新律。通过稳定性分析得以证明,在进行位姿调节时,能够同时确定特征高度。
在阶段2中,利用辨识特征高度来获取移动机器人的全状态信息。然后,采用基于极坐标的调节控制器来驱动机器人到
Figure BSA00001512519300000810
表示下的期望位姿处。
第2,构造系统模型
第2.1,基准坐标系的定义
基于视觉目标定义基准坐标系,其要求特征点
Figure BSA00001512519300000811
应该是共面的,如附图3所示。在不失一般性的情况下,选择
Figure BSA00001512519300000812
来表示参数特征点。利用垂直于机器人运动平面且过点
Figure BSA00001512519300000813
的直线来定义坐标系
Figure BSA00001512519300000814
的yb轴,并且设置yb的方向与坐标系
Figure BSA00001512519300000815
的yc轴的方向一致。其中,
Figure BSA00001512519300000816
的原点是yb与zcxc平面的交点。
zcxc平面与特征平面的交线定义为xb轴。定义zb的方向与
Figure BSA00001512519300000817
相对于图像平面的方向相反。然后,通过标准右手规则定义xb轴的方向和zb轴。
基于坐标系
Figure BSA00001512519300000818
的定义,可以用极坐标表示移动机器人的当前位姿。
Figure BSA00001512519300000819
的原点和
Figure BSA00001512519300000820
的原点之间的距离标记为mc(t)。
Figure BSA00001512519300000821
Figure BSA00001512519300000822
下的旋转角度表示为θc(t),即移动机器人的朝向角。以φc(t)表示zb轴与从
Figure BSA00001512519300000823
Figure BSA00001512519300000824
的平移向量之间的角度,αc(t)表示zc轴与从
Figure BSA00001512519300000825
Figure BSA00001512519300000826
的平移向量之间的角度,因此αc(t)=φc(t)-θc(t)。此外,αc(t),φc(t),θc(t)的方向也被标记,并且在附图3中的角度为正值。因此,机器人的位姿可表示为(mc(t),αc(t),φc(t))。
第2.2,可测量信号
根据基准坐标系的定义,定义
Figure BSA00001512519300000827
Figure BSA00001512519300000828
Figure BSA00001512519300000829
下的坐标分别为:
Figure BSA00001512519300000830
利用移动机器人的平面运动约束,可知Y1 b=Y1 c且为恒值。
此外,相对于
Figure BSA00001512519300000831
在F0和Fc处捕获的图像分别为初始图像和当前图像。其中,
Figure BSA00001512519300000832
的当前图像坐标由
Figure BSA00001512519300000835
表示。
不失一般性,假设
Figure BSA00001512519300000833
在机器人运动平面的上方,即Y1 c<0。根据摄像机的成像原理,可得:
Figure BSA00001512519300000834
其中(u0,v0)为像素主点,f表示焦距,du,dv为单个像素块分别在xc,yc方向上的长度,经过变换得到:
Figure BSA0000151251930000091
其中fu,fv是以像素大小表示的焦距。由于缺乏场景深度,因而无法估计出mc(t),只能估计出比例意义下的值:
Figure BSA0000151251930000092
根据
Figure BSA0000151251930000093
在当前图像上的坐标,通过摄像机的成像原理可以直接计算得到αc(t):
Figure BSA0000151251930000094
通过当前和初始图像,可以计算出
Figure BSA0000151251930000095
Figure BSA0000151251930000096
之间的摄影单应矩阵G(t)为:
Figure BSA0000151251930000097
其中
Figure BSA0000151251930000098
分别是相对于
Figure BSA0000151251930000099
Figure BSA00001512519300000910
Figure BSA00001512519300000911
的齐次图像坐标,λi(t)是与深度比有关的系数,并定义G(t)为:
Figure BSA00001512519300000912
其中定义
Figure BSA00001512519300000913
为以
Figure BSA00001512519300000914
表示的特征平面的正单位矢量;K是校准摄像机内参数;
Figure BSA00001512519300000915
0Tc(t)分别是
Figure BSA00001512519300000916
相对于
Figure BSA00001512519300000917
的旋转矩阵和平移向量;
Figure BSA00001512519300000918
是从
Figure BSA00001512519300000919
的原点到沿着nc(t)的特征平面的未知距离。然后,nc(t)可以通过单应性分解算法来计算。
由于xb坐标轴定义为特征点平面与机器人运动平面相交线方向,可知nc(t)垂直于xb坐标轴,并且可知nc(t)在机器人运动平面zcxc的投影与zb坐标轴方向一致。进而可以计算出机器人的方向角θc(t)为:
Figure BSA00001512519300000920
然后,得到φc(t)为:
φc=αcc (9)
因此,可以得到比例意义下的机器人当前位姿
Figure BSA00001512519300000921
第3,临时坐标系的镇定
为将机器人镇定到临时坐标系
Figure BSA00001512519300000922
处,需要在
Figure BSA00001512519300000923
下定义
Figure BSA00001512519300000924
处对应的机器人位姿。此 外,由于场景深度的缺失,设置
Figure BSA00001512519300000925
处的位姿为比例形式:
Figure BSA00001512519300000926
其中
Figure BSA00001512519300000927
要注意的是,设置
Figure BSA00001512519300000928
意味着使机器人运动到与
Figure BSA00001512519300000929
高度的某一比例值处。此外,设置αd1=0,φd1=0时表明机器人将正面面向特征平面,这对于探索未知目标是非常有实际意义的。
在本阶段中,首先求取
Figure BSA00001512519300000930
Figure BSA00001512519300000931
之间的极坐标关系。之后根据移动机器人的运动学方程,设计基于极坐标的镇定控制律。并根据并发学习策略,设计能辨识未知特征点高度Y1 c的自适应更新律。进而在将移动机器人从
Figure BSA00001512519300000932
镇定至
Figure BSA00001512519300000933
处的过程中,同时将特征点高度Y1 c辨识出。
第3.1,
Figure BSA0000151251930000101
Figure BSA0000151251930000102
下的极坐标表示
设置完
Figure BSA0000151251930000103
的位姿后,可以直接计算出
Figure BSA0000151251930000104
Figure BSA0000151251930000105
下的方向角为:θd1(t)=φd1(t)-αd1(t)。通过坐标变换律,利用
Figure BSA0000151251930000106
Figure BSA0000151251930000107
之间以及
Figure BSA0000151251930000108
Figure BSA0000151251930000109
之间的变换矩阵,可以得到
Figure BSA00001512519300001010
Figure BSA00001512519300001011
之间的变换矩阵
Figure BSA00001512519300001012
附图4显示了
Figure BSA00001512519300001013
Figure BSA00001512519300001014
之间的坐标变换关系,其中θd1c(t)表示
Figure BSA00001512519300001015
Figure BSA00001512519300001016
下的旋转角,图中的角度为负。φd1c(t)表示zd1轴与从
Figure BSA00001512519300001017
Figure BSA00001512519300001018
的平移向量之间的角度,图中的角度为正。αc(t)表示zc轴与从
Figure BSA00001512519300001019
Figure BSA00001512519300001020
的平移向量之间的角度,在图中为正值。
Figure BSA00001512519300001021
表示比例意义下的
Figure BSA00001512519300001022
原点与
Figure BSA00001512519300001023
原点之间的距离:
Figure BSA00001512519300001024
然后,根据如下公式,可以从
Figure BSA00001512519300001025
中提取θd1c(t),
Figure BSA00001512519300001026
和φd1c(t):
θd1c=θcd1 (11)
Figure BSA00001512519300001027
Figure BSA00001512519300001028
并且可以计算出αd1c(t):αd1c(t)=φd1c(t)-θd1c(t)。
因此,可测得
Figure BSA00001512519300001029
Figure BSA00001512519300001030
下的比例意义下极坐标
Figure BSA00001512519300001031
将其设置为阶段一的系统误差。
第3.2,建立机器人运动学方程
Figure BSA00001512519300001032
下,利用极坐标表示的移动机器人当前位姿(md1c(t),αd1c(t),φd1c(t))的运动学方程为:
Figure BSA00001512519300001033
其中vr(t)和ωr(t)分别代表机器人的线速度和角速度。
由于机器人位姿只能按比例的方式进行测量,所以可以在(10)带入(14)之后,得到移动机器人模型在比例意义下的运动学方程为:
Figure BSA00001512519300001034
易知,当
Figure BSA00001512519300001035
收敛至零时,移动机器人到达临时期望位姿
Figure BSA00001512519300001036
处。
第3.3,自适应控制律设计
为了实现位姿镇定的目标,通过基于李雅普诺夫的控制设计方法构建移动机器人的线速度和角速度如下:
Figure BSA00001512519300001037
Figure BSA00001512519300001038
其中km,kφ
Figure BSA0000151251930000111
为正控制增益,
Figure BSA0000151251930000112
表示特征高度Y1 c(t)的估值。由于sinαd1c(t)/αd1c(t)是有界的,因此没有奇异点。
根据并发学习方法,设计自适应更新律为:
Figure BSA0000151251930000113
其中
Figure BSA0000151251930000114
为更新增益。在式(18)中,
Figure BSA0000151251930000115
是一个正整数,表示控制系统启动阶段一之后的连续采样周期数,其中记录了系统数据,tk∈[0,t]是每个采样周期对应的时间点。
应该注意的是,由于在自适应更新律的并发学习方法中用到了N个采样周期中记录的数据,所以当使用滤波器时就可以得到
Figure BSA0000151251930000116
的精确估值。因此,可以显著提高参数估计的精度。
投影函数Proj{χ}定义为:
Figure BSA0000151251930000117
其中
Figure BSA0000151251930000118
是Y1 c的负下限。
首先,选取
Figure BSA0000151251930000119
的初值应小于
Figure BSA00001512519300001110
然后,从式(19)可知
Figure BSA00001512519300001111
最后,可以得出结论:
Figure BSA00001512519300001112
其中
Figure BSA00001512519300001113
表示为深度估计误差:
Figure BSA00001512519300001114
因此,可知当
Figure BSA00001512519300001115
趋于零时,成功识别特征高度。
定理1:当满足如下条件时,控制律(16)和(17)与参数更新律(18)一起将机器人镇定到临时期望位姿:
Figure BSA00001512519300001116
第4,定理1证明
本发明在此给出定理1的证明。
证明:首先定义Lyapunov候选函数为:
Figure BSA00001512519300001117
对上式关于时间求导有:
Figure BSA00001512519300001118
即控制律设计为:
Figure BSA00001512519300001119
根据并发学习方法,设计深度辨识的自适应更新律为:
Figure BSA00001512519300001120
其中定义了深度辨识误差为
Figure BSA0000151251930000121
其中Γ1
Figure BSA0000151251930000122
为更新增益,投影函数Proj[χ]定义为:
Figure BSA0000151251930000123
因而有
Figure BSA0000151251930000124
Figure BSA0000151251930000125
Figure BSA0000151251930000126
的上界,也就是说
Figure BSA0000151251930000127
的初值的选取要小于
Figure BSA0000151251930000128
进一步,可知:
Figure BSA0000151251930000129
在绝大多数情况下,上式处于“=”状态;符号>出现在Proj[χ]=0的情况。
将式(26)代入(24)可得:
Figure BSA00001512519300001210
将控制律代入,闭环误差方程可写为:
Figure BSA00001512519300001211
由于设计了投影函数,因而可以保证
Figure BSA00001512519300001233
因此根据式(29)可知V(t)是有界的,即可知
Figure BSA00001512519300001212
αd1c,φd1c
Figure BSA00001512519300001213
进而根据式(25)可知vr,ωr
Figure BSA00001512519300001214
定义
Figure BSA00001512519300001215
时对应的集合为:
Figure BSA00001512519300001216
根据式(29)可知当
Figure BSA00001512519300001217
时αd1c=0,
Figure BSA00001512519300001218
继而可知
Figure BSA00001512519300001219
根据(26)可知
Figure BSA00001512519300001220
进而
Figure BSA00001512519300001221
之后将这些为0的项代入(30)的第二项,可得Y1 ckekφφd1c=0,因此可以得到φd1c=0。
因此可知Θ中的最大不变集M为
Figure BSA00001512519300001222
因此根据拉塞尔不变性原理,可知
Figure BSA00001512519300001223
αd1c,φd1c
Figure BSA00001512519300001224
第5,期望位姿的镇定
在第一阶段后,移动机器人到达临时位姿
Figure BSA00001512519300001225
处,并且同时辨识特征高度Y1 c。因此,根据式(4),(5)和(9)可以得到移动机器人的全状态信息为:(mc(t),αc(t),φc(t))。
对于实际使用中,在笛卡尔坐标系下相对于
Figure BSA00001512519300001226
设置
Figure BSA00001512519300001227
的期望位姿为(bTd2zbTd2x,θd2),其中bTd2zbTd2x分别表示在
Figure BSA00001512519300001228
下的
Figure BSA00001512519300001229
原点的z轴和x轴坐标。
不失一般性,在此阶段中采用了基于极坐标的控制方法。其中,由(md2,αd2,φd2)表示
Figure BSA00001512519300001230
Figure BSA00001512519300001231
下的极坐标,并根据如下方式从(bTd2zbTd2x,θd2)中获得:
Figure BSA00001512519300001232
此外,与第3.2中的方法类似,(md2c(t),αd2c(t),φd2c(t))表示
Figure BSA0000151251930000131
Figure BSA0000151251930000132
下的极坐标。类似于(11)、(33)和(34),将其设置为阶段二中的系统误差。然后,根据如下公式,可以从(mc(t),αc(t),φc(t))和(md2,αd2,φd2)中得到(md2c(t),αd2c(t),φd2c(t)):
θd2c=θcd2 (32)
Figure BSA0000151251930000133
Figure BSA0000151251930000134
并且可以计算出αd2c(t):αd2c(t)=φd2c(t)-θd2c(t)。
与(14)类似,在
Figure BSA00001512519300001315
下,移动机器人当前位姿(md2c(t),αd2c(t),φd2c(t))的运动学方程为:
Figure BSA0000151251930000135
并利用如下控制律将机器人镇定到期望位姿
Figure BSA0000151251930000136
处:
vr=kmmd2ccosαd2c (36)
Figure BSA0000151251930000137
其中系统误差(md2c(t),αd2c(t),φd2c(t))同时收敛至零。
第6,仿真和实验结果
第6.1,仿真结果
在这部分中,本发明提供了仿真结果来验证所提出的方法的性能。首先,随机设置四个平面特征点,并将
Figure BSA00001512519300001316
的高度设置为-0.42m。其次,虚拟摄像机的内参数设置与后续实验中使用的相同:fu=1003.7,fv=1006.3,u0=376.9,v0=285.3。
对应于基准坐标系,设置期望位姿为(bTd2zbTd2x,θd2)=(-1.6m,0.1m,0°),且将移动机器人的初始位姿设置为(bT0zbT0x,θ0)=(-6.5m,-0.8m,27°)。在极坐标中设置临时期望位姿为
Figure BSA0000151251930000138
此外,加入标准差为σ=0.15的图像噪音来测试控制器的稳定性和特征高度辨识的抗干扰能力。
设置控制参数为km=0.1,kα=0.4,kφ=2,Γ1=3,Γ2=0.001。随机选取
Figure BSA0000151251930000139
为-0.1m,并且将
Figure BSA00001512519300001310
设置为-1.0m。在阶段一中,设置N为100,即前100个采样周期所记录的数据。然后,采用三次多项式函数拟合
Figure BSA00001512519300001311
通过这种方式来抑制干扰,并根据对三次多项式关于时间求导得到
Figure BSA00001512519300001312
的精确估计。
图5给出了移动机器人在笛卡尔空间中的运动路径结果,其中加粗三角形分别表示期望位姿和临时位姿。其特征点也在该图中示出,其中利用圆点作为参考。可以看出机器人有效地移动到期望位姿处,并且路径在两个阶段中都非常平滑。图6表示机器人当前位姿(bTcz(t),bTcx(t),θc(t))的变化,其中虚线表示期望坐标系
Figure BSA00001512519300001313
处的位姿。并且,已知两阶段的稳态误差都足够小。此外,图7中给出了阶段一中特征高度
Figure BSA00001512519300001314
的估算。可以看出,特征高度估计会迅速收敛至其真实值,并且具有足够小的稳态误差,这意味着已成功辨识Y1 c
第6.2,实验结果
在这部分中,本发明给出了实验结果以验证设计方案的性能,其中采用了携带CCD照相机的Pioneer3-DX移动机器人以及在两个正方形的共顶点处的四个特征平面。整个方案是通过使用Visual Studio环境和OpenCV库实现的。采样频率为50Hz,满足视觉伺服任务的实时性要求。
将移动机器人的期望位姿设置为(bTd2zbTd2x,θd2)=(-1.1m,0m,0°),并且初始位姿随机设置在(bT0zbT0x,θ0)=(-3.6m,1.1m,26°)处。将临时期望位姿设置为
Figure BSA0000151251930000141
选择控制参数为km=0.4,kα=0.2,kφ=1,Γ1=4,Γ2=0.001。记录数据和拟合
Figure BSA0000151251930000142
的方式与模拟部分相同。
图8表示移动机器人两个阶段的混合路径。图9表示机器人当前位姿(bTcz(t),bTcx(t),θc(t))的变化。图10表示阶段一中的系统误差和阶段二中的md2c(t)。可以看出,机器人以较小的稳态误差通过高效的路径到达期望和临时期望位姿。
此外,为了测试特征高度辨识的精度,本发明根据初始和当前图像信息以及某些特征点之间的已知度量距离来计算Y1 c的真实值。由于
Figure BSA0000151251930000143
Figure BSA0000151251930000144
之间的距离足够大,Y1 c的计算在阶段一的最后几秒内更准确。图11给出了
Figure BSA0000151251930000145
的变化,其中虚线表示Y1 c的计算值。因此,可以看出,特征高度的估值
Figure BSA0000151251930000146
迅速收敛到其真实值Y1 c,并且稳态估计误差足够小。
图12表示移动机器人的速度。图13表示特征点的图像轨迹,其中圆点表示初始图像中提取的特征点,星形表示阶段一中的最终图像,正方形是阶段二中的最终图像。
可以得出结论,这个实验设备适合于探索未知物体,在这种意义上,首先将机器人镇定到相对于目标物体粗略设置的比例意义下的位姿,然后将机器人镇定到易于观察的离目标物体更近的精确的位姿。

Claims (1)

1.一种移动机器人的无期望图像视觉伺服方法,其特征在于包括以下步骤:
第1,定义系统坐标系
第1.1,系统坐标系的描述
基于视觉目标定义了基准坐标系
Figure FSB0000192632320000011
设置摄像机与移动机器人的坐标系相重合,进而定义在当前位姿处的机器人/摄像机坐标系为
Figure FSB0000192632320000012
其中
Figure FSB0000192632320000013
的原点在摄像机的光心位置处,也即车轮轴线中心点的正上方;
Figure FSB0000192632320000014
的zc轴与摄像机光轴重合,同时也和机器人前进方向重合,xc轴和机器人轮轴平行;yc轴垂直于zcxc平面;定义
Figure FSB0000192632320000015
表示摄像机当前位姿坐标系;
Figure FSB0000192632320000016
表示未预先获取期望图的期望坐标系,为了便于控制开发,引入
Figure FSB0000192632320000017
表示比例意义下的临时坐标系;
第1.2,控制方案
根据坐标系定义,使坐标系
Figure FSB0000192632320000018
与坐标系
Figure FSB0000192632320000019
一致,首先利用视觉目标和平面运动约束来定义坐标系
Figure FSB00001926323200000110
然后利用当前和初始图像来计算相对于坐标系
Figure FSB00001926323200000111
的比例意义下的机器人位姿;
在阶段1中,首先为移动机器人的临时镇定设置比例意义下的期望位姿;然后通过极坐标系表示方法设计自适应调节控制器,以将机器人镇定至坐标系
Figure FSB00001926323200000112
处;接着,根据并发学习结构为特征高度辨识构建参数更新律;通过稳定性分析得以证明,在进行位姿调节时,能够同时确定特征高度;
在阶段2中,利用辨识特征高度来获取移动机器人的全状态信息;然后,采用基于极坐标的调节控制器来驱动机器人到
Figure FSB00001926323200000113
表示下的期望位姿处;
第2,构造系统模型
第2.1,基准坐标系的定义
基于视觉目标定义基准坐标系,其要求特征点
Figure FSB00001926323200000114
应该是共面的;在不失一般性的情况下,选择
Figure FSB00001926323200000115
来表示参数特征点;利用垂直于机器人运动平面且过点
Figure FSB00001926323200000116
的直线来定义坐标系
Figure FSB00001926323200000117
的yb轴,并且设置yb的方向与坐标系
Figure FSB00001926323200000118
的yc轴的方向一致;其中,
Figure FSB00001926323200000119
的原点是yb与zcxc平面的交点;
zcxc平面与特征平面的交线定义为xb轴;定义zb的方向与
Figure FSB00001926323200000120
相对于图像平面的方向相反;然后,通过标准右手规则定义xb轴的方向和zb轴;
基于坐标系
Figure FSB00001926323200000121
的定义,可以用极坐标表示移动机器人的当前位姿;
Figure FSB00001926323200000122
的原点和
Figure FSB00001926323200000123
的原点之间的距离标记为mc(t)(为了方便表述,对某一符号X,若其表示变量,在正文中出现时用X(t)表示,在带编号公式中出现时略去时间符号用X表示,这两种情况下所表达的含义相同);
Figure FSB00001926323200000124
Figure FSB00001926323200000125
下的旋转角度表示为θc(t),即移动机器人的朝向角;以φc(t)表示zb轴与从
Figure FSB00001926323200000126
Figure FSB00001926323200000127
的平移向量之间的角度,αc(t)表示zc轴与从
Figure FSB00001926323200000128
Figure FSB00001926323200000129
的平移向量之间的角度,因此αc(t)=φc(t)-θc(t);因此,机器人的位姿可表示为(mc(t),αc(t),φc(t));
第2.2,可测量信号
根据基准坐标系的定义,定义
Figure FSB00001926323200000130
Figure FSB00001926323200000131
Figure FSB00001926323200000132
下的坐标分别为:
Figure FSB00001926323200000133
利用移动机器人的平面运动约束,可知Y1 b=Y1 c且为恒值;
此外,相对于
Figure FSB0000192632320000021
在F0和Fc处捕获的图像分别为初始图像和当前图像;其中,
Figure FSB0000192632320000022
的当前图像坐标由
Figure FSB0000192632320000023
表示;
不失一般性,假设
Figure FSB0000192632320000024
在机器人运动平面的上方,即Y1 c<0;根据摄像机的成像原理,可得:
Figure FSB0000192632320000025
其中(u0,v0)为像素主点,f表示焦距,du,dv为单个像素块分别在xc,yc方向上的长度,经过变换得到:
Figure FSB0000192632320000026
其中fu,fv是以像素大小表示的焦距;由于缺乏场景深度,因而无法估计出mc(t),只能估计出比例意义下的值:
Figure FSB0000192632320000027
根据
Figure FSB0000192632320000028
在当前图像上的坐标,通过摄像机的成像原理可以直接计算得到αc(t):
Figure FSB0000192632320000029
通过当前和初始图像,可以计算出
Figure FSB00001926323200000210
Figure FSB00001926323200000211
之间的摄影单应矩阵G(t)为:
Figure FSB00001926323200000212
其中
Figure FSB00001926323200000213
分别是相对于
Figure FSB00001926323200000214
Figure FSB00001926323200000215
Figure FSB00001926323200000216
的齐次图像坐标,λi(t)是与深度比有关的系数,并定义G(t)为:
Figure FSB00001926323200000217
其中定义
Figure FSB00001926323200000218
为以
Figure FSB00001926323200000219
表示的特征平面的正单位矢量;K是校准摄像机内参数;
Figure FSB00001926323200000220
0Tc(t)分别是
Figure FSB00001926323200000221
相对于
Figure FSB00001926323200000222
的旋转矩阵和平移向量;
Figure FSB00001926323200000223
是从
Figure FSB00001926323200000224
的原点到沿着nc(t)的特征平面的未知距离;然后,nc(t)可以通过单应性分解算法来计算;
由于xb坐标轴定义为特征点平面与机器人运动平面相交线方向,可知nc(t)垂直于xb坐标轴,并且可知nc(t)在机器人运动平面zcxc的投影与zb坐标轴方向一致;进而可以计算出机器人的方向角θc(t)为:
Figure FSB00001926323200000225
然后,得到φc(t)为:
φc=αcc (9)
因此,可以得到比例意义下的机器人当前位姿
Figure FSB00001926323200000226
第3,临时坐标系的镇定
为将机器人镇定到临时坐标系
Figure FSB00001926323200000227
处,需要在
Figure FSB00001926323200000228
下定义
Figure FSB00001926323200000229
处对应的机器人位姿;此外,由于场景深度的缺失,设置
Figure FSB00001926323200000230
处的位姿为比例形式:
Figure FSB00001926323200000231
其中
Figure FSB00001926323200000232
要注意的是,设置
Figure FSB0000192632320000031
意味着使机器人运动到与
Figure FSB0000192632320000032
高度的某一比例值处;此外,设置αd1=0,φd1=0时表明机器人将正面面向特征平面;
在本阶段中,首先求取
Figure FSB0000192632320000033
Figure FSB0000192632320000034
之间的极坐标关系;之后根据移动机器人的运动学方程,设计基于极坐标的镇定控制律;并根据并发学习策略,设计能辨识未知特征点高度Y1 c的自适应更新律;进而在将移动机器人从
Figure FSB0000192632320000035
镇定至
Figure FSB0000192632320000036
处的过程中,同时将特征点高度Y1 c辨识出;
第3.1,
Figure FSB0000192632320000037
Figure FSB0000192632320000038
下的极坐标表示
设置完
Figure FSB0000192632320000039
的位姿后,可以直接计算出
Figure FSB00001926323200000310
Figure FSB00001926323200000311
下的方向角为:
θd1(t)=φd1(t)-αd1(t);通过坐标变换律,利用
Figure FSB00001926323200000312
Figure FSB00001926323200000313
之间以及
Figure FSB00001926323200000314
Figure FSB00001926323200000315
之间的变换矩阵,可以得到
Figure FSB00001926323200000316
Figure FSB00001926323200000317
之间的变换矩阵
Figure FSB00001926323200000318
θd1c(t)表示
Figure FSB00001926323200000319
Figure FSB00001926323200000320
下的旋转角,φd1c(t)表示zd1轴与从
Figure FSB00001926323200000321
Figure FSB00001926323200000322
的平移向量之间的角度,αc(t)表示zc轴与从
Figure FSB00001926323200000323
Figure FSB00001926323200000324
的平移向量之间的角度,
Figure FSB00001926323200000325
表示比例意义下的
Figure FSB00001926323200000326
原点与
Figure FSB00001926323200000327
原点之间的距离:
Figure FSB00001926323200000328
然后,根据如下公式,可以从
Figure FSB00001926323200000329
中提取θd1c(t),
Figure FSB00001926323200000330
和φd1c(t):
θd1c=θcd1 (11)
Figure FSB00001926323200000331
Figure FSB00001926323200000332
并且可以计算出αd1c(t):αd1c(t)=φd1c(t)-θd1c(t);
因此,可测得
Figure FSB00001926323200000333
Figure FSB00001926323200000334
下的比例意义下极坐标
Figure FSB00001926323200000335
将其设置为阶段一的系统误差;
第3.2,建立机器人运动学方程
Figure FSB00001926323200000336
下,利用极坐标表示的移动机器人当前位姿(md1c(t),αd1c(t),φd1c(t))的运动学方程为:
Figure FSB00001926323200000337
其中vr(t)和ωr(t)分别代表机器人的线速度和角速度;
由于机器人位姿只能按比例的方式进行测量,所以可以在式(10)带入式(14)之后,得到移动机器人模型在比例意义下的运动学方程为:
Figure FSB00001926323200000338
易知,当
Figure FSB00001926323200000339
收敛至零时,移动机器人到达临时期望位姿
Figure FSB00001926323200000340
处;
第3.3,自适应控制律设计
为了实现位姿镇定的目标,通过基于李雅普诺夫的控制设计方法构建移动机器人的线速度和角速度如下:
Figure FSB0000192632320000041
Figure FSB0000192632320000042
其中km,kφ
Figure FSB0000192632320000043
为正控制增益,
Figure FSB0000192632320000044
表示特征高度Y1 c(t)的估值;由于sinαd1c(t)/αd1c(t)是有界的,因此没有奇异点;
根据并发学习方法,设计自适应更新律为:
Figure FSB0000192632320000045
其中
Figure FSB0000192632320000046
为更新增益;在式(18)中,
Figure FSB0000192632320000047
是一个正整数,表示控制系统启动阶段一之后的连续采样周期数,其中记录了系统数据,tk∈[0,t]是每个采样周期对应的时间点;
应该注意的是,由于在自适应更新律的并发学习方法中用到了N个采样周期中记录的数据,所以当使用滤波器时就可以得到
Figure FSB0000192632320000048
的精确估值;
投影函数Proj{χ}定义为:
Figure FSB0000192632320000049
其中
Figure FSB00001926323200000410
是Y1 c的负上限;
首先,选取
Figure FSB00001926323200000411
的初值应小于
Figure FSB00001926323200000412
然后,从式(19)可知
Figure FSB00001926323200000413
最后,可以得出结论:
Figure FSB00001926323200000414
其中
Figure FSB00001926323200000415
表示为深度估计误差:
Figure FSB00001926323200000416
因此,可知当
Figure FSB00001926323200000417
趋于零时,成功识别特征高度;
当满足如下条件时,控制律式(16)和式(17)与参数更新律式(18)一起将机器人镇定到临时期望位姿:
Figure FSB00001926323200000418
第4,期望位姿的镇定
在第一阶段后,移动机器人到达临时位姿
Figure FSB00001926323200000419
处,并且同时辨识特征高度Y1 c;因此,根据式(4),式(5)和式(9)可以得到移动机器人的全状态信息为:
(mc(t),αc(t),φc(t));
对于实际使用中,在笛卡尔坐标系下相对于
Figure FSB00001926323200000420
设置
Figure FSB00001926323200000421
的期望位姿为(bTd2zbTd2x,θd2),其中bTd2zbTd2x分别表示在
Figure FSB00001926323200000422
下的
Figure FSB00001926323200000423
原点的z轴和x轴坐标;
不失一般性,在此阶段中采用了基于极坐标的控制方法;其中,由(md2,αd2,φd2)表示
Figure FSB00001926323200000424
Figure FSB00001926323200000425
下的极坐标,并根据如下方式从(bTd2zbTd2x,θd2)中获得:
Figure FSB0000192632320000051
此外,与第3.2中的方法类似,(md2c(t),αd2c(t),φd2c(t))表示
Figure FSB0000192632320000052
Figure FSB0000192632320000053
下的极坐标;类似于式(11)、式(25)和式(26),将其设置为阶段二的系统误差;然后,根据如下公式,可以从(mc(t),αc(t),φc(t))和(md2,αd2,φd2)中得到(md2c(t),αd2c(t),φd2c(t)):
θd2c=θcd2 (24)
Figure FSB0000192632320000054
Figure FSB0000192632320000055
并且可以计算出αd2c(t):αd2c(t)=φd2c(t)-θd2c(t);
与式(14)类似,在
Figure FSB0000192632320000056
下,移动机器人当前位姿(md2c(t),αd2c(t),φd2c(t))的运动学方程为:
Figure FSB0000192632320000057
并利用如下控制律将机器人镇定到期望位姿
Figure FSB0000192632320000058
处:
vr=kmmd2ccosαd2c (28)
Figure FSB0000192632320000059
其中系统误差(md2c(t),αd2c(t),φd2c(t))同时收敛至零。
CN201710885886.6A 2017-09-21 2017-09-21 无期望图像的移动机器人视觉镇定控制 Active CN109542094B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710885886.6A CN109542094B (zh) 2017-09-21 2017-09-21 无期望图像的移动机器人视觉镇定控制

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710885886.6A CN109542094B (zh) 2017-09-21 2017-09-21 无期望图像的移动机器人视觉镇定控制

Publications (2)

Publication Number Publication Date
CN109542094A CN109542094A (zh) 2019-03-29
CN109542094B true CN109542094B (zh) 2021-06-08

Family

ID=65830739

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710885886.6A Active CN109542094B (zh) 2017-09-21 2017-09-21 无期望图像的移动机器人视觉镇定控制

Country Status (1)

Country Link
CN (1) CN109542094B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112123370B (zh) * 2019-06-24 2024-02-06 内蒙古汇栋科技有限公司 期望位姿变动的移动机器人视觉镇定控制
CN112363528B (zh) * 2020-10-15 2022-06-14 北京理工大学 基于机载视觉的无人机抗干扰集群编队控制方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102855620A (zh) * 2012-07-13 2013-01-02 南开大学 基于球形投影模型的纯旋转摄像机自标定方法
US9146561B2 (en) * 2013-12-03 2015-09-29 King Fahd University Of Petroleum And Minerals Robotic leader-follower navigation and fleet management control method
CN104950893A (zh) * 2015-06-26 2015-09-30 浙江大学 基于单应性矩阵的最短路径视觉伺服控制方法
CN106774309A (zh) * 2016-12-01 2017-05-31 天津工业大学 一种移动机器人同时视觉伺服与自适应深度辨识方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102855620A (zh) * 2012-07-13 2013-01-02 南开大学 基于球形投影模型的纯旋转摄像机自标定方法
US9146561B2 (en) * 2013-12-03 2015-09-29 King Fahd University Of Petroleum And Minerals Robotic leader-follower navigation and fleet management control method
CN104950893A (zh) * 2015-06-26 2015-09-30 浙江大学 基于单应性矩阵的最短路径视觉伺服控制方法
CN106774309A (zh) * 2016-12-01 2017-05-31 天津工业大学 一种移动机器人同时视觉伺服与自适应深度辨识方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Image Feature based Navigation of Nonholonomic;Satoshi Komada等;《The International Federation of Automatic Control》;20081231;全文 *
移动机器人主动视觉伺服技术研究;刘玺;《中国优秀硕士学位论文全文数据库 信息科技辑》;20110115;全文 *

Also Published As

Publication number Publication date
CN109542094A (zh) 2019-03-29

Similar Documents

Publication Publication Date Title
Piepmeier et al. Uncalibrated eye-in-hand visual servoing
Zhang et al. Acceleration-level pseudo-dynamic visual servoing of mobile robots with backstepping and dynamic surface control
Qiu et al. Visual servo tracking of wheeled mobile robots with unknown extrinsic parameters
Li et al. Visual servo regulation of wheeled mobile robots with simultaneous depth identification
Chen et al. Adaptive homography-based visual servo tracking for a fixed camera configuration with a camera-in-hand extension
Sun et al. A review of robot control with visual servoing
Li et al. Visual servoing of wheeled mobile robots without desired images
WO2015058297A1 (en) Image-based trajectory robot programming planning approach
Husain et al. Realtime tracking and grasping of a moving object from range video
CN110722533B (zh) 轮式移动机器人外参数无标定视觉伺服跟踪
Silveira On intensity-based nonmetric visual servoing
Roveda et al. A control framework definition to overcome position/interaction dynamics uncertainties in force-controlled tasks
CN115351780A (zh) 用于控制机器人设备的方法
CN109542094B (zh) 无期望图像的移动机器人视觉镇定控制
Qiu et al. Concurrent-learning-based visual servo tracking and scene identification of mobile robots
Fried et al. Uncalibrated image-based visual servoing approach for translational trajectory tracking with an uncertain robot manipulator
Fahimi et al. An alternative closed-loop vision-based control approach for Unmanned Aircraft Systems with application to a quadrotor
Toro-Arcila et al. Visual path following with obstacle avoidance for quadcopters in indoor environments
Copot et al. Image-based and fractional-order control for mechatronic systems
Mohebbi et al. An eye-in-hand stereo visual servoing for tracking and catching moving objects
Jia et al. Switched visual servo control of nonholonomic mobile robots with field-of-view constraints based on homography
Dirik et al. Visual servoing based control methods for non-holonomic mobile robot
CN110722547B (zh) 模型未知动态场景下移动机器人视觉镇定
Cao et al. Adaptive dynamic surface control for vision-based stabilization of an uncertain electrically driven nonholonomic mobile robot
Cong Combination of two visual servoing techniques in contour following task

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant