CN114721275A - 一种基于预设性能的视觉伺服机器人自适应跟踪控制方法 - Google Patents

一种基于预设性能的视觉伺服机器人自适应跟踪控制方法 Download PDF

Info

Publication number
CN114721275A
CN114721275A CN202210516914.8A CN202210516914A CN114721275A CN 114721275 A CN114721275 A CN 114721275A CN 202210516914 A CN202210516914 A CN 202210516914A CN 114721275 A CN114721275 A CN 114721275A
Authority
CN
China
Prior art keywords
coordinate system
tracking
mobile robot
coordinates
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210516914.8A
Other languages
English (en)
Other versions
CN114721275B (zh
Inventor
王薇
钱瑞
于孟择
高庆
马鸣霄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN202210516914.8A priority Critical patent/CN114721275B/zh
Publication of CN114721275A publication Critical patent/CN114721275A/zh
Application granted granted Critical
Publication of CN114721275B publication Critical patent/CN114721275B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/04Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
    • G05B13/042Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators in which a parameter or coefficient is automatically adjusted to optimise the performance

Abstract

本发明涉及视觉伺服机器人控制领域,提供了一种基于预设性能的视觉伺服机器人自适应跟踪控制方法。该方法包括:建立双轮移动机器人的运动模型和运动目标与双轮移动机器人之间的相对运动模型;基于运动目标与双轮移动机器人之间的相对运动模型,提出有限时间自适应调整的预设性能函数,获得角度跟踪误差的上界,保证跟踪过程中运动目标始终保持在相机的视场范围内。本发明保证了控制系统的超调量、收敛速度和稳态误差等性能指标满足预设要;提高跟踪算法的鲁棒性,保证控制系统的稳定运行;实现对于运动目标的线速度与角速度实时估计,扩大了视觉伺服的应用范围。

Description

一种基于预设性能的视觉伺服机器人自适应跟踪控制方法
技术领域
本发明涉及视觉伺服机器人控制领域,尤其涉及一种基于预设性能的视觉伺服机器人自适应跟踪控制方法。
背景技术
近年来,随着计算机视觉和人工智能的快速发展,视觉系统在移动机器人研究中得到了广泛的应用。基于视觉的移动机器人跟踪控制也成为计算机视觉、机器人等学科领域的研究热点。视觉传感器作为移动机器人的眼睛,可以获取丰富的环境和目标信息,如形状、颜色、纹理、位置等,以便完成很多具有挑战性和应用前景的任务,比如定位与导航、目标跟踪、路径规划、避障和人机交互等。当车载相机为唯一传感器时,动态目标的速度难以直接测量。例如,公开号为CN108839026A的中国发明专利申请提出了一种移动机器人视觉伺服跟踪预测控制方法,有效解决具有输入约束的移动机器人视觉伺服跟踪预测控制方法。公开号为CN110154036A的中国发明专利申请提出了一种视觉动态系统下的室内服务机器人控制器设计方法及系统,提高了收敛速度,使得机器人能够更快速准确地实现跟踪任务。公开号为CN110883770A的中国发明专利申请提出了一种基于位置和图像的机器人混合视觉伺服控制方法,具有良好的轨迹精度和可控的轨迹,可以广泛应用基于视觉的机器人控制。
由于车载相机的视角约束,视觉伺服首先要解决的问题是如何保证目标始终在相机的可见范围内。如果目标逃出相机视场范围,就会导致跟踪任务失败。以往大多数相关研究工作重点关注的是视觉跟踪算法的设计,而运动控制方面仅仅使用简单的PID 控制器、模糊控制器或者一些逻辑规则来完成驱动任务。目前国内外对于视觉伺服控制往往只考虑了稳态性能问题,并未考虑机器人的建模问题、运动约束、外部干扰和不确定性等因素,也没有从理论上分析和证明控制器的可行性。此外,轮式移动机器人是一个典型的含非完整约束系统,存在欠驱动、非线性、参数不确定性等问题。
发明内容
有鉴于此,本发明提供了一种基于预设性能的视觉伺服机器人自适应跟踪控制方法,以解决现有技术中轮式移动机器人跟踪过程存在欠驱动、非线性、参数不确定性的问题。
本发明提供了一种基于预设性能的视觉伺服机器人自适应跟踪控制方法,具体包括以下步骤:
S1建立双轮移动机器人的运动模型和运动目标与所述双轮移动机器人之间的相对运动模型;
S11基于所述双轮移动机器人的质心在世界坐标系中的位置坐标、所述双轮移动机器人的航向角、线速度和角速度,建立所述双轮移动机器人的运动学模型;
S12基于所述双轮移动机器人的运动学模型,根据所述世界坐标系和相机坐标系之间的坐标转换公式,获得运动目标在相机坐标系下的坐标和运动目标与所述双轮移动机器人之间的相对运动模型;
S2 基于所述运动目标与所述双轮移动机器人之间的相对运动模型,提出有限时间自适应调整的预设性能函数,获得角度跟踪误差的上界,保证跟踪过程中运动目标始终保持在相机的视场范围内;
S21引入横截函数和辅助变量,并获得角度跟踪误差和跟踪误差动态系统方程;
S22基于获得的角度跟踪误差和跟踪误差动态系统方程,引入有限时间自适应调整的预设性能函数作为所述角度跟踪误差的上界,并基于障碍李雅普诺夫函数获得对所述运动目标的线速度和角速度的估计的自适应律,保证跟踪过程中运动目标始终保持在相机的视场范围内。
进一步地,所述S12中,
所述双轮移动机器人的运动学模型的表达式如下:
Figure 336544DEST_PATH_IMAGE001
其中,x表示双轮移动机器人的质心在世界坐标系中沿x轴的坐标,y表示双轮移动机器人的质心在世界坐标系中沿y轴的坐标,θ为双轮移动机器人在世界坐标系中的航向角,vω分别为双轮移动机器人在世界坐标系中的线速度和角速度,
Figure 439629DEST_PATH_IMAGE002
分别表示x、 y、θ的导数;
根据所述世界坐标系与所述相机坐标系之间的坐标变换的表达式如下:
Figure 474581DEST_PATH_IMAGE003
其中,(x t ,y t )表示运动目标在世界坐标系{XOY}平面中的位置坐标,x t 表示运动目标在世界坐标系{XOY}平面中沿x轴的坐标,y t 表示运动目标在世界坐标系{XOY}平面中沿y轴的坐标,g表示运动目标在世界坐标系中的航向角,x c 表示运动目标在相机坐标系中沿x轴的坐标,y c 表示运动目标在相机坐标系中沿y轴的坐标,t表示时间,Φ c 为运动目标在相机坐标系中的航向角,Φ c 由下式求得:
Figure 478047DEST_PATH_IMAGE004
其中,(x 0 ,y 0 )为运动目标左侧的一个固定点P0在相机坐标系中的坐标,x 0 表示P0在相机坐标系中沿x轴的坐标,y 0 表示P0在相机坐标系中沿y轴的坐标;对所述坐标转换的表达式的两端分别求导可得视觉跟踪系统的相对运动模型的表达式如下:
Figure 573042DEST_PATH_IMAGE005
其中,v r ω r 分别为运动目标在世界坐标系中的线速度和角速度,
Figure 694582DEST_PATH_IMAGE006
分别为x c y c Φ c 的导数。
进一步地,所述运动目标在相机坐标系中的坐标的获得,包括:
用针孔模型将运动目标从相机坐标系中的坐标点映射到二维图像平面表达式如下:
Figure 267646DEST_PATH_IMAGE007
其中,(x c ,y c ,z c )表示运动目标在相机坐标系中的三维坐标,f为相机的焦距,(α, β)代表运动目标在二维图像平面的中心图像坐标,z c 为运动目标高度;
Figure 892662DEST_PATH_IMAGE008
进一步地,S21包括:
引入横截函数f i 和辅助变量ξ,构造辅助系统的表达式如下:
Figure 158558DEST_PATH_IMAGE009
其中,
Figure 501815DEST_PATH_IMAGE010
为转换矩阵,Φ表示变换后的航向角;f i ,i=1,2,3表示横截函数,其表达式如下:
Figure 144149DEST_PATH_IMAGE011
其中,
Figure 623672DEST_PATH_IMAGE012
为正常数,且满足
Figure 559004DEST_PATH_IMAGE013
ξ为引入的辅助变量,且横截函数满足,
Figure 123978DEST_PATH_IMAGE014
对辅助系统的表达式两端求导,获得跟踪误差动态系统方程如下:
Figure 304424DEST_PATH_IMAGE015
Figure 904032DEST_PATH_IMAGE016
Figure 511731DEST_PATH_IMAGE017
Figure 564001DEST_PATH_IMAGE018
Figure 548137DEST_PATH_IMAGE019
Figure 2252DEST_PATH_IMAGE020
其中,
Figure 780852DEST_PATH_IMAGE021
是可逆矩阵;
x d y d 分别为在相机坐标系中的x轴,y轴上期望的跟踪距离,Φ d 为期望的跟踪角度且为常数,v max 为相机的最大视场角,车载相机的视场约束条件应满足角度跟踪误差满足预设性能,即满足-θ max <e Φ <θ max e Φ 为时间t的函数,
Figure 818953DEST_PATH_IMAGE022
,定义视觉跟踪系统误差为:
e x =x-x d e y =y-y d e Φ= Φ-Φ d
其中,e x 为视觉跟踪系统在x轴上的跟踪误差,e y 为视觉跟踪系统在y轴上的跟踪误差,e Φ 为视觉跟踪系统在角度上的跟踪误差;
定义位置误差向量为
Figure 341202DEST_PATH_IMAGE023
,其中,T表示向量的转置;
基于位置误差向量的导数和角度跟踪误差的导数可得跟踪误差动态系统方程:
Figure 915402DEST_PATH_IMAGE024
Figure 864904DEST_PATH_IMAGE025
Figure 626186DEST_PATH_IMAGE026
其中,
Figure 952126DEST_PATH_IMAGE027
分别为e x ,e y ,e Φ 的导数。
进一步地,S22中,
有限时间自适应调整的预设性能函数表达式如下:
Figure 115254DEST_PATH_IMAGE028
Figure 501236DEST_PATH_IMAGE029
其中,Ɓ是预设性能函数,T f > 0为设置的有限时间,T i 和∆T i 是第i次调整的初始时间和保持的时间间隔,T h 是第h次调整的初始时间,
Figure 15394DEST_PATH_IMAGE030
是第i段有限时间内预设性能函数规定的边界,
Figure 377980DEST_PATH_IMAGE031
为设计参数;
Figure 395614DEST_PATH_IMAGE032
为设计参数且均为正常数,
Figure 952497DEST_PATH_IMAGE033
为常数,i=0,1...,hh为自然数,代表预设性能函数有h次调整,k是自然数,
相应条件表达式:
Figure 688372DEST_PATH_IMAGE034
其中,
Figure 356114DEST_PATH_IMAGE035
表示时间T i 时视觉跟踪系统在角度上的跟踪误差,
Figure 493834DEST_PATH_IMAGE036
表示第i-1段有限时间内预设性能函数规定的边界,
t表示时间,0<r i <1和
Figure 221619DEST_PATH_IMAGE037
为调整参数,B min为允许上界的最小值,定义两个估计误差为
Figure 179210DEST_PATH_IMAGE038
Figure 650643DEST_PATH_IMAGE039
分别为运动目标的线速度和角速度的上界,
Figure 406984DEST_PATH_IMAGE040
分别为
Figure 40091DEST_PATH_IMAGE041
的估计,
角速度控制律和线速度控制律的表达式分别如下:
Figure 750558DEST_PATH_IMAGE042
Figure 760102DEST_PATH_IMAGE043
Figure 606836DEST_PATH_IMAGE044
Figure 942002DEST_PATH_IMAGE045
其中,k 1, k 2 ,h为设计的控制参数,均为正的常数,对运动目标的线速度和角速度的上界的估计的自适应律为:
Figure 874186DEST_PATH_IMAGE046
Figure 687421DEST_PATH_IMAGE047
,其中k 3, k 4 ,K 1 ,K 2为设计的控制参数,均为正的常数,
Figure 654240DEST_PATH_IMAGE048
Figure 127684DEST_PATH_IMAGE049
分别为运动目标未知的线速度和角速度的自适应律,从而获得所述运动目标的线速度和角速度的估计。
本发明与现有技术相比存在的有益效果是:
1.本发明对跟踪控制系统的暂态性与稳态性能进行了定量设计,通过引入一种有限时间自适应调整的预设性能函数,实现了跟踪误差被约束在预设的上下界性能函数之间,保证了控制系统的超调量、收敛速度和稳态误差等性能指标满足预设要求;
2.通过有限时间自适应调整的预设性能函数的引入,保证了运动目标始终位于车载相机的视场范围内,进一步提高跟踪算法的鲁棒性,保证控制系统的稳定运行。
3.采用自适应方法估计运动目标的线速度和角速度,在不依赖机器人间通信的基础上,仅仅依靠跟踪控制系统的跟踪误差变化,设计自适应估计器实现对于运动目标的线速度与角速度实时估计,扩大了视觉伺服的应用范围。
附图说明
为了更清楚地说明本发明中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本发明的一种基于预设性能的视觉伺服机器人自适应跟踪控制方法的流程框图;
图2是本发明的双轮移动机器人跟随目标示意图;
图3是本发明提供的相机成像模型示意图;
图4是本发明提供的双轮移动机器人在XOY平面跟踪曲线运动目标的仿真结果示意图;
图5a是本发明提供的角度跟踪误差及预定义约束的示意图;
图5b是本发明提供的基于普通BLF的角度跟踪误差及预定义约束的示意图;
图6是本发明提供的机器人的速度和角速度控制输入的示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本发明实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本发明。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本发明的描述。
下面将结合附图详细说明根据本发明的一种基于预设性能的视觉伺服机器人自适应跟踪控制方法。
图1是本发明的一种基于预设性能的视觉伺服机器人自适应跟踪控制方法的流程框图。
如图1所示,该视觉伺服机器人自适应跟踪控制方法包括:
S1,建立双轮移动机器人的运动模型和运动目标与双轮移动机器人之间的相对运动模型;
建立双轮移动机器人的运动学模型和运动目标与双轮移动机器人之间的相对运动模型,并考虑机器人和感兴趣目标之间无通信,因此运动目标的速度和角速度未知。其中,双轮移动机器人是轮式移动机器人的一种,轮式移动机器人还包括单轮移动机器人,三轮移动机器人等。
图2是本发明的双轮移动机器人跟随目标示意图。
S11,基于双轮移动机器人的质心在世界坐标系中的位置坐标、双轮移动机器人的航向角、线速度和角速度,建立双轮移动机器人的运动学模型。
图3是本发明提供的相机成像模型示意图。
建立双轮移动机器人的非完整约束模型,并进一步考虑目标与机器人之间的相对运动模型。假设移动机器人只在规定二维平面上运动,不存在侧滑,只有纯滚动,因此,这里的世界坐标系{XOY}指二维坐标平面。
S12基于双轮移动机器人的运动学模型,根据世界坐标系和相机坐标系之间的坐标转换公式,获得运动目标在相机坐标系下的坐标和运动目标与双轮移动机器人之间的相对运动模型。
建立双轮移动机器人的非完整约束模型,并进一步考虑目标与机器人之间的相对运动模型。假设移动机器人只在规定二维平面上运动,不存在侧滑,只有纯滚动,因此,这里的世界坐标系{XOY}指二维坐标平面,则
S12中双轮移动机器人的运动学模型的表达式如下:
Figure 78323DEST_PATH_IMAGE050
其中,x表示双轮移动机器人的质心在世界坐标系中沿x轴的坐标,y表示双轮移动机器人的质心在世界坐标系中沿y轴的坐标,θ为双轮移动机器人在世界坐标系中的航向角,vω分别为双轮移动机器人在世界坐标系中的线速度和角速度,
Figure 164091DEST_PATH_IMAGE051
分别表示x、y、θ的导数;
根据所述世界坐标系与所述相机坐标系之间的坐标变换的表达式如下:
Figure 250995DEST_PATH_IMAGE052
其中,(x t ,y t )表示运动目标在世界坐标系{XOY}平面中的位置坐标,x t 表示运动目标在世界坐标系{XOY}平面中沿x轴的坐标,y t 表示运动目标在世界坐标系{XOY}平面中沿y轴的坐标,g表示运动目标在世界坐标系中的航向角,x c 表示运动目标在相机坐标系中沿x轴的坐标,y c 表示运动目标在相机坐标系中沿y轴的坐标,t表示时间,Φ c 为运动目标在相机坐标系中的航向角,Φ c 由下式求得:
Figure 396806DEST_PATH_IMAGE053
其中,(x 0 ,y 0 )为运动目标左侧的一个固定点P0在相机坐标系中的坐标,x 0 表示P0在相机坐标系中沿x轴的坐标,y 0 表示P0在相机坐标系中沿y轴的坐标;对所述坐标转换的表达式的两端分别求导可得视觉跟踪系统的相对运动模型的表达式如下:
Figure 303582DEST_PATH_IMAGE054
其中,v r ω r 分别为运动目标在世界坐标系中的线速度和角速度,
Figure 724199DEST_PATH_IMAGE055
分别为x c y c Φ c 的导数。
所述运动目标在相机坐标系中的坐标的获得,包括:
用针孔模型将运动目标从相机坐标系中的坐标点映射到二维图像平面表达式如下:
Figure 400031DEST_PATH_IMAGE056
其中,(x c ,y c , z c )表示运动目标在相机坐标系中的三维坐标,f为相机的焦距,(α, β)代表运动目标在二维图像平面的中心图像坐标,z c 为运动目标高度;
Figure 982322DEST_PATH_IMAGE057
S2 基于运动目标与双轮移动机器人之间的相对运动模型,提出有限时间自适应调整的预设性能函数,获得角度跟踪误差的上界,保证跟踪过程中运动目标始终保持在相机的视场范围内;
设计双轮移动机器人跟踪系统的自适应控制算法和估计的自适应律,对目标未知速度进行估计,控制机器人的运动实时跟随目标,与运动目标保持期望的距离和期望的跟踪方向;在此提出一种新的有限时间自适应调整的预设性能函数Ɓ(t),作为角度跟踪误差的上界,实现对视场范围的预先定义,并将其整合到自适应律中,保证跟踪过程中运动目标始终保持在相机的视场范围内。
采用基于一种新型BLF(Barrier Lyapunov Function,障碍李雅普诺夫函数)的自适应控制方法设计双轮移动机器人的自适应律并由此完成自适应控制器的设计。
S21 引入横截函数和辅助变量,并获得角度跟踪误差和跟踪误差动态系统方程;
S21包括:
引入横截函数f i 和辅助变量ξ,构造辅助系统的表达式如下:
Figure 874929DEST_PATH_IMAGE058
其中,
Figure 568079DEST_PATH_IMAGE059
为转换矩阵,Φ表示变换后的航向角;f i ,i=1,2,3表示横截函数,其表达式如下:
Figure 629576DEST_PATH_IMAGE060
其中,
Figure 117189DEST_PATH_IMAGE061
为正常数,且满足
Figure 732978DEST_PATH_IMAGE062
ξ为引入的辅助变量,且横截函数满足,
Figure 495398DEST_PATH_IMAGE063
对辅助系统的表达式两端求导,获得跟踪误差动态系统方程如下:
Figure 145822DEST_PATH_IMAGE064
Figure 69916DEST_PATH_IMAGE065
Figure 960553DEST_PATH_IMAGE066
Figure 995505DEST_PATH_IMAGE067
Figure 500436DEST_PATH_IMAGE068
其中,
Figure 861010DEST_PATH_IMAGE069
是可逆矩阵;
x d y d 分别为在相机坐标系中的x轴,y轴上期望的跟踪距离,Φ d 为期望的跟踪角度且为常数,v max 为相机的最大视场角,车载相机的视场约束条件应满足角度跟踪误差满足预设性能,即满足-θ max <e Φ <θ max e Φ 为时间t的函数,
Figure 451391DEST_PATH_IMAGE070
,定义视觉跟踪系统误差为:
e x =x-x d e y =y-y d e Φ= Φ-Φ d
其中,e x 为视觉跟踪系统在x轴上的跟踪误差,e y 为视觉跟踪系统在y轴上的跟踪误差,e Φ 为视觉跟踪系统在角度上的跟踪误差;
定义位置误差向量为
Figure 290034DEST_PATH_IMAGE071
,其中,T表示向量的转置;
基于位置误差向量的导数和角度跟踪误差的导数可得跟踪误差动态系统方程:
Figure 915050DEST_PATH_IMAGE072
Figure 180947DEST_PATH_IMAGE073
Figure 258624DEST_PATH_IMAGE074
其中,
Figure 133914DEST_PATH_IMAGE075
分别为e x ,e y ,e Φ 的导数。
S22基于获得的角度跟踪误差和跟踪误差动态系统方程,引入有限时间自适应调整的预设性能函数作为角度跟踪误差的上界,并基于障碍李雅普诺夫函数(BLF)获得对运动目标的线速度和角速度的估计的自适应律,保证跟踪过程中运动目标始终保持在相机的视场范围内。
其中,障碍李雅普诺夫函数全拼为Barrier Lyapunov Function,简写为BLF。
S22中有限时间自适应调整的预设性能函数、相应条件、控制律、对运动目标的线速度和角速度的上界的估计的自适应律表达式分别如下,其中,控制律包括角速度控制律和线速度控制律,
有限时间自适应调整的预设性能函数表达式如下:
Figure 879016DEST_PATH_IMAGE076
Figure 315814DEST_PATH_IMAGE077
其中,Ɓ是预设性能函数,T f > 0为设置的有限时间,T i 和∆T i 是第i次调整的初始时间和保持的时间间隔,T h 是第h次调整的初始时间,
Figure 880787DEST_PATH_IMAGE078
是第i段有限时间内预设性能函数规定的边界,
Figure 61233DEST_PATH_IMAGE079
为设计参数;
Figure 660841DEST_PATH_IMAGE080
为设计参数且均为正常数,
Figure 534119DEST_PATH_IMAGE081
为常数,i=0,1...,hh为自然数,代表预设性能函数有h次调整,k是自然数,
相应条件表达式:
Figure 320810DEST_PATH_IMAGE082
其中,
Figure 304946DEST_PATH_IMAGE083
表示时间T i 时视觉跟踪系统在角度上的跟踪误差,
Figure 257597DEST_PATH_IMAGE084
表示第i-1段有限时间内预设性能函数规定的边界,
t表示时间,0<r i <1和
Figure 36197DEST_PATH_IMAGE085
为调整参数,B min为允许上界的最小值,定义两个估计误差为
Figure 310183DEST_PATH_IMAGE086
Figure 832432DEST_PATH_IMAGE087
分别为运动目标的线速度和角速度的上界,
Figure 141053DEST_PATH_IMAGE088
分别为
Figure 356134DEST_PATH_IMAGE041
的估计,
角速度控制律和线速度控制律的表达式分别如下:
Figure 117416DEST_PATH_IMAGE089
Figure 177776DEST_PATH_IMAGE090
Figure 105019DEST_PATH_IMAGE091
Figure 491001DEST_PATH_IMAGE092
其中,k 1, k 2 ,h为设计的控制参数,均为正的常数,对运动目标的线速度和角速度的上界的估计的自适应律为:
Figure 739579DEST_PATH_IMAGE093
Figure 603630DEST_PATH_IMAGE094
,其中k 3, k 4 ,K 1 ,K 2为设计的控制参数,均为正的常数,
Figure 886844DEST_PATH_IMAGE095
Figure 178148DEST_PATH_IMAGE096
分别为运动目标未知的线速度和角速度的自适应律,从而获得所述运动目标的线速度和角速度的估计。
Figure 914023DEST_PATH_IMAGE097
为有限时间自适应调整的预设性能函数作为基于BLF方法设计的限制角度跟踪误差的上界,获得控制器对运动目标的线速度和角速度的估计,实现系统的平稳运行。
本发明通过控制器对运动目标的线速度和角速度的估计,控制器设计过程采用非线性方法设计控制律,解决了非线性问题;设计估计的自适应律估计运动目标未知的速度和角速度,解决了模型中运动目标的线速度和角速度不确定的问题。
实施例1
运用MATLAB软件,对所建立的基于视觉的双轮移动机器人模型和设计的自适应控制器进行了仿真。设感兴趣目标正在做以下轨迹的运动,
Figure 581765DEST_PATH_IMAGE098
设移动机器人的初始状态设定为
Figure 985064DEST_PATH_IMAGE099
,期望的跟踪距离为
Figure 680225DEST_PATH_IMAGE100
,控制器中的控制参数具体为
Figure 168976DEST_PATH_IMAGE101
Figure 640408DEST_PATH_IMAGE102
为了比较控制效果,采用相同的控制系数进行了本发明设计的控制方案与基于普通的BLF控制的仿真,仿真结果如图4-图6所示。图4是本发明提供的双轮移动机器人在XOY平面跟踪曲线运动目标的仿真结果示意图;图5a是本发明提供的角度跟踪误差及预定义约束的示意图,图5b是本发明实施例提供的基于普通BLF的角度跟踪误差及预定义约束的示意图;图6是本发明提供的机器人的速度和角速度控制输入的示意图。
从仿真结果图中可以看出,移动机器人与跟踪目标保持期望距离的跟踪效果可以达到,角度跟踪误差能够较快收敛到预设性能内,且上述有限时间自适应调整的预设性能函数可随跟踪误差大小进行自适应调整。
由仿真结果可以看出,基于新型的BLF方法的自适应控制方法可以很好地控制角度跟踪误差的界,从而更好的实现了跟踪效果,本发明设计的自适应控制器具有十分显著的效果。
上述所有可选技术方案,可以采用任意结合形成本申请的可选实施例,在此不再一一赘述。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。

Claims (5)

1.一种基于预设性能的视觉伺服机器人自适应跟踪控制方法,其特征在于,包括以下步骤:
S1建立双轮移动机器人的运动模型和运动目标与所述双轮移动机器人之间的相对运动模型;
S11基于所述双轮移动机器人的质心在世界坐标系中的位置坐标、所述双轮移动机器人的航向角、线速度和角速度,建立所述双轮移动机器人的运动学模型;
S12基于所述双轮移动机器人的运动学模型,根据所述世界坐标系和相机坐标系之间的坐标转换公式,获得运动目标在相机坐标系下的坐标和运动目标与所述双轮移动机器人之间的相对运动模型;
S2 基于所述运动目标与所述双轮移动机器人之间的相对运动模型,提出有限时间自适应调整的预设性能函数,获得角度跟踪误差的上界,保证跟踪过程中运动目标始终保持在相机的视场范围内;
S21引入横截函数和辅助变量,并获得角度跟踪误差和跟踪误差动态系统方程;
S22基于获得的角度跟踪误差和跟踪误差动态系统方程,引入有限时间自适应调整的预设性能函数作为所述角度跟踪误差的上界,并基于障碍李雅普诺夫函数获得对所述运动目标的线速度和角速度的估计的自适应律,保证跟踪过程中运动目标始终保持在相机的视场范围内。
2.根据权利要求1所述的视觉伺服机器人自适应跟踪控制方法,其特征在于,所述S12中双轮移动机器人的运动学模型的表达式如下:
Figure 782784DEST_PATH_IMAGE001
其中,x表示双轮移动机器人的质心在世界坐标系中沿x轴的坐标,y表示双轮移动机器人的质心在世界坐标系中沿y轴的坐标,θ为双轮移动机器人在世界坐标系中的航向角,vω分别为双轮移动机器人在世界坐标系中的线速度和角速度,
Figure 569475DEST_PATH_IMAGE002
分别表示x、y、θ的导数;
根据所述世界坐标系与所述相机坐标系之间的坐标变换的表达式如下:
Figure 288032DEST_PATH_IMAGE003
其中,(x t ,y t )表示运动目标在世界坐标系{XOY}平面中的位置坐标,x t 表示运动目标在世界坐标系{XOY}平面中沿x轴的坐标,y t 表示运动目标在世界坐标系{XOY}平面中沿y轴的坐标,g表示运动目标在世界坐标系中的航向角,x c 表示运动目标在相机坐标系中沿x轴的坐标,y c 表示运动目标在相机坐标系中沿y轴的坐标,t表示时间,Φ c 为运动目标在相机坐标系中的航向角,Φ c 由下式求得:
Figure 742147DEST_PATH_IMAGE004
其中,(x 0 y 0 )为运动目标左侧的一个固定点P0在相机坐标系中的坐标,x 0 表示P0在相机坐标系中沿x轴的坐标,y 0 表示P0在相机坐标系中沿y轴的坐标;对所述坐标转换的表达式的两端分别求导可得视觉跟踪系统的相对运动模型的表达式如下:
Figure 19282DEST_PATH_IMAGE005
其中,v r ω r 分别为运动目标在世界坐标系中的线速度和角速度,
Figure 558848DEST_PATH_IMAGE006
分别为x c y c Φ c 的导数。
3.根据权利要求2所述的视觉伺服机器人自适应跟踪控制方法,其特征在于,所述运动目标在相机坐标系中的坐标的获得,包括:
用针孔模型将运动目标从相机坐标系中的坐标点映射到二维图像平面表达式如下:
Figure 81096DEST_PATH_IMAGE007
其中,(x c ,y c , z c )表示运动目标在相机坐标系中的三维坐标,f为相机的焦距,(α,β)代表运动目标在二维图像平面的中心图像坐标,z c 为运动目标高度;
Figure 389718DEST_PATH_IMAGE008
4.根据权利要求3所述的视觉伺服机器人自适应跟踪控制方法,其特征在于,S21包括:
引入横截函数f i 和辅助变量ξ,构造辅助系统的表达式如下:
Figure 339219DEST_PATH_IMAGE009
其中,
Figure 366081DEST_PATH_IMAGE010
为转换矩阵,Φ表示变换后的航向角; f i ,i=1,2,3表示横截函数,其表达式如下:
Figure 692020DEST_PATH_IMAGE011
其中,
Figure 855148DEST_PATH_IMAGE012
为正常数,且满足
Figure 474086DEST_PATH_IMAGE013
ξ为引入的辅助变量,且横截函数满足,
Figure 988244DEST_PATH_IMAGE014
对辅助系统的表达式两端求导,获得跟踪误差动态系统方程如下:
Figure 117874DEST_PATH_IMAGE015
Figure 869930DEST_PATH_IMAGE016
Figure 692392DEST_PATH_IMAGE017
Figure 428267DEST_PATH_IMAGE018
Figure 96009DEST_PATH_IMAGE019
其中,
Figure 968150DEST_PATH_IMAGE020
是可逆矩阵;
x d y d 分别为在相机坐标系中的x轴,y轴上期望的跟踪距离,Φ d 为期望的跟踪角度且为常数,v max 为相机的最大视场角,车载相机的视场约束条件应满足角度跟踪误差满足预设性能,即满足-θ max <e Φ <θ max e Φ 为时间t的函数,
Figure 695934DEST_PATH_IMAGE021
,定义视觉跟踪系统误差为:
e x =x-x d ,e y =y-y d ,e Φ= Φ-Φ d
其中,e x 为视觉跟踪系统在x轴上的跟踪误差,e y 为视觉跟踪系统在y轴上的跟踪误差,e Φ 为视觉跟踪系统在角度上的跟踪误差;
定义位置误差向量为
Figure 417641DEST_PATH_IMAGE022
,其中,T表示向量的转置;
基于位置误差向量的导数和角度跟踪误差的导数可得跟踪误差动态系统方程:
Figure 889073DEST_PATH_IMAGE023
Figure 881300DEST_PATH_IMAGE024
Figure 779986DEST_PATH_IMAGE025
其中,
Figure 224874DEST_PATH_IMAGE026
分别为e x ,e y ,e Φ 的导数。
5.根据权利要求4所述的视觉伺服机器人自适应跟踪控制方法,其特征在于,S22中,
有限时间自适应调整的预设性能函数表达式如下:
Figure 499997DEST_PATH_IMAGE027
Figure 612310DEST_PATH_IMAGE028
其中,Ɓ是预设性能函数,T f > 0为设置的有限时间,T i 和∆T i 是第i次调整的初始时间和保持的时间间隔,T h 是第h次调整的初始时间,
Figure 416318DEST_PATH_IMAGE029
是第i段有限时间内预设性能函数规定的边界,
Figure 614081DEST_PATH_IMAGE030
为设计参数;
Figure 660272DEST_PATH_IMAGE031
为设计参数且均为正常数,
Figure 892670DEST_PATH_IMAGE032
为常数,i=0,1...,hh为自然数,代表预设性能函数有h次调整,k是自然数,
相应条件表达式:
Figure 867579DEST_PATH_IMAGE033
其中,
Figure 552639DEST_PATH_IMAGE034
表示时间T i 时视觉跟踪系统在角度上的跟踪误差,
Figure 903986DEST_PATH_IMAGE035
表示第i-1段有限时间内预设性能函数规定的边界,
t表示时间,0<r i <1和
Figure 725311DEST_PATH_IMAGE036
为调整参数,B min为允许上界的最小值,定义两个估计误差为
Figure 136701DEST_PATH_IMAGE037
Figure 43477DEST_PATH_IMAGE038
分别为运动目标的线速度和角速度的上界,
Figure 198515DEST_PATH_IMAGE039
分别为
Figure 638461DEST_PATH_IMAGE040
的估计,
角速度控制律和线速度控制律的表达式分别如下:
Figure 955173DEST_PATH_IMAGE041
Figure 614824DEST_PATH_IMAGE042
Figure 42395DEST_PATH_IMAGE043
Figure 103892DEST_PATH_IMAGE044
其中,k 1, k 2 ,h为设计的控制参数,均为正的常数,对运动目标的线速度和角速度的上界的估计的自适应律为:
Figure 857084DEST_PATH_IMAGE045
Figure 738452DEST_PATH_IMAGE046
,其中k 3, k 4 ,K 1 ,K 2为设计的控制参数,均为正的常数,
Figure 969713DEST_PATH_IMAGE047
Figure 885717DEST_PATH_IMAGE048
分别为运动目标未知的线速度和角速度的自适应律,从而获得所述运动目标的线速度和角速度的估计。
CN202210516914.8A 2022-05-13 2022-05-13 一种基于预设性能的视觉伺服机器人自适应跟踪控制方法 Active CN114721275B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210516914.8A CN114721275B (zh) 2022-05-13 2022-05-13 一种基于预设性能的视觉伺服机器人自适应跟踪控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210516914.8A CN114721275B (zh) 2022-05-13 2022-05-13 一种基于预设性能的视觉伺服机器人自适应跟踪控制方法

Publications (2)

Publication Number Publication Date
CN114721275A true CN114721275A (zh) 2022-07-08
CN114721275B CN114721275B (zh) 2022-09-09

Family

ID=82230353

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210516914.8A Active CN114721275B (zh) 2022-05-13 2022-05-13 一种基于预设性能的视觉伺服机器人自适应跟踪控制方法

Country Status (1)

Country Link
CN (1) CN114721275B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116000939A (zh) * 2023-02-07 2023-04-25 武汉溯野科技有限公司 一种基于定位波动估计的机器人自适应鲁棒控制方法
CN116872216A (zh) * 2023-08-28 2023-10-13 安徽工业大学 一种基于有限时间控制的机器人视觉伺服作业方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108839026A (zh) * 2018-07-19 2018-11-20 浙江工业大学 一种移动机器人视觉伺服跟踪预测控制方法
CN111665855A (zh) * 2020-08-03 2020-09-15 陕西理工大学 一种机器人预设性编队控制方法
CN111736472A (zh) * 2020-07-22 2020-10-02 安徽工业大学 一种基于rise的电机自适应预设性能渐近控制方法
CN112256001A (zh) * 2020-09-29 2021-01-22 华南理工大学 一种视角约束下的移动机器人视觉伺服控制方法
CN114237041A (zh) * 2021-11-24 2022-03-25 南京航空航天大学 一种基于预设性能的空-地协同固定时间容错控制方法
WO2022077817A1 (zh) * 2020-10-13 2022-04-21 湖南大学 一种基于视觉与性能约束的多无人机协同控制方法及系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108839026A (zh) * 2018-07-19 2018-11-20 浙江工业大学 一种移动机器人视觉伺服跟踪预测控制方法
CN111736472A (zh) * 2020-07-22 2020-10-02 安徽工业大学 一种基于rise的电机自适应预设性能渐近控制方法
CN111665855A (zh) * 2020-08-03 2020-09-15 陕西理工大学 一种机器人预设性编队控制方法
CN112256001A (zh) * 2020-09-29 2021-01-22 华南理工大学 一种视角约束下的移动机器人视觉伺服控制方法
WO2022077817A1 (zh) * 2020-10-13 2022-04-21 湖南大学 一种基于视觉与性能约束的多无人机协同控制方法及系统
CN114237041A (zh) * 2021-11-24 2022-03-25 南京航空航天大学 一种基于预设性能的空-地协同固定时间容错控制方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
QIAN RUI等: "Prescribed Performance Bound-based Adaptive Tracking Control of a Mobile Robot with Visibility Constraints", 《IEEE CONFERENCE ON INDUSTRIAL ELECTRONICS AND APPLICATIONS》 *
李新凯 等: "非匹配扰动下变体无人机预设性能控制", 《航空学报》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116000939A (zh) * 2023-02-07 2023-04-25 武汉溯野科技有限公司 一种基于定位波动估计的机器人自适应鲁棒控制方法
CN116000939B (zh) * 2023-02-07 2024-01-26 武汉溯野科技有限公司 一种基于定位波动估计的机器人自适应鲁棒控制方法
CN116872216A (zh) * 2023-08-28 2023-10-13 安徽工业大学 一种基于有限时间控制的机器人视觉伺服作业方法
CN116872216B (zh) * 2023-08-28 2023-12-08 安徽工业大学 一种基于有限时间控制的机器人视觉伺服作业方法

Also Published As

Publication number Publication date
CN114721275B (zh) 2022-09-09

Similar Documents

Publication Publication Date Title
Liang et al. Leader-following formation tracking control of mobile robots without direct position measurements
CN111538949B (zh) 冗余机器人逆运动学求解方法、装置和冗余机器人
CN114721275B (zh) 一种基于预设性能的视觉伺服机器人自适应跟踪控制方法
Zheng et al. Planning and tracking in image space for image-based visual servoing of a quadrotor
Wang et al. A hybrid visual servo controller for robust grasping by wheeled mobile robots
Ghabcheloo et al. Non‐linear co‐ordinated path following control of multiple wheeled robots with bidirectional communication constraints
Qi et al. Contour moments based manipulation of composite rigid-deformable objects with finite time model estimation and shape/position control
CN111665855B (zh) 一种机器人预设性编队控制方法
Yan et al. Consensus formation tracking for multiple AUV systems using distributed bioinspired sliding mode control
CN112605996B (zh) 一种面向冗余机械臂的无模型碰撞避免控制方法
WO2020098551A1 (zh) 机器人运行方法、装置、机器人、电子设备及可读介质
CN112947407A (zh) 一种多智能体有限时间的编队路径跟踪控制方法及系统
CN110471289A (zh) 一种基于视觉导航移动设备的自适应路径跟踪方法及系统
Sun et al. Safe and smooth motion planning for mecanum-wheeled robot using improved RRT and cubic spline
Onuoha et al. Affine formation algorithms and implementation based on triple-integrator dynamics
Shi et al. Adaptive image-based visual servoing for hovering control of quad-rotor
Miao et al. Low-complexity leader-following formation control of mobile robots using only FOV-constrained visual feedback
Li et al. Hybrid uncalibrated visual servoing control of harvesting robots with RGB-D cameras
Markdahl et al. Distributed cooperative object attitude manipulation
Hu et al. Vision-based impedance control of an aerial manipulator using a nonlinear observer
CN110658811A (zh) 基于神经网络的受限移动机器人协同路径跟踪控制方法
CN112650217B (zh) 一种基于评估函数的机器人轨迹跟踪策略动态优化方法
Cong et al. Path planning and following of omnidirectional mobile robot based on B-spline
CN114063621B (zh) 一种轮式机器人编队跟踪与避障控制方法
CN114967441A (zh) 一种网络化非完整约束多机器人分群一致追踪控制方法、微控单元及控制系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant