CN114434441A - 基于自适应动态规划的移动机器人视觉伺服跟踪控制方法 - Google Patents
基于自适应动态规划的移动机器人视觉伺服跟踪控制方法 Download PDFInfo
- Publication number
- CN114434441A CN114434441A CN202111665184.XA CN202111665184A CN114434441A CN 114434441 A CN114434441 A CN 114434441A CN 202111665184 A CN202111665184 A CN 202111665184A CN 114434441 A CN114434441 A CN 114434441A
- Authority
- CN
- China
- Prior art keywords
- mobile robot
- image
- expected
- current
- adaptive
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Manipulator (AREA)
Abstract
本发明公开了基于自适应动态规划的移动机器人视觉伺服跟踪控制方法,通过移动机器人上的摄像机拍摄共面特征点的当前图像、期望图像以及参考图像,并利用单应性技术计算移动机器人当前的位姿信息与期望的位姿信息,并结合机器人运动学获得跟踪误差模型;将跟踪误差模型的最优控制问题转化为求解哈密顿‑雅可比‑贝尔曼方程;利用移动机器人的实际状态信息,使用自适应在线学习算法求解哈密顿‑雅可比‑贝尔曼方程,得到最优值函数,以最优值函数对应的最优控制输入控制移动机器人,本发明能够实现移动机器人利用视觉信息完成轨迹跟踪任务和保证系统稳定性,能实现期望的最优性能指标,降低控制成本,还能提高移动机器人跟踪效果,改善控制器性能。
Description
技术领域
本发明涉及智能控制以及移动机器人控制领域,具体涉及基于自适应动态规划的移动机器人视觉伺服跟踪控制方法。
背景技术
随着移动机器人控制技术的发展,移动机器人如今已被广泛应用于工业生产、国防军事以及生活服务等众多方面。视觉传感器近年来逐渐变得价格经济易于获取,加上其本身具有获取环境信息丰富、外部感知能力强和适用范围广等特点,因而其被广泛装备移动机器人以及其他智能体系统。由于视觉传感器的作用,移动机器人的灵活性和智能性得到极大提高,可以适应更加复杂环境,基于视觉的机器人的定位、环境感知与控制技术也得到了很大的发展。因此基于视觉的移动机器人轨迹跟踪吸引了大量学者的关注与研究。
经典的视觉伺服控制主要分为基于图像、基于位置、与混合视觉伺服控制。基于图像的视觉伺服控制是通过在二维图像平面定义误差信号进行控制,不需要利用移动机器人三维位姿信息,且其对系统扰动具有鲁棒性但是很难控制移动机器人的偏转位姿。基于位置的视觉伺服控制需要在三维欧式空间定义误差信号,虽然需要进行三维重构,但这样直接对三维空间的误差进行控制可以保证其收敛性。考虑到移动机器人的视觉伺服轨迹跟踪控制问题的系统模型是一个时变仿射非线性系统。自适应动态规划是解决仿射非线性系统跟踪控制问题一种有效的方法。求解基于自适应动态规划的移动机器人视觉伺服轨迹跟踪的最优控制并不容易,因为其需要求得密顿-雅可比-贝尔曼方程的解。对于时不变非线性系统来说,其密顿-雅可比-贝尔曼方程是一个时不变的偏微分方程并且无法求得其解析解,目前大部分求解方法都是设计合适的神经网络结构来近似未知项。与上述一般非线性系统不同的是,由于移动机器人系统模型固有的时变特性,最优控制问题中的HJB方程含有两项偏微分项并值函数是关于状态与时间的函数且,这使得问题更加复杂。对时变非线性系统的最优控制仍然与时不变系统存在不同之处,同时带来许多挑战。
发明内容
本发明提供了基于自适应动态规划的移动机器人视觉伺服跟踪控制方法,用于解决现有的移动机器人控制效果差,且控制成本高的技术问题。
为解决上述技术问题,本发明提出的技术方案为:
一种基于自适应动态规划的移动机器人视觉伺服跟踪控制方法,包括以下步骤:
通过移动机器人上的摄像机拍摄共面特征点的当前图像、期望图像以及参考图像;基于当前图像、期望图像以及参考图像,并利用单应性技术计算移动机器人当前的位姿信息与期望的位姿信息;基于计算得到的移动机器人当前的位姿信息与期望的位姿信息,并结合机器人运动学获得跟踪误差模型;
将跟踪误差模型的最优控制问题转化为求解哈密顿-雅可比-贝尔曼方程;利用移动机器人的实际状态信息,使用自适应在线学习算法求解哈密顿-雅可比-贝尔曼方程,得到最优值函数,以最优值函数对应的最优控制输入控制移动机器人。
优选的,通过移动机器人上的摄像机拍摄共面特征点的当前图像、期望图像以及参考图像;基于当前图像、期望图像以及参考图像,并利用单应性技术计算移动机器人当前的位姿信息与期望的位姿信息;包括以下步骤:
设置移动机器人与装载于移动机器人上的摄像机的坐标系相重合,选择坐标系空间中四个共面特征点作为目标点,由摄像机目标点的当前图像、期望图像以及参考图像;基于摄像机模型将当前图像、期望图像以及参考图像的像素坐标进行欧式重构,并对欧式重构后的当前图像、期望图像以及参考图像的像素坐标进行归一化;
利用归一化后的当前图像、期望图像以及参考图像的像素坐标计算出移动机器人当前位置、期望位置分别相对参考位置的单应性矩阵,基于单应性技术得到移动机器人当前位姿与期望位姿。
优选的,归一化公式如下:
mi=K-1pi
其中,K为摄像机标定矩阵,pi为齐次像素坐标。
优选的,基于计算得到的移动机器人当前的位姿信息与期望的位姿信息,并结合机器人运动学获得跟踪误差模型,包括以下步骤:
计算移动机器人在当前摄像机坐标系中的位姿误差e(t),基于移动机器人运动学模型得到跟踪误差模型其中,f(e(t),t)为跟踪误差模型中关于状态e(t)是非线性的部分,g(e(t))为控制矩阵,u(e(t),t)为控制输入。
优选的,哈密顿-雅可比-贝尔曼方程为:
其中,表示对关于时间t求偏导,V*(e,t)为待求得最优值函数,f(e,t)为跟踪误差模型中关于状态e(t)是非线性的部分;Q(e)为正定函数,g(e)为控制矩阵;表示对关于e(t)求偏导,R为对称正定矩阵。
优选的,使用自适应在线学习算法求解哈密顿-雅可比-贝尔曼方程,得到最优值函数,包括以下步骤:
基于当前实际系统的状态信息求解如下方程,计算V(e,t):
其中,Δt为采样时间间隔,L(e(τ),u(e(τ)))表示效用函数;
2)使用如下方法计算控制输入信号u(e,t):
3)在线不断学习,重复执行前两步使得自适应在线学习算法收敛。
优选的,自适应在线学习算法为自适应神经网络算法,在每次迭代过程中,采用如下公式更新自适应神经网络算法的网络参数:
采用如下公式计算控制输入信号u(e(t),t):
其中,R为对称正定矩阵,g(e(t))为控制矩阵。
本发明具有以下有益效果:
1、本发明中的基于自适应动态规划的移动机器人视觉伺服跟踪控制方法,不仅能够实现移动机器人利用视觉信息完成轨迹跟踪任务和保证系统稳定性,还能实现期望的最优性能指标,降低控制成本的同时还能提高移动机器人跟踪效果,改善控制器性能。
2、与现有控制方法相比,本发明中的基于自适应动态规划的移动机器人视觉伺服跟踪控制方法,能够通过自适应在线学习的方式实时调整移动机器人速度以应对环境的变化,对于速度不断变化的轨迹也有很好的跟踪效果。
除了上面所描述的目的、特征和优点之外,本发明还有其它的目的、特征和优点。下面将参照附图,对本发明作进一步详细的说明。
附图说明
构成本申请的一部分的附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1为本发明优选实施例中的基于自适应动态规划的移动机器人视觉伺服跟踪控制方法的流程图。
图2为本发明优选实施例中的基于自适应动态规划的移动机器人视觉伺服跟踪控制方法的跟踪误差状态轨迹图。
图3为本发明优选实施例中的基于自适应动态规划的移动机器人视觉伺服跟踪控制方法的移动机器人期望轨迹与实际运动轨迹曲线。
具体实施方式
以下结合附图对本发明的实施例进行详细说明,但是本发明可以由权利要求限定和覆盖的多种不同方式实施。
实施例一:
如图1所示,本发明公开了一种基于自适应动态规划的移动机器人视觉伺服跟踪控制方法,包括以下步骤:
通过移动机器人上的摄像机拍摄共面特征点的当前图像、期望图像以及参考图像;基于所述当前图像、期望图像以及参考图像,并利用单应性技术计算移动机器人当前的位姿信息与期望的位姿信息;基于计算得到的移动机器人当前的位姿信息与期望的位姿信息,并结合机器人运动学获得跟踪误差模型;
将跟踪误差模型的最优控制问题转化为求解哈密顿-雅可比-贝尔曼方程;利用移动机器人的实际状态信息,使用自适应在线学习算法求解哈密顿-雅可比-贝尔曼方程,得到最优值函数,以最优值函数对应的最优控制输入控制所述移动机器人。
本发明中的基于自适应动态规划的移动机器人视觉伺服跟踪控制方法,不仅能够实现移动机器人利用视觉信息完成轨迹跟踪任务和保证系统稳定性,还能实现期望的最优性能指标,降低控制成本的同时还能提高移动机器人跟踪效果,改善控制器性能。
实施例二:
实施例二是实施例的拓展实施例,其与实施例一的不同之处在于,对于基于自适应动态规划的移动机器人视觉伺服跟踪控制方法的具体步骤进行了细化:
在本实施例中,如图1所示,公开了一种基于自适应动态规划的移动机器人视觉伺服跟踪控制方法;包括:
步骤S1:通过移动机器人上的摄像机拍摄共面特征点的当前图像、期望图像以及参考图像,利用单应性技术得到移动机器人当前的位姿信息与期望的位姿信息(即平移量与旋转角度),结合机器人运动学获得跟踪误差模型:
步骤S11:设置移动机器人与装载于其上的摄像机的坐标系相重合,选择空间中四个共面特征点为目标点,由摄像机拍摄的特征点图像获取可测得的像素坐标,并根据针孔摄像机模型进行欧式重构,归一化的三维坐标由mi=K-1pi计算得到,其中K为摄像机标定矩阵,pi为齐次像素坐标;
步骤S12:利用移动机器人当前的、期望的和参考的归一化三维坐标计算出移动机器人当前位置、期望位置分别相对参考位置的单应性矩阵,基于单应性技术得到移动机器人当前位姿与期望位姿;
具体而言,步骤S1包括以下内容:
将当前的摄像机坐标系记为Fc,Fc的原点为摄像机光心,x轴方向与移动机器人轮轴平行,z轴方向为摄像机光轴方向,y轴垂直于移动机器人运动平面xz,以Fd和F*分别表示期望轨迹的摄像机坐标系与固定参考坐标系;选取四个特征点,其在摄像机Fc下可测得的齐次像素坐标为由下式可计算出特征点在Fc中的归一化三维坐标:
mi c=K-1pi c
其中,K为摄像机标定矩阵,特征点在Fd和F*中的归一化三维坐标分别为和由其单应性关系可以计算出单应性矩阵Hc,Hd,使用直接线性变换算法将Hc分解得到对应的平移与旋转量[x,z,θ]T,Hd分解得到[xd,zd,θd]T,位姿误差定义为:
其中T为坐标系Fc与Fd之间的变换矩阵,移动机器人运动学模型表示为:
步骤S2:根据所得到的跟踪误差模型,设计基于神经网络的自适应评价结构,通过评价网络实现最优性能指标并且计算最优控制输入:
步骤S21:将跟踪误差模型的最优控制问题转化为求解哈密顿-雅可比-贝尔曼方程;
步骤S22:使用评价神经网络逼近值函数并计算最优控制输入,设计基于神经网络的自适应评价结构。
步骤S3:基于自适应动态规划的视觉伺服跟踪控制器的实现,通过自适应动态规划实现视觉伺服跟踪控制器的在线运行:
步骤S32:使用如下方法实时计算控制输入信号:
其中,R为对称正定矩阵,g(e(t))为控制矩阵。
具体而言,将跟踪误差模型的最优控制问题转化为求解如下形式的哈密顿-雅可比-贝尔曼方程:
利用实际系统的状态信息,使用自适应在线学习算法求解哈密顿-雅可比-贝尔曼方程得到最优值函数V*(e,t)。
其中,自适应在线学习算法包括:
1)基于当前实际系统的状态信息求解如下方程,计算V(e,t):
2)使用如下方法计算控制输入信号:
3)在线不断学习,重复执行前两步使得自适应在线学习算法收敛。
为了实现上述自适应在线学习算法,设计基于神经网络的自适应评价结构,使用评价神经网络逼近值函数并计算最优控制输入,使用公式(1)更新评价神经网络的权值,并且使用公式(2)在线实时计算控制输入信号,作用于移动机器人视觉伺服轨迹跟踪过程。图2展示了本发明移动机器人视觉伺服轨迹跟踪控制的系统状态仿真图,图3展示了本发明移动机器人视觉伺服轨迹跟踪控制的期望轨迹与移动机器人实际运动轨迹曲线图,由此可以看出,跟踪误差的收敛速度快,控制效果好。
综上所述,本发明中的基于自适应动态规划的移动机器人视觉伺服跟踪控制方法,不仅能够实现移动机器人利用视觉信息完成轨迹跟踪任务和保证系统稳定性,还能实现期望的最优性能指标,降低控制成本的同时还能提高移动机器人跟踪效果,改善控制器性能。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (7)
1.一种基于自适应动态规划的移动机器人视觉伺服跟踪控制方法,其特征在于,包括以下步骤:
通过移动机器人上的摄像机拍摄共面特征点的当前图像、期望图像以及参考图像;基于所述当前图像、期望图像以及参考图像,并利用单应性技术计算移动机器人当前的位姿信息与期望的位姿信息;基于计算得到的移动机器人当前的位姿信息与期望的位姿信息,并结合机器人运动学获得跟踪误差模型;
将跟踪误差模型的最优控制问题转化为求解哈密顿-雅可比-贝尔曼方程;利用移动机器人的实际状态信息,使用自适应在线学习算法求解哈密顿-雅可比-贝尔曼方程,得到最优值函数,以最优值函数对应的最优控制输入控制所述移动机器人。
2.根据权利要求1所述的基于自适应动态规划的移动机器人视觉伺服跟踪控制方法,其特征在于,通过移动机器人上的摄像机拍摄共面特征点的当前图像、期望图像以及参考图像;基于所述当前图像、期望图像以及参考图像,并利用单应性技术计算移动机器人当前的位姿信息与期望的位姿信息;包括以下步骤:
设置移动机器人与装载于移动机器人上的摄像机的坐标系相重合,选择坐标系空间中四个共面特征点作为目标点,由摄像机目标点的当前图像、期望图像以及参考图像;基于摄像机模型将所述当前图像、期望图像以及参考图像的像素坐标进行欧式重构,并对欧式重构后的当前图像、期望图像以及参考图像的像素坐标进行归一化;
利用归一化后的当前图像、期望图像以及参考图像的像素坐标计算出移动机器人当前位置、期望位置分别相对参考位置的单应性矩阵,基于单应性技术得到移动机器人当前位姿与期望位姿。
3.根据权利要求2所述的基于自适应动态规划的移动机器人视觉伺服跟踪控制方法,其特征在于,所述归一化公式如下:
mi=K-1pi
其中,K为摄像机标定矩阵,pi为齐次像素坐标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111665184.XA CN114434441A (zh) | 2021-12-31 | 2021-12-31 | 基于自适应动态规划的移动机器人视觉伺服跟踪控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111665184.XA CN114434441A (zh) | 2021-12-31 | 2021-12-31 | 基于自适应动态规划的移动机器人视觉伺服跟踪控制方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114434441A true CN114434441A (zh) | 2022-05-06 |
Family
ID=81365873
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111665184.XA Pending CN114434441A (zh) | 2021-12-31 | 2021-12-31 | 基于自适应动态规划的移动机器人视觉伺服跟踪控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114434441A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116149262A (zh) * | 2023-04-23 | 2023-05-23 | 山东科技大学 | 一种伺服系统的跟踪控制方法及系统 |
-
2021
- 2021-12-31 CN CN202111665184.XA patent/CN114434441A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116149262A (zh) * | 2023-04-23 | 2023-05-23 | 山东科技大学 | 一种伺服系统的跟踪控制方法及系统 |
CN116149262B (zh) * | 2023-04-23 | 2023-07-04 | 山东科技大学 | 一种伺服系统的跟踪控制方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109102525B (zh) | 一种基于自适应位姿估计的移动机器人跟随控制方法 | |
Li et al. | Visual servo regulation of wheeled mobile robots with simultaneous depth identification | |
CN108839026B (zh) | 一种移动机器人视觉伺服跟踪预测控制方法 | |
CN111872934B (zh) | 一种基于隐半马尔可夫模型的机械臂控制方法及系统 | |
CN108469823B (zh) | 一种基于单应性的移动机器人编队跟随方法 | |
Delhaisse et al. | Transfer learning of shared latent spaces between robots with similar kinematic structure | |
CN106371442B (zh) | 一种基于张量积模型变换的移动机器人控制方法 | |
CN109857100B (zh) | 一种基于反演法和快速终端滑模的复合轨迹跟踪控制算法 | |
CN110722533B (zh) | 轮式移动机器人外参数无标定视觉伺服跟踪 | |
CN109760047B (zh) | 一种基于视觉传感器的舞台机器人预测控制方法 | |
CN111360821A (zh) | 一种采摘控制方法、装置、设备及计算机刻度存储介质 | |
CN111552293A (zh) | 一种视野约束下基于图像的移动机器人编队控制方法 | |
CN114721275B (zh) | 一种基于预设性能的视觉伺服机器人自适应跟踪控制方法 | |
CN112706165A (zh) | 一种面向轮式移动机械臂的跟踪控制方法及系统 | |
CN114434441A (zh) | 基于自适应动态规划的移动机器人视觉伺服跟踪控制方法 | |
Miao et al. | Low-complexity leader-following formation control of mobile robots using only FOV-constrained visual feedback | |
Li et al. | Hybrid uncalibrated visual servoing control of harvesting robots with RGB-D cameras | |
CN109443355B (zh) | 基于自适应高斯pf的视觉-惯性紧耦合组合导航方法 | |
CN112650217B (zh) | 一种基于评估函数的机器人轨迹跟踪策略动态优化方法 | |
CN112734823B (zh) | 一种基于图像的视觉伺服的雅可比矩阵深度估计方法 | |
CN116872216B (zh) | 一种基于有限时间控制的机器人视觉伺服作业方法 | |
Li et al. | Hybrid visual servoing tracking control of uncalibrated robotic systems for dynamic dwarf culture orchards harvest | |
CN112099505A (zh) | 一种低复杂度的移动机器人视觉伺服编队控制方法 | |
Teka et al. | Learning based end effector tracking control of a mobile manipulator for performing tasks on an uneven terrain | |
CN110722547B (zh) | 模型未知动态场景下移动机器人视觉镇定 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |