CN114434441A - 基于自适应动态规划的移动机器人视觉伺服跟踪控制方法 - Google Patents

基于自适应动态规划的移动机器人视觉伺服跟踪控制方法 Download PDF

Info

Publication number
CN114434441A
CN114434441A CN202111665184.XA CN202111665184A CN114434441A CN 114434441 A CN114434441 A CN 114434441A CN 202111665184 A CN202111665184 A CN 202111665184A CN 114434441 A CN114434441 A CN 114434441A
Authority
CN
China
Prior art keywords
mobile robot
image
expected
current
adaptive
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111665184.XA
Other languages
English (en)
Inventor
罗彪
欧阳志华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Central South University
Original Assignee
Central South University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Central South University filed Critical Central South University
Priority to CN202111665184.XA priority Critical patent/CN114434441A/zh
Publication of CN114434441A publication Critical patent/CN114434441A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Manipulator (AREA)

Abstract

本发明公开了基于自适应动态规划的移动机器人视觉伺服跟踪控制方法,通过移动机器人上的摄像机拍摄共面特征点的当前图像、期望图像以及参考图像,并利用单应性技术计算移动机器人当前的位姿信息与期望的位姿信息,并结合机器人运动学获得跟踪误差模型;将跟踪误差模型的最优控制问题转化为求解哈密顿‑雅可比‑贝尔曼方程;利用移动机器人的实际状态信息,使用自适应在线学习算法求解哈密顿‑雅可比‑贝尔曼方程,得到最优值函数,以最优值函数对应的最优控制输入控制移动机器人,本发明能够实现移动机器人利用视觉信息完成轨迹跟踪任务和保证系统稳定性,能实现期望的最优性能指标,降低控制成本,还能提高移动机器人跟踪效果,改善控制器性能。

Description

基于自适应动态规划的移动机器人视觉伺服跟踪控制方法
技术领域
本发明涉及智能控制以及移动机器人控制领域,具体涉及基于自适应动态规划的移动机器人视觉伺服跟踪控制方法。
背景技术
随着移动机器人控制技术的发展,移动机器人如今已被广泛应用于工业生产、国防军事以及生活服务等众多方面。视觉传感器近年来逐渐变得价格经济易于获取,加上其本身具有获取环境信息丰富、外部感知能力强和适用范围广等特点,因而其被广泛装备移动机器人以及其他智能体系统。由于视觉传感器的作用,移动机器人的灵活性和智能性得到极大提高,可以适应更加复杂环境,基于视觉的机器人的定位、环境感知与控制技术也得到了很大的发展。因此基于视觉的移动机器人轨迹跟踪吸引了大量学者的关注与研究。
经典的视觉伺服控制主要分为基于图像、基于位置、与混合视觉伺服控制。基于图像的视觉伺服控制是通过在二维图像平面定义误差信号进行控制,不需要利用移动机器人三维位姿信息,且其对系统扰动具有鲁棒性但是很难控制移动机器人的偏转位姿。基于位置的视觉伺服控制需要在三维欧式空间定义误差信号,虽然需要进行三维重构,但这样直接对三维空间的误差进行控制可以保证其收敛性。考虑到移动机器人的视觉伺服轨迹跟踪控制问题的系统模型是一个时变仿射非线性系统。自适应动态规划是解决仿射非线性系统跟踪控制问题一种有效的方法。求解基于自适应动态规划的移动机器人视觉伺服轨迹跟踪的最优控制并不容易,因为其需要求得密顿-雅可比-贝尔曼方程的解。对于时不变非线性系统来说,其密顿-雅可比-贝尔曼方程是一个时不变的偏微分方程并且无法求得其解析解,目前大部分求解方法都是设计合适的神经网络结构来近似未知项。与上述一般非线性系统不同的是,由于移动机器人系统模型固有的时变特性,最优控制问题中的HJB方程含有两项偏微分项并值函数是关于状态与时间的函数且,这使得问题更加复杂。对时变非线性系统的最优控制仍然与时不变系统存在不同之处,同时带来许多挑战。
发明内容
本发明提供了基于自适应动态规划的移动机器人视觉伺服跟踪控制方法,用于解决现有的移动机器人控制效果差,且控制成本高的技术问题。
为解决上述技术问题,本发明提出的技术方案为:
一种基于自适应动态规划的移动机器人视觉伺服跟踪控制方法,包括以下步骤:
通过移动机器人上的摄像机拍摄共面特征点的当前图像、期望图像以及参考图像;基于当前图像、期望图像以及参考图像,并利用单应性技术计算移动机器人当前的位姿信息与期望的位姿信息;基于计算得到的移动机器人当前的位姿信息与期望的位姿信息,并结合机器人运动学获得跟踪误差模型;
将跟踪误差模型的最优控制问题转化为求解哈密顿-雅可比-贝尔曼方程;利用移动机器人的实际状态信息,使用自适应在线学习算法求解哈密顿-雅可比-贝尔曼方程,得到最优值函数,以最优值函数对应的最优控制输入控制移动机器人。
优选的,通过移动机器人上的摄像机拍摄共面特征点的当前图像、期望图像以及参考图像;基于当前图像、期望图像以及参考图像,并利用单应性技术计算移动机器人当前的位姿信息与期望的位姿信息;包括以下步骤:
设置移动机器人与装载于移动机器人上的摄像机的坐标系相重合,选择坐标系空间中四个共面特征点作为目标点,由摄像机目标点的当前图像、期望图像以及参考图像;基于摄像机模型将当前图像、期望图像以及参考图像的像素坐标进行欧式重构,并对欧式重构后的当前图像、期望图像以及参考图像的像素坐标进行归一化;
利用归一化后的当前图像、期望图像以及参考图像的像素坐标计算出移动机器人当前位置、期望位置分别相对参考位置的单应性矩阵,基于单应性技术得到移动机器人当前位姿与期望位姿。
优选的,归一化公式如下:
mi=K-1pi
其中,K为摄像机标定矩阵,pi为齐次像素坐标。
优选的,基于计算得到的移动机器人当前的位姿信息与期望的位姿信息,并结合机器人运动学获得跟踪误差模型,包括以下步骤:
计算移动机器人在当前摄像机坐标系中的位姿误差e(t),基于移动机器人运动学模型得到跟踪误差模型
Figure BDA0003450905720000021
其中,f(e(t),t)为跟踪误差模型中关于状态e(t)是非线性的部分,g(e(t))为控制矩阵,u(e(t),t)为控制输入。
优选的,哈密顿-雅可比-贝尔曼方程为:
Figure BDA0003450905720000022
其中,
Figure BDA0003450905720000023
表示对关于时间t求偏导,V*(e,t)为待求得最优值函数,f(e,t)为跟踪误差模型中关于状态e(t)是非线性的部分;Q(e)为正定函数,g(e)为控制矩阵;
Figure BDA0003450905720000024
表示对关于e(t)求偏导,R为对称正定矩阵。
优选的,使用自适应在线学习算法求解哈密顿-雅可比-贝尔曼方程,得到最优值函数,包括以下步骤:
基于当前实际系统的状态信息求解如下方程,计算V(e,t):
Figure BDA0003450905720000031
其中,Δt为采样时间间隔,L(e(τ),u(e(τ)))表示效用函数;
2)使用如下方法计算控制输入信号u(e,t):
Figure BDA0003450905720000032
3)在线不断学习,重复执行前两步使得自适应在线学习算法收敛。
优选的,自适应在线学习算法为自适应神经网络算法,在每次迭代过程中,采用如下公式更新自适应神经网络算法的网络参数:
Figure BDA0003450905720000033
其中,W(t)为神经网络权值,
Figure BDA0003450905720000034
φ(e(t))为神经网络的激活函数,L(e(t),u(e(t)))表示效用函数,α>0为神经网络权值的学习速率;
采用如下公式计算控制输入信号u(e(t),t):
Figure BDA0003450905720000035
其中,R为对称正定矩阵,g(e(t))为控制矩阵。
本发明具有以下有益效果:
1、本发明中的基于自适应动态规划的移动机器人视觉伺服跟踪控制方法,不仅能够实现移动机器人利用视觉信息完成轨迹跟踪任务和保证系统稳定性,还能实现期望的最优性能指标,降低控制成本的同时还能提高移动机器人跟踪效果,改善控制器性能。
2、与现有控制方法相比,本发明中的基于自适应动态规划的移动机器人视觉伺服跟踪控制方法,能够通过自适应在线学习的方式实时调整移动机器人速度以应对环境的变化,对于速度不断变化的轨迹也有很好的跟踪效果。
除了上面所描述的目的、特征和优点之外,本发明还有其它的目的、特征和优点。下面将参照附图,对本发明作进一步详细的说明。
附图说明
构成本申请的一部分的附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1为本发明优选实施例中的基于自适应动态规划的移动机器人视觉伺服跟踪控制方法的流程图。
图2为本发明优选实施例中的基于自适应动态规划的移动机器人视觉伺服跟踪控制方法的跟踪误差状态轨迹图。
图3为本发明优选实施例中的基于自适应动态规划的移动机器人视觉伺服跟踪控制方法的移动机器人期望轨迹与实际运动轨迹曲线。
具体实施方式
以下结合附图对本发明的实施例进行详细说明,但是本发明可以由权利要求限定和覆盖的多种不同方式实施。
实施例一:
如图1所示,本发明公开了一种基于自适应动态规划的移动机器人视觉伺服跟踪控制方法,包括以下步骤:
通过移动机器人上的摄像机拍摄共面特征点的当前图像、期望图像以及参考图像;基于所述当前图像、期望图像以及参考图像,并利用单应性技术计算移动机器人当前的位姿信息与期望的位姿信息;基于计算得到的移动机器人当前的位姿信息与期望的位姿信息,并结合机器人运动学获得跟踪误差模型;
将跟踪误差模型的最优控制问题转化为求解哈密顿-雅可比-贝尔曼方程;利用移动机器人的实际状态信息,使用自适应在线学习算法求解哈密顿-雅可比-贝尔曼方程,得到最优值函数,以最优值函数对应的最优控制输入控制所述移动机器人。
本发明中的基于自适应动态规划的移动机器人视觉伺服跟踪控制方法,不仅能够实现移动机器人利用视觉信息完成轨迹跟踪任务和保证系统稳定性,还能实现期望的最优性能指标,降低控制成本的同时还能提高移动机器人跟踪效果,改善控制器性能。
实施例二:
实施例二是实施例的拓展实施例,其与实施例一的不同之处在于,对于基于自适应动态规划的移动机器人视觉伺服跟踪控制方法的具体步骤进行了细化:
在本实施例中,如图1所示,公开了一种基于自适应动态规划的移动机器人视觉伺服跟踪控制方法;包括:
步骤S1:通过移动机器人上的摄像机拍摄共面特征点的当前图像、期望图像以及参考图像,利用单应性技术得到移动机器人当前的位姿信息与期望的位姿信息(即平移量与旋转角度),结合机器人运动学获得跟踪误差模型:
步骤S11:设置移动机器人与装载于其上的摄像机的坐标系相重合,选择空间中四个共面特征点为目标点,由摄像机拍摄的特征点图像获取可测得的像素坐标,并根据针孔摄像机模型进行欧式重构,归一化的三维坐标由mi=K-1pi计算得到,其中K为摄像机标定矩阵,pi为齐次像素坐标;
步骤S12:利用移动机器人当前的、期望的和参考的归一化三维坐标计算出移动机器人当前位置、期望位置分别相对参考位置的单应性矩阵,基于单应性技术得到移动机器人当前位姿与期望位姿;
步骤S13:通过坐标系变换,将期望位姿信息转换到当前摄像机坐标系中描述,然后计算移动机器人位姿误差e(t),基于移动机器人运动学模型得到跟踪误差模型
Figure BDA0003450905720000051
具体而言,步骤S1包括以下内容:
将当前的摄像机坐标系记为Fc,Fc的原点为摄像机光心,x轴方向与移动机器人轮轴平行,z轴方向为摄像机光轴方向,y轴垂直于移动机器人运动平面xz,以Fd和F*分别表示期望轨迹的摄像机坐标系与固定参考坐标系;选取四个特征点,其在摄像机Fc下可测得的齐次像素坐标为
Figure BDA0003450905720000052
由下式可计算出特征点在Fc中的归一化三维坐标:
mi c=K-1pi c
其中,K为摄像机标定矩阵,特征点在Fd和F*中的归一化三维坐标分别为
Figure BDA0003450905720000053
Figure BDA0003450905720000054
由其单应性关系
Figure BDA0003450905720000055
可以计算出单应性矩阵Hc,Hd,使用直接线性变换算法将Hc分解得到对应的平移与旋转量[x,z,θ]T,Hd分解得到[xd,zdd]T,位姿误差定义为:
Figure BDA0003450905720000056
其中T为坐标系Fc与Fd之间的变换矩阵,移动机器人运动学模型表示为:
Figure BDA0003450905720000057
其中v,ω分别表示移动机器人线速度与角速度,然后对误差e(t)求关于时间的导数,结合移动机器人运动学模型,得到跟踪误差模型:
Figure BDA0003450905720000061
步骤S2:根据所得到的跟踪误差模型,设计基于神经网络的自适应评价结构,通过评价网络实现最优性能指标并且计算最优控制输入:
步骤S21:将跟踪误差模型的最优控制问题转化为求解哈密顿-雅可比-贝尔曼方程;
步骤S22:使用评价神经网络逼近值函数并计算最优控制输入,设计基于神经网络的自适应评价结构。
步骤S3:基于自适应动态规划的视觉伺服跟踪控制器的实现,通过自适应动态规划实现视觉伺服跟踪控制器的在线运行:
步骤S31:利用误差模型状态e(t)和跟踪误差模型状态方程
Figure BDA0003450905720000062
通过如下方法进行学习更新神经网络的权值:
Figure BDA0003450905720000063
其中,W(t)为神经网络权值,φ(e(t))为神经网络的激活函数,
Figure BDA0003450905720000064
符号
Figure BDA0003450905720000065
表示对关于e(t)求偏导,L(e(t),u(e(t)))表示效用函数,α>0为神经网络权值的学习速率;
步骤S32:使用如下方法实时计算控制输入信号:
Figure BDA0003450905720000066
其中,R为对称正定矩阵,g(e(t))为控制矩阵。
具体而言,将跟踪误差模型的最优控制问题转化为求解如下形式的哈密顿-雅可比-贝尔曼方程:
Figure BDA0003450905720000067
其中,
Figure BDA0003450905720000068
表示对关于时间t求偏导,V*(e,t)为待求得最优值函数,Q(e)为正定函数,
利用实际系统的状态信息,使用自适应在线学习算法求解哈密顿-雅可比-贝尔曼方程得到最优值函数V*(e,t)。
其中,自适应在线学习算法包括:
1)基于当前实际系统的状态信息求解如下方程,计算V(e,t):
Figure BDA0003450905720000069
其中,τ为参数t的替换。
2)使用如下方法计算控制输入信号:
Figure BDA0003450905720000071
3)在线不断学习,重复执行前两步使得自适应在线学习算法收敛。
为了实现上述自适应在线学习算法,设计基于神经网络的自适应评价结构,使用评价神经网络逼近值函数并计算最优控制输入,使用公式(1)更新评价神经网络的权值,并且使用公式(2)在线实时计算控制输入信号,作用于移动机器人视觉伺服轨迹跟踪过程。图2展示了本发明移动机器人视觉伺服轨迹跟踪控制的系统状态仿真图,图3展示了本发明移动机器人视觉伺服轨迹跟踪控制的期望轨迹与移动机器人实际运动轨迹曲线图,由此可以看出,跟踪误差的收敛速度快,控制效果好。
综上所述,本发明中的基于自适应动态规划的移动机器人视觉伺服跟踪控制方法,不仅能够实现移动机器人利用视觉信息完成轨迹跟踪任务和保证系统稳定性,还能实现期望的最优性能指标,降低控制成本的同时还能提高移动机器人跟踪效果,改善控制器性能。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (7)

1.一种基于自适应动态规划的移动机器人视觉伺服跟踪控制方法,其特征在于,包括以下步骤:
通过移动机器人上的摄像机拍摄共面特征点的当前图像、期望图像以及参考图像;基于所述当前图像、期望图像以及参考图像,并利用单应性技术计算移动机器人当前的位姿信息与期望的位姿信息;基于计算得到的移动机器人当前的位姿信息与期望的位姿信息,并结合机器人运动学获得跟踪误差模型;
将跟踪误差模型的最优控制问题转化为求解哈密顿-雅可比-贝尔曼方程;利用移动机器人的实际状态信息,使用自适应在线学习算法求解哈密顿-雅可比-贝尔曼方程,得到最优值函数,以最优值函数对应的最优控制输入控制所述移动机器人。
2.根据权利要求1所述的基于自适应动态规划的移动机器人视觉伺服跟踪控制方法,其特征在于,通过移动机器人上的摄像机拍摄共面特征点的当前图像、期望图像以及参考图像;基于所述当前图像、期望图像以及参考图像,并利用单应性技术计算移动机器人当前的位姿信息与期望的位姿信息;包括以下步骤:
设置移动机器人与装载于移动机器人上的摄像机的坐标系相重合,选择坐标系空间中四个共面特征点作为目标点,由摄像机目标点的当前图像、期望图像以及参考图像;基于摄像机模型将所述当前图像、期望图像以及参考图像的像素坐标进行欧式重构,并对欧式重构后的当前图像、期望图像以及参考图像的像素坐标进行归一化;
利用归一化后的当前图像、期望图像以及参考图像的像素坐标计算出移动机器人当前位置、期望位置分别相对参考位置的单应性矩阵,基于单应性技术得到移动机器人当前位姿与期望位姿。
3.根据权利要求2所述的基于自适应动态规划的移动机器人视觉伺服跟踪控制方法,其特征在于,所述归一化公式如下:
mi=K-1pi
其中,K为摄像机标定矩阵,pi为齐次像素坐标。
4.根据权利要求2所述的基于自适应动态规划的移动机器人视觉伺服跟踪控制方法,其特征在于,基于计算得到的移动机器人当前的位姿信息与期望的位姿信息,并结合机器人运动学获得跟踪误差模型,包括以下步骤:
计算移动机器人在当前摄像机坐标系中的位姿误差e(t),基于移动机器人运动学模型得到跟踪误差模型
Figure FDA0003450905710000011
其中,f(e(t),t)为跟踪误差模型中关于状态e(t)是非线性的部分,g(e(t))为控制矩阵,u(e(t),t)为控制输入。
5.根据权利要求3所述的基于自适应动态规划的移动机器人视觉伺服跟踪控制方法,其特征在于,所述哈密顿-雅可比-贝尔曼方程为:
Figure FDA0003450905710000021
其中,
Figure FDA0003450905710000022
表示对关于时间t求偏导,V*(e,t)为待求得最优值函数,f(e,t)为跟踪误差模型中关于状态e(t)是非线性的部分;Q(e)为正定函数,g(e)为控制矩阵;
Figure FDA0003450905710000023
表示对关于e(t)求偏导,R为对称正定矩阵。
6.根据权利要求5所述的基于自适应动态规划的移动机器人视觉伺服跟踪控制方法,其特征在于,使用自适应在线学习算法求解哈密顿-雅可比-贝尔曼方程,得到最优值函数,包括以下步骤:
基于当前实际系统的状态信息求解如下方程,计算V(e,t):
Figure FDA0003450905710000024
其中,Δt为采样时间间隔,L(e(τ),u(e(τ)))表示效用函数;
2)使用如下方法计算控制输入信号u(e,t):
Figure FDA0003450905710000025
3)在线不断学习,重复执行前两步使得自适应在线学习算法收敛。
7.根据权利要求6所述的基于自适应动态规划的移动机器人视觉伺服跟踪控制方法,其特征在于,所述自适应在线学习算法为自适应神经网络算法,在每次迭代过程中,采用如下公式更新自适应神经网络算法的网络参数:
Figure FDA0003450905710000026
其中,W(t)为神经网络权值,
Figure FDA0003450905710000027
φ(e(t))为神经网络的激活函数,L(e(t),u(e(t)))表示效用函数,α>0为神经网络权值的学习速率;
采用如下公式计算控制输入信号u(e(t),t):
Figure FDA0003450905710000028
其中,R为对称正定矩阵,g(e(t))为控制矩阵。
CN202111665184.XA 2021-12-31 2021-12-31 基于自适应动态规划的移动机器人视觉伺服跟踪控制方法 Pending CN114434441A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111665184.XA CN114434441A (zh) 2021-12-31 2021-12-31 基于自适应动态规划的移动机器人视觉伺服跟踪控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111665184.XA CN114434441A (zh) 2021-12-31 2021-12-31 基于自适应动态规划的移动机器人视觉伺服跟踪控制方法

Publications (1)

Publication Number Publication Date
CN114434441A true CN114434441A (zh) 2022-05-06

Family

ID=81365873

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111665184.XA Pending CN114434441A (zh) 2021-12-31 2021-12-31 基于自适应动态规划的移动机器人视觉伺服跟踪控制方法

Country Status (1)

Country Link
CN (1) CN114434441A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116149262A (zh) * 2023-04-23 2023-05-23 山东科技大学 一种伺服系统的跟踪控制方法及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116149262A (zh) * 2023-04-23 2023-05-23 山东科技大学 一种伺服系统的跟踪控制方法及系统
CN116149262B (zh) * 2023-04-23 2023-07-04 山东科技大学 一种伺服系统的跟踪控制方法及系统

Similar Documents

Publication Publication Date Title
CN109102525B (zh) 一种基于自适应位姿估计的移动机器人跟随控制方法
Li et al. Visual servo regulation of wheeled mobile robots with simultaneous depth identification
CN108839026B (zh) 一种移动机器人视觉伺服跟踪预测控制方法
CN111872934B (zh) 一种基于隐半马尔可夫模型的机械臂控制方法及系统
CN108469823B (zh) 一种基于单应性的移动机器人编队跟随方法
Delhaisse et al. Transfer learning of shared latent spaces between robots with similar kinematic structure
CN106371442B (zh) 一种基于张量积模型变换的移动机器人控制方法
CN109857100B (zh) 一种基于反演法和快速终端滑模的复合轨迹跟踪控制算法
CN110722533B (zh) 轮式移动机器人外参数无标定视觉伺服跟踪
CN109760047B (zh) 一种基于视觉传感器的舞台机器人预测控制方法
CN111360821A (zh) 一种采摘控制方法、装置、设备及计算机刻度存储介质
CN111552293A (zh) 一种视野约束下基于图像的移动机器人编队控制方法
CN114721275B (zh) 一种基于预设性能的视觉伺服机器人自适应跟踪控制方法
CN112706165A (zh) 一种面向轮式移动机械臂的跟踪控制方法及系统
CN114434441A (zh) 基于自适应动态规划的移动机器人视觉伺服跟踪控制方法
Miao et al. Low-complexity leader-following formation control of mobile robots using only FOV-constrained visual feedback
Li et al. Hybrid uncalibrated visual servoing control of harvesting robots with RGB-D cameras
CN109443355B (zh) 基于自适应高斯pf的视觉-惯性紧耦合组合导航方法
CN112650217B (zh) 一种基于评估函数的机器人轨迹跟踪策略动态优化方法
CN112734823B (zh) 一种基于图像的视觉伺服的雅可比矩阵深度估计方法
CN116872216B (zh) 一种基于有限时间控制的机器人视觉伺服作业方法
Li et al. Hybrid visual servoing tracking control of uncalibrated robotic systems for dynamic dwarf culture orchards harvest
CN112099505A (zh) 一种低复杂度的移动机器人视觉伺服编队控制方法
Teka et al. Learning based end effector tracking control of a mobile manipulator for performing tasks on an uneven terrain
CN110722547B (zh) 模型未知动态场景下移动机器人视觉镇定

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination