CN112051734A - 一种基于确定学习的轮式移动机器人事件触发跟踪控制方法 - Google Patents

一种基于确定学习的轮式移动机器人事件触发跟踪控制方法 Download PDF

Info

Publication number
CN112051734A
CN112051734A CN202010830331.3A CN202010830331A CN112051734A CN 112051734 A CN112051734 A CN 112051734A CN 202010830331 A CN202010830331 A CN 202010830331A CN 112051734 A CN112051734 A CN 112051734A
Authority
CN
China
Prior art keywords
mobile robot
neural network
controller
learning
event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010830331.3A
Other languages
English (en)
Other versions
CN112051734B (zh
Inventor
占宏
胡锐
黄龙旺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN202010830331.3A priority Critical patent/CN112051734B/zh
Publication of CN112051734A publication Critical patent/CN112051734A/zh
Application granted granted Critical
Publication of CN112051734B publication Critical patent/CN112051734B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/04Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
    • G05B13/042Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators in which a parameter or coefficient is automatically adjusted to optimise the performance

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Feedback Control In General (AREA)

Abstract

本发明公开了一种基于确定学习的轮式移动机器人事件触发跟踪控制方法,具体包括以下步骤:建立轮式移动机器人的动力学模型和期望的周期轨迹;设计自适应神经网络控制器,并利用确定学习理论获取经验知识;设计作用于传感器与控制器之间网络通道的事件触发机制;建立基于经验知识和事件触发的常值神经网络控制器。本发明设计的方法不仅将传统的轮式移动机器人时间触发控制方式推广到了事件触发控制方式,降低了远程控制中网络带宽的占用,而且利用确定学习理论设计了常值神经网络控制器,在减少网络带宽的同时保证了好的暂态跟踪性能。

Description

一种基于确定学习的轮式移动机器人事件触发跟踪控制方法
技术领域
本发明涉及轮式移动机器人的智能跟踪控制的技术领域,具体涉及一种基于确定学习的 轮式移动机器人事件触发跟踪控制方法。
背景技术
轮式移动机器人是结合了信息论、控制论、人工智能等多个不同领域的产物,其在工业 生产、土木建筑、医疗卫生、教育科研等诸多场景中得到广泛地应用。注意到轮式移动机器 人系统由于阻尼和摩擦力等因素导致系统存在建模不确定性。为了克服建模不确定性带来的 控制精度下降问题,通常采用神经网络进行对轮式移动机器人系统未知动态进行辨识。但是 传统的自适应神经网络控制对机器人执行相同或相似控制任务都需要在线调整权值来重新辨 识未知动态,使得控制方案耗时长,不易实施。基于确定学习设计出的控制器能够利用学习 到的经验知识来完成控制任务,避免了神经网络重复训练的问题。然而,现有的确定学习控 制方案均采用了时间触发方式。由于其通过固定时间周期地对信号进行采样传输,势必会造 成不必要的信号传输,从而造成网络通道不必要的资源占用。因此,设计一个适当的触发机 制,使得控制系统既能保持良好的控制性能也能减少网络通道资源的使用,是网络化控制系 统中的一个非常重要的课题。
发明内容
本发明的目的是针对上述现有技术的不足,提出了一种基于确定学习和事件触发的轮式 移动机器人的位置控制方法;针对神经网络每次做任务都要重复训练的问题,该方法利用确 定学习理论,将收敛后的神经网络权值存储为经验知识,当移动机器人再次做同样任务的时 候,可以直接调用经验知识进行利用,而不需要重复训练神经网络;针对传统时间触发控制 方法出现的不必要的网络资源传输问题,该方法利用事件触发机制,当不满足所设事件触发 条件的时候,才进行信号的传输,从而避免了网络资源浪费的问题。
本发明的目的可以通过如下技术方案实现:
本发明提供一种基于确定学习的轮式移动机器人事件触发跟踪控制方法,包括以下步骤:
步骤1、建立轮式移动机器人的动力学模型和期望的周期轨迹;
步骤2、获取经验知识:结合李雅普诺夫稳定性理论和动态面设计方法构造自适应神经网 络控制器,并利用确定学习理论将收敛后的神经网络权值
Figure BDA0002637705110000021
保存为常值权值
Figure BDA0002637705110000022
步骤3、构建作用于传感器到控制器之间网络通道的事件触发机制,当网络通道传输信号 达到触发条件,将采用信号经过网络通道传输到控制端;
步骤4、设计基于经验知识和事件触发的常值神经网络控制器,利用常值神经网络控制器 对触发事件进行跟踪;所述常值神经网络控制器为:
Figure BDA0002637705110000023
其中,B表示与移动机器人的质量、惯性、轮子半径相关的已知常数矩阵,k2为误差
Figure BDA0002637705110000024
的 设计参数,
Figure BDA0002637705110000025
为经过确定学习得到的常值神经网络权值。
进一步的,步骤1中,所述动力学模型为:
Figure BDA0002637705110000026
其中x1=[x,y,θ]T为环境坐标系下的移动机器人的位姿向量,
Figure BDA0002637705110000027
表示机器人 坐标系下的移动机器人的速度向量,J(x1)表示用于坐标变化的旋转矩阵,B是一个已知的且 与移动机器人的质量、惯性、轮子半径有关的常数矩阵,A(x2)是未知的且与移动机器人的摩 擦系数、惯性、质量有关的矩阵;τ是系统的控制输入。
进一步的,步骤1中,所述期望的周期轨迹为:
Figure BDA0002637705110000028
其中,xd1=[xd1,1,xd1,2,xd1,3]T为移动机器人位姿的期望参考轨迹,f(xd1,xd2)为给定的连续函数。
进一步的,步骤2中,所述构造自适应神经网络控制器,具体为:
Figure BDA0002637705110000029
其中,kt2为误差zt2的设计参数,zt1=x1-xd1是移动机器人位姿和参考轨迹之间的误差, zt2=x2tf是移动机器人速度和虚拟速度经过滤波器之后输出值的差值,滤波器构造为
Figure BDA00026377051100000210
τt为设计参数,
Figure BDA00026377051100000211
kt1为zt1的设计参数,zt1=x1-xd1为 移动机器人位姿和参考轨迹之间的跟踪误差,
Figure BDA00026377051100000212
为神经网络权值的估计值。
进一步的,步骤2中,所述利用确定学习理论将收敛后的神经网络权值
Figure BDA00026377051100000213
保存为常值权 值
Figure BDA0002637705110000031
具体为:
选取权值更新率为:
Figure BDA0002637705110000032
其中:S(Z)=[s1(||Z-θ1||),…,sN(||Z-θN)||]T为神经网络基函数,sj(||Z-θj||)=exp(-||Z-θj||2j 2)为高斯函数,θj为中心点,ηj为宽度,j=1,…,N,N为神经网络布 点数,Z=x2为神经网络的输入,Γ为神经网络权值更新率的增益项,σ为神经网络权值更 新率的设计常数;
基于确定学习理论,获取稳定后的权值
Figure BDA0002637705110000033
其中,tb>ta>T,T为收敛时间。
进一步的,步骤3中,构建作用于传感器到控制器之间网络通道的事件触发机制,具体 为:
定义位于传感器到控制器之间网络通道的状态信号传输误差为:
Figure BDA0002637705110000034
其中,x1和x2分别为移动机器人的位姿向量和速度向量,
Figure BDA0002637705110000035
Figure BDA0002637705110000036
分别为经过网络通道传 输到控制器端的移动机器人的位姿向量和速度向量,e1和e2分别为移动机器人在网络通道中 的传输误差;
令e=[e1 T,e2 T,eJ T]T,
Figure BDA0002637705110000037
其中F1(x1,x2)=J(x1)x2-x2
Figure BDA0002637705110000038
Figure BDA0002637705110000039
J(x1)为移动机器人模型中的用于坐标变换的旋转矩阵,设计网络通道传输信号 的触发条件为:
Figure BDA00026377051100000310
若系统满足该条件,则将采样信号经过网络通道传输到控制端;
其中,k1,k2是控制器的增益参数,L是神经网络基函数的利普希茨系数,z=[z1 T,z2 T]T, 其中z1是移动机器人的位姿与期望轨迹的差值组成的列向量,z1是移动机器人的速度向量与 虚拟速度经过滤波器之后输出值的差值组成的列向量,Λ是大于0的设计参数,
Figure BDA0002637705110000041
是基于确 定学习获取的常值神经网络权值。
进一步的,还包括下述步骤:
将移动机器人速度与虚拟速度经过滤波器之后输出值的差值组成的列向量z2设置为:
z2=x21f
Figure BDA0002637705110000042
Figure BDA0002637705110000043
Figure BDA0002637705110000044
其中:x2是移动机器人的角速度,α1f是α1经过一阶滤波器之后的滤波变量,
Figure BDA0002637705110000045
是经过网 络通道传输到控制器端的移动机器人位姿和参考轨迹之间的误差。
进一步的,步骤4中,将控制器端接收到移动机器人速度和虚拟速度经过滤波器之后输 出值的差值组成的列向量
Figure BDA0002637705110000046
设置为:
Figure BDA0002637705110000047
其中:
Figure BDA0002637705110000048
是经过网络通道传输到控制器端的移动机器人速度,α1f是α1经过一阶滤波器之 后的滤波变量。
本发明与现有技术相比,具有如下优点和有益效果:
1、本发明利用确定学习理论,实现了对轮式移动机器人系统未知动态进行学习,并将收 敛的神经网络权值进行存储,利用经验知识避免了冗余训练。
2、本发明基于确定学习原理设计的事件触发机制,结构形式简单,采用常值权值代替了 在线估计权值,降低了计算时间,便于实现。
3.本发明联合确定学习原理与事件触发机制,在远程移动机器人轨迹跟踪控制中,实现 了好的暂态跟踪性能、节省了网络带宽的占用和降低了算法的计算负担。
附图说明
图1为本实施例轮式移动机器人系统示意图。
图2为本实施例基于确定学习和事件触发的轮式移动机器人的整体控制流程图。
图3为本实施例轮式移动机器人系统事件触发次数图。
图4为本实施例轮式移动机器人系统事件触发间隔表示图。
图5为本实施例轮式移动机器人传输误差与阈值图。
图6为本实施例轮式移动机器人位姿跟踪误差图。
图7为本实施例轮式移动机器人控制器输出图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发 明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用 于限定本发明。
如图1、图2所示,本实施例一种基于确定学习的轮式移动机器人事件触发跟踪控制方法, 包括下述步骤:
步骤1、建立轮式移动机器人的动力学模型和期望的周期轨迹:
Figure BDA0002637705110000051
其中x1=[x,y,θ]T为环境坐标系下的移动机器人的位姿向量,
Figure BDA0002637705110000052
表示机器人坐标 系下的移动机器人的速度向量,J(x1)表示用于坐标变化的旋转矩阵,B是一个已知的且与移 动机器人的质量、惯性、轮子半径有关的常数矩阵,A(x2)是未知的且与移动机器人的摩擦系 数、惯性、质量有关的矩阵;τ是系统的控制输入,本实施例中轮式移动机器人系统如图1 所示。
本实施例中选取的轮式移动机器人系统的相关参数分别为:
Figure BDA0002637705110000053
Figure BDA0002637705110000054
Figure BDA0002637705110000061
机器人的质量为m=15kg,每个驱动轮的半径r=0.1m,输入转矩的增益因子k=5,驱动轮 与其所在平面的综合粘滞摩擦系数ξ=0.1,每个驱动轮的几何中心与机器人的几何中心之间 的距离L=0.5m,驱动轮绕其驱动电机轴的转动惯量Iw=0.01kgm2,机器人绕着其中心轴的转 动惯量IC=0.07kgm2
轮式移动机器人期望的周期轨迹为:
Figure BDA0002637705110000062
其中,xd1=[xd1,1,xd1,2,xd1,3]T为移动机器人位姿的期望参考轨迹,f(xd1,xd2)为给定的连续函数。
本实例中选取的期望周期轨迹为:
xd1=[sin(t),sin(t),sin(t)]T
Figure BDA0002637705110000063
步骤2中,所述构造自适应神经网络控制器并获取经验知识,具体为:
首先定义移动机器人的位姿和参考轨迹之间的跟踪误差为:
zt1=x1-xd1
设计虚拟控制器α1
Figure BDA0002637705110000064
其中,kt1为误差zt1的设计参数;
根据动态面方法得到一阶滤波器方程:
Figure BDA0002637705110000065
其中τt为滤波系数,α1f为滤波虚拟控制变量。
定义误差zt2为:
zt2=x2tf
构造出实际控制自适应神经网络控制器为:
Figure BDA0002637705110000071
其中,k2为z2的设计参数,
Figure BDA0002637705110000072
为神经网络权值的估计值,选取权值更新率为
Figure BDA0002637705110000073
其中:S(Z)=[s1(||Z-θ1||),…,sN(||Z-θN)||]T,sj(||Z-θj||)=exp(-||Z-θj||2j 2)为高斯基函 数,θj为中心点,ηj为宽度,j=1,…,N,N为神经网络布点数,Z=x2为神经网络的输入, Γ为神经网络权值更新率的增益项,σ为神经网络权值更新率的设计常数;x1和x2的初始值 为x1=[0,0,0]T,x2=[0,0,0]T,α1f=[1,1,1]T;神经网络的初始值为
Figure BDA0002637705110000074
神经网络节点 数为N=7×7×7=343,中心点均匀分布在[-1.5 1.5]×[-1.5 1.5]×[-1.5 1.5]上, η1=0.625,η2=0.625,η3=0.625,Γ=10,σ=0.00001;控制器参数为kt1=2,kt2=2.5, τt=0.01,获取稳定后的权值
Figure BDA0002637705110000075
tb>ta>T,T为收敛时间,本实例中T=200, tai=250,tbi=300。
步骤3、构建作用于传感器到控制器之间网络通道的事件触发机制;
定义位于传感器到控制器之间网络通道的状态信号传输误差为:
Figure BDA0002637705110000076
其中,x1和x2分别为移动机器人的位姿向量和速度向量,
Figure BDA0002637705110000077
Figure BDA0002637705110000078
分别为经过网络通道传 输到控制器端的移动机器人的位姿向量和速度向量,e1和e2分别为移动机器人在网络通道中 的传输误差。
令e=[e1 T,e2 T,eJ T]T,
Figure BDA0002637705110000079
其中F1(x1,x2)=J(x1)x2-x2
Figure BDA00026377051100000710
Figure BDA00026377051100000711
J(x1)为移动机器人模型中的用于坐标变换的旋转矩阵。设计网络通道传输信号 的触发条件为:
Figure BDA00026377051100000712
若系统满足该条件,则将采样信号经过网络通道传输到控制端。
其中,k1,k2是控制器的增益参数,L是神经网络基函数的利普希茨系数,z=[z1 T,z2 T]T, 其中z1是移动机器人的位姿与期望轨迹的差值组成的列向量,z1是移动机器人的速度向量与 虚拟速度经过滤波器之后输出值的差值组成的列向量。Λ是大于0的设计参数,
Figure BDA0002637705110000081
是基于确 定学习获取的常值神经网络权值。
步骤4、设计基于经验学习和事件触发的常值神经网络控制器:
Figure BDA0002637705110000082
定义移动机器人位姿和参考轨迹之间的跟踪误差为:
z1=x1-xd1
设计虚拟控制器α1
Figure BDA0002637705110000083
其中,k1为误差z1的设计参数,
Figure BDA0002637705110000084
根据动态面方法得到一阶滤波器方程:
Figure BDA0002637705110000085
其中τ1为滤波系数,α1f为滤波虚拟控制变量。
定义误差z2为:
z2=x21f
构造出实际常值神经网络控制器为:
Figure BDA0002637705110000086
其中,
Figure BDA0002637705110000087
x1和x2的初始值为x1(0)=[0,0,0]T,x2(0)=[0,0,0]T,α1f=[1,1,1]T;神经网络节点数为 N=7×7×7=343,中心点均匀分布在[-1.5 1.5]×[-1.5 1.5]×[-1.5 1.5]上,η1=0.625, η2=0.625,η3=0.625,控制器参数为kt1=2,kt2=2.5,τ1=0.01。
仿真采样步长设置为0.001s,采样时间为15s。图3为移动机器人系统在基于确定学习 和事件触发机制下的触发次数,可以看出,相较于传统的时间触发机制需要触发15000次, 本方法只触发了3673次,有效减少了触发次数,节省了网络带宽。图4是移动机器人事件触 发间隔图。图5是事件触发过程中事件误差和阈值的关系图,从图中可知事件误差是小于等 于阈值的。图6是移动机器人的位姿跟踪误差图,可以看出其位姿的跟踪误差可以收敛到零 的小邻域内。图7是移动机器人控制器的输出图。
以上所述,仅为本发明专利较佳的实施例,但本发明专利的保护范围并不局限于此,任 何熟悉本技术领域的技术人员在本发明专利所公开的范围内,根据本发明专利的技术方案及 其发明专利构思加以等同替换或改变,都属于本发明专利的保护范围。

Claims (8)

1.一种基于确定学习的轮式移动机器人事件触发跟踪控制方法,其特征在于,包括以下步骤:
步骤1、建立轮式移动机器人的动力学模型和期望的周期轨迹;
步骤2、获取经验知识:结合李雅普诺夫稳定性理论和动态面设计方法构造自适应神经网络控制器,并利用确定学习理论将收敛后的神经网络权值
Figure FDA0002637705100000011
保存为常值权值
Figure FDA0002637705100000012
步骤3、构建作用于传感器到控制器之间网络通道的事件触发机制,当网络通道传输信号达到触发条件,将采用信号经过网络通道传输到控制端;
步骤4、设计基于经验知识和事件触发的常值神经网络控制器,利用常值神经网络控制器对触发事件进行跟踪;所述常值神经网络控制器为:
Figure FDA0002637705100000013
其中,B表示与移动机器人的质量、惯性、轮子半径相关的已知常数矩阵,k2为误差
Figure FDA0002637705100000014
的设计参数,
Figure FDA0002637705100000015
为经过确定学习得到的常值神经网络权值。
2.根据权利要求1所述的一种基于确定学习的轮式移动机器人事件触发跟踪控制方法,其特征在于:步骤1中,所述动力学模型为:
Figure FDA0002637705100000016
其中x1=[x,y,θ]T为环境坐标系下的移动机器人的位姿向量,
Figure FDA0002637705100000017
表示机器人坐标系下的移动机器人的速度向量,J(x1)表示用于坐标变化的旋转矩阵,B是一个已知的且与移动机器人的质量、惯性、轮子半径有关的常数矩阵,A(x2)是未知的且与移动机器人的摩擦系数、惯性、质量有关的矩阵;τ是系统的控制输入。
3.根据权利要求1所述的一种基于确定学习的轮式移动机器人事件触发跟踪控制方法,其特征在于:步骤1中,所述期望的周期轨迹为:
Figure FDA0002637705100000018
其中,xd1=[xd1,1,xd1,2,xd1,3]T为移动机器人位姿的期望参考轨迹,f(xd1,xd2)为给定的连续函数。
4.根据权利要求1所述的一种基于确定学习的轮式移动机器人事件触发跟踪控制方法,其特征在于:步骤2中,所述构造自适应神经网络控制器,具体为:
Figure FDA0002637705100000019
其中,kt2为误差zt2的设计参数,zt1=x1-xd1是移动机器人位姿和参考轨迹之间的误差,zt2=x2tf是移动机器人速度和虚拟速度经过滤波器之后输出值的差值,滤波器构造为
Figure FDA0002637705100000021
τt为设计参数,
Figure FDA00026377051000000213
kt1为zt1的设计参数,zt1=x1-xd1为移动机器人位姿和参考轨迹之间的跟踪误差,
Figure FDA0002637705100000022
为神经网络权值的估计值。
5.根据权利要求4所述的一种基于确定学习的轮式移动机器人事件触发跟踪控制方法,其特征在于:步骤2中,所述利用确定学习理论将收敛后的神经网络权值
Figure FDA0002637705100000023
保存为常值权值
Figure FDA0002637705100000024
具体为:
选取权值更新率为:
Figure FDA0002637705100000025
其中:S(Z)=[s1(||Z-θ1||),…,sN(||Z-θN)||]T为神经网络基函数,sj(||Z-θj||)=exp(-||Z-θj||2j 2)为高斯函数,θj为中心点,ηj为宽度,j=1,…,N,N为神经网络布点数,Z=x2为神经网络的输入,Γ为神经网络权值更新率的增益项,σ为神经网络权值更新率的设计常数;
基于确定学习理论,获取稳定后的权值
Figure FDA0002637705100000026
其中,tb>ta>T,T为收敛时间。
6.根据权利要求1所述的一种基于确定学习和事件触发的移动机器人的智能控制方法,其特征在于:步骤3中,构建作用于传感器到控制器之间网络通道的事件触发机制,具体为:
定义位于传感器到控制器之间网络通道的状态信号传输误差为:
Figure FDA0002637705100000027
其中,x1和x2分别为移动机器人的位姿向量和速度向量,
Figure FDA0002637705100000028
Figure FDA0002637705100000029
分别为经过网络通道传输到控制器端的移动机器人的位姿向量和速度向量,e1和e2分别为移动机器人在网络通道中的传输误差;
令e=[e1 T,e2 T,eJ T]T,
Figure FDA00026377051000000210
其中F1(x1,x2)=J(x1)x2-x2
Figure FDA00026377051000000211
Figure FDA00026377051000000212
J(x1)为移动机器人模型中的用于坐标变换的旋转矩阵,设计网络通道传输信号的触发条件为:
Figure FDA0002637705100000031
若系统满足该条件,则将采样信号经过网络通道传输到控制端;
其中,k1,k2是控制器的增益参数,L是神经网络基函数的利普希茨系数,z=[z1 T,z2 T]T,其中z1是移动机器人的位姿与期望轨迹的差值组成的列向量,z1是移动机器人的速度向量与虚拟速度经过滤波器之后输出值的差值组成的列向量,Λ是大于0的设计参数,W是基于确定学习获取的常值神经网络权值。
7.根据权利要求6所述的一种基于确定学习和事件触发的移动机器人的智能控制方法,其特征在于:还包括下述步骤:
将移动机器人速度与虚拟速度经过滤波器之后输出值的差值组成的列向量z2设置为:
z2=x21f
Figure FDA0002637705100000032
Figure FDA0002637705100000033
Figure FDA0002637705100000034
其中:x2是移动机器人的角速度,α1f是α1经过一阶滤波器之后的滤波变量,
Figure FDA0002637705100000035
是经过网络通道传输到控制器端的移动机器人位姿和参考轨迹之间的误差。
8.根据权利要求1所述的一种基于确定学习和事件触发的移动机器人的智能控制方法,其特征在于:步骤4中,将控制器端接收到移动机器人速度和虚拟速度经过滤波器之后输出值的差值组成的列向量
Figure FDA0002637705100000036
设置为:
Figure FDA0002637705100000037
其中:
Figure FDA0002637705100000038
是经过网络通道传输到控制器端的移动机器人速度,α1f是α1经过一阶滤波器之后的滤波变量。
CN202010830331.3A 2020-08-18 2020-08-18 一种基于确定学习的轮式移动机器人事件触发跟踪控制方法 Active CN112051734B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010830331.3A CN112051734B (zh) 2020-08-18 2020-08-18 一种基于确定学习的轮式移动机器人事件触发跟踪控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010830331.3A CN112051734B (zh) 2020-08-18 2020-08-18 一种基于确定学习的轮式移动机器人事件触发跟踪控制方法

Publications (2)

Publication Number Publication Date
CN112051734A true CN112051734A (zh) 2020-12-08
CN112051734B CN112051734B (zh) 2021-07-23

Family

ID=73599072

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010830331.3A Active CN112051734B (zh) 2020-08-18 2020-08-18 一种基于确定学习的轮式移动机器人事件触发跟踪控制方法

Country Status (1)

Country Link
CN (1) CN112051734B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113211446A (zh) * 2021-05-20 2021-08-06 长春工业大学 一种事件触发-神经动态规划的机械臂分散跟踪控制方法
CN114367980A (zh) * 2021-12-20 2022-04-19 华南理工大学 基于确定学习的封闭机器人速度补偿跟踪控制方法、存储介质及机器人
CN117539153A (zh) * 2023-11-21 2024-02-09 山东大学 基于确定学习的上肢康复机器人自适应控制方法及系统
CN117724336A (zh) * 2023-12-18 2024-03-19 中国矿业大学 一种基于状态和估计参数触发的机器人系统跟踪控制方法
CN117724336B (zh) * 2023-12-18 2024-06-11 中国矿业大学 一种基于状态和估计参数触发的机器人系统跟踪控制方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107160398A (zh) * 2017-06-16 2017-09-15 华南理工大学 基于确定学习的全状态受限刚性机械臂安全可靠控制方法
CN109227543A (zh) * 2018-10-19 2019-01-18 华南理工大学 一种位置受限柔性关节机器人基于模式的智能控制方法
CN110703609A (zh) * 2019-11-18 2020-01-17 南京工业大学 一种电机伺服系统智能运动控制方法
CN110705034A (zh) * 2019-09-09 2020-01-17 华南理工大学 一种基于事件触发的永磁同步电机位置跟踪控制方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107160398A (zh) * 2017-06-16 2017-09-15 华南理工大学 基于确定学习的全状态受限刚性机械臂安全可靠控制方法
CN109227543A (zh) * 2018-10-19 2019-01-18 华南理工大学 一种位置受限柔性关节机器人基于模式的智能控制方法
CN110705034A (zh) * 2019-09-09 2020-01-17 华南理工大学 一种基于事件触发的永磁同步电机位置跟踪控制方法
CN110703609A (zh) * 2019-11-18 2020-01-17 南京工业大学 一种电机伺服系统智能运动控制方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
M. WANG等: "Adaptive Neural Event-Triggered Control for Discrete-Time Strict-Feedback Nonlinear Systems", 《IEEE TRANSACTIONS ON CYBERNETICS》 *
XIAOBOLIN等: "Event-triggered reinforcement learning control for the quadrotor UAV with actuator saturation", 《NEUROCOMPUTING》 *
XIONG YANG等: "Decentralized event-triggered control for a class of nonlinear-interconnected systems using reinforcement learning", 《IEEE TRANSACTIONS ON CYBERNETICS》 *
陈志广: "柔性关节机械臂的神经网络控制与确定学习", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113211446A (zh) * 2021-05-20 2021-08-06 长春工业大学 一种事件触发-神经动态规划的机械臂分散跟踪控制方法
CN113211446B (zh) * 2021-05-20 2023-12-08 长春工业大学 一种事件触发-神经动态规划的机械臂分散跟踪控制方法
CN114367980A (zh) * 2021-12-20 2022-04-19 华南理工大学 基于确定学习的封闭机器人速度补偿跟踪控制方法、存储介质及机器人
CN114367980B (zh) * 2021-12-20 2023-05-30 华南理工大学 基于确定学习的封闭机器人速度补偿跟踪控制方法、存储介质及机器人
CN117539153A (zh) * 2023-11-21 2024-02-09 山东大学 基于确定学习的上肢康复机器人自适应控制方法及系统
CN117539153B (zh) * 2023-11-21 2024-05-28 山东大学 基于确定学习的上肢康复机器人自适应控制方法及系统
CN117724336A (zh) * 2023-12-18 2024-03-19 中国矿业大学 一种基于状态和估计参数触发的机器人系统跟踪控制方法
CN117724336B (zh) * 2023-12-18 2024-06-11 中国矿业大学 一种基于状态和估计参数触发的机器人系统跟踪控制方法

Also Published As

Publication number Publication date
CN112051734B (zh) 2021-07-23

Similar Documents

Publication Publication Date Title
CN112051734B (zh) 一种基于确定学习的轮式移动机器人事件触发跟踪控制方法
CN112775976B (zh) 任务执行控制方法、装置、控制设备及可读存储介质
Baumann et al. Deep reinforcement learning for event-triggered control
Chang et al. Robust tracking designs for both holonomic and nonholonomic constrained mechanical systems: adaptive fuzzy approach
Qi et al. Stable indirect adaptive control based on discrete-time T–S fuzzy model
Asad et al. Backstepping-based recurrent type-2 fuzzy sliding mode control for MIMO systems (MEMS triaxial gyroscope case study)
Lewis et al. Neural networks in feedback control systems
Harmon et al. Reinforcement learning applied to a differential game
Ruangsang et al. Control of time-varying delay systems with uncertain parameters via fuzzy-modeled prescribed performance control approach
CN113359439B (zh) 多智能体系统有限时间多目标协同追踪方法和存储介质
Parapari et al. Solving nonlinear ordinary differential equations using neural networks
CN109176529B (zh) 一种空间机器人协调运动的自适应模糊控制方法
Khosravi et al. Adaptive fuzzy SMC-based formation design for swarm of unknown time-delayed robots
CN112947066B (zh) 一种机械手改进有限时间反演控制方法
Rao et al. Feedback-error learning scheme using recurrent neural networks for nonlinear dynamic systems
Jamin et al. Two-wheeled wheelchair stabilization using interval type-2 fuzzy logic controller
CN114859725A (zh) 一种非线性系统自适应事件触发控制方法及系统
CN114791741A (zh) 事件触发下无人系统集群的无模型最优分组协同控制方法
Cao et al. An adaptive controller for a class of nonlinear system using direction basis function
Nguyen et al. Reinforcement Learning-Based Event-Triggered Robust Optimal Control for Mobile Euler-Lagrange Systems with Dead-Zone and Saturation Actuators
Chen et al. Neural network compensator-based robust iterative learning control scheme for mobile robots nonlinear systems with disturbances and uncertain parameters
Zhou et al. Research on the fuzzy algorithm of path planning of mobile robot
Efe et al. Creating a sliding mode in a motion control system by adopting a dynamic defuzzification strategy in an adaptive neuro fuzzy inference system
Mousavifard et al. Formation Control of Multi-quadrotors Based on Deep Q-learning
PETER et al. Neural tracking trajectory of the mobile robot khepera ii in internal model control structure

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant