CN112051734A - 一种基于确定学习的轮式移动机器人事件触发跟踪控制方法 - Google Patents
一种基于确定学习的轮式移动机器人事件触发跟踪控制方法 Download PDFInfo
- Publication number
- CN112051734A CN112051734A CN202010830331.3A CN202010830331A CN112051734A CN 112051734 A CN112051734 A CN 112051734A CN 202010830331 A CN202010830331 A CN 202010830331A CN 112051734 A CN112051734 A CN 112051734A
- Authority
- CN
- China
- Prior art keywords
- mobile robot
- neural network
- controller
- learning
- event
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/04—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
- G05B13/042—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators in which a parameter or coefficient is automatically adjusted to optimise the performance
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Feedback Control In General (AREA)
Abstract
本发明公开了一种基于确定学习的轮式移动机器人事件触发跟踪控制方法,具体包括以下步骤:建立轮式移动机器人的动力学模型和期望的周期轨迹;设计自适应神经网络控制器,并利用确定学习理论获取经验知识;设计作用于传感器与控制器之间网络通道的事件触发机制;建立基于经验知识和事件触发的常值神经网络控制器。本发明设计的方法不仅将传统的轮式移动机器人时间触发控制方式推广到了事件触发控制方式,降低了远程控制中网络带宽的占用,而且利用确定学习理论设计了常值神经网络控制器,在减少网络带宽的同时保证了好的暂态跟踪性能。
Description
技术领域
本发明涉及轮式移动机器人的智能跟踪控制的技术领域,具体涉及一种基于确定学习的 轮式移动机器人事件触发跟踪控制方法。
背景技术
轮式移动机器人是结合了信息论、控制论、人工智能等多个不同领域的产物,其在工业 生产、土木建筑、医疗卫生、教育科研等诸多场景中得到广泛地应用。注意到轮式移动机器 人系统由于阻尼和摩擦力等因素导致系统存在建模不确定性。为了克服建模不确定性带来的 控制精度下降问题,通常采用神经网络进行对轮式移动机器人系统未知动态进行辨识。但是 传统的自适应神经网络控制对机器人执行相同或相似控制任务都需要在线调整权值来重新辨 识未知动态,使得控制方案耗时长,不易实施。基于确定学习设计出的控制器能够利用学习 到的经验知识来完成控制任务,避免了神经网络重复训练的问题。然而,现有的确定学习控 制方案均采用了时间触发方式。由于其通过固定时间周期地对信号进行采样传输,势必会造 成不必要的信号传输,从而造成网络通道不必要的资源占用。因此,设计一个适当的触发机 制,使得控制系统既能保持良好的控制性能也能减少网络通道资源的使用,是网络化控制系 统中的一个非常重要的课题。
发明内容
本发明的目的是针对上述现有技术的不足,提出了一种基于确定学习和事件触发的轮式 移动机器人的位置控制方法;针对神经网络每次做任务都要重复训练的问题,该方法利用确 定学习理论,将收敛后的神经网络权值存储为经验知识,当移动机器人再次做同样任务的时 候,可以直接调用经验知识进行利用,而不需要重复训练神经网络;针对传统时间触发控制 方法出现的不必要的网络资源传输问题,该方法利用事件触发机制,当不满足所设事件触发 条件的时候,才进行信号的传输,从而避免了网络资源浪费的问题。
本发明的目的可以通过如下技术方案实现:
本发明提供一种基于确定学习的轮式移动机器人事件触发跟踪控制方法,包括以下步骤:
步骤1、建立轮式移动机器人的动力学模型和期望的周期轨迹;
步骤3、构建作用于传感器到控制器之间网络通道的事件触发机制,当网络通道传输信号 达到触发条件,将采用信号经过网络通道传输到控制端;
步骤4、设计基于经验知识和事件触发的常值神经网络控制器,利用常值神经网络控制器 对触发事件进行跟踪;所述常值神经网络控制器为:
进一步的,步骤1中,所述动力学模型为:
其中x1=[x,y,θ]T为环境坐标系下的移动机器人的位姿向量,表示机器人 坐标系下的移动机器人的速度向量,J(x1)表示用于坐标变化的旋转矩阵,B是一个已知的且 与移动机器人的质量、惯性、轮子半径有关的常数矩阵,A(x2)是未知的且与移动机器人的摩 擦系数、惯性、质量有关的矩阵;τ是系统的控制输入。
进一步的,步骤1中,所述期望的周期轨迹为:
其中,xd1=[xd1,1,xd1,2,xd1,3]T为移动机器人位姿的期望参考轨迹,f(xd1,xd2)为给定的连续函数。
进一步的,步骤2中,所述构造自适应神经网络控制器,具体为:
其中,kt2为误差zt2的设计参数,zt1=x1-xd1是移动机器人位姿和参考轨迹之间的误差, zt2=x2-αtf是移动机器人速度和虚拟速度经过滤波器之后输出值的差值,滤波器构造为 τt为设计参数,kt1为zt1的设计参数,zt1=x1-xd1为 移动机器人位姿和参考轨迹之间的跟踪误差,为神经网络权值的估计值。
选取权值更新率为:
其中:S(Z)=[s1(||Z-θ1||),…,sN(||Z-θN)||]T为神经网络基函数,sj(||Z-θj||)=exp(-||Z-θj||2/ηj 2)为高斯函数,θj为中心点,ηj为宽度,j=1,…,N,N为神经网络布 点数,Z=x2为神经网络的输入,Γ为神经网络权值更新率的增益项,σ为神经网络权值更 新率的设计常数;
基于确定学习理论,获取稳定后的权值
其中,tb>ta>T,T为收敛时间。
进一步的,步骤3中,构建作用于传感器到控制器之间网络通道的事件触发机制,具体 为:
定义位于传感器到控制器之间网络通道的状态信号传输误差为:
若系统满足该条件,则将采样信号经过网络通道传输到控制端;
其中,k1,k2是控制器的增益参数,L是神经网络基函数的利普希茨系数,z=[z1 T,z2 T]T, 其中z1是移动机器人的位姿与期望轨迹的差值组成的列向量,z1是移动机器人的速度向量与 虚拟速度经过滤波器之后输出值的差值组成的列向量,Λ是大于0的设计参数,是基于确 定学习获取的常值神经网络权值。
进一步的,还包括下述步骤:
将移动机器人速度与虚拟速度经过滤波器之后输出值的差值组成的列向量z2设置为:
z2=x2-α1f
本发明与现有技术相比,具有如下优点和有益效果:
1、本发明利用确定学习理论,实现了对轮式移动机器人系统未知动态进行学习,并将收 敛的神经网络权值进行存储,利用经验知识避免了冗余训练。
2、本发明基于确定学习原理设计的事件触发机制,结构形式简单,采用常值权值代替了 在线估计权值,降低了计算时间,便于实现。
3.本发明联合确定学习原理与事件触发机制,在远程移动机器人轨迹跟踪控制中,实现 了好的暂态跟踪性能、节省了网络带宽的占用和降低了算法的计算负担。
附图说明
图1为本实施例轮式移动机器人系统示意图。
图2为本实施例基于确定学习和事件触发的轮式移动机器人的整体控制流程图。
图3为本实施例轮式移动机器人系统事件触发次数图。
图4为本实施例轮式移动机器人系统事件触发间隔表示图。
图5为本实施例轮式移动机器人传输误差与阈值图。
图6为本实施例轮式移动机器人位姿跟踪误差图。
图7为本实施例轮式移动机器人控制器输出图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发 明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用 于限定本发明。
如图1、图2所示,本实施例一种基于确定学习的轮式移动机器人事件触发跟踪控制方法, 包括下述步骤:
步骤1、建立轮式移动机器人的动力学模型和期望的周期轨迹:
其中x1=[x,y,θ]T为环境坐标系下的移动机器人的位姿向量,表示机器人坐标 系下的移动机器人的速度向量,J(x1)表示用于坐标变化的旋转矩阵,B是一个已知的且与移 动机器人的质量、惯性、轮子半径有关的常数矩阵,A(x2)是未知的且与移动机器人的摩擦系 数、惯性、质量有关的矩阵;τ是系统的控制输入,本实施例中轮式移动机器人系统如图1 所示。
本实施例中选取的轮式移动机器人系统的相关参数分别为:
机器人的质量为m=15kg,每个驱动轮的半径r=0.1m,输入转矩的增益因子k=5,驱动轮 与其所在平面的综合粘滞摩擦系数ξ=0.1,每个驱动轮的几何中心与机器人的几何中心之间 的距离L=0.5m,驱动轮绕其驱动电机轴的转动惯量Iw=0.01kgm2,机器人绕着其中心轴的转 动惯量IC=0.07kgm2。
轮式移动机器人期望的周期轨迹为:
其中,xd1=[xd1,1,xd1,2,xd1,3]T为移动机器人位姿的期望参考轨迹,f(xd1,xd2)为给定的连续函数。
本实例中选取的期望周期轨迹为:
xd1=[sin(t),sin(t),sin(t)]T,
步骤2中,所述构造自适应神经网络控制器并获取经验知识,具体为:
首先定义移动机器人的位姿和参考轨迹之间的跟踪误差为:
zt1=x1-xd1
设计虚拟控制器α1:
其中,kt1为误差zt1的设计参数;
根据动态面方法得到一阶滤波器方程:
其中τt为滤波系数,α1f为滤波虚拟控制变量。
定义误差zt2为:
zt2=x2-αtf
构造出实际控制自适应神经网络控制器为:
其中:S(Z)=[s1(||Z-θ1||),…,sN(||Z-θN)||]T,sj(||Z-θj||)=exp(-||Z-θj||2/ηj 2)为高斯基函 数,θj为中心点,ηj为宽度,j=1,…,N,N为神经网络布点数,Z=x2为神经网络的输入, Γ为神经网络权值更新率的增益项,σ为神经网络权值更新率的设计常数;x1和x2的初始值 为x1=[0,0,0]T,x2=[0,0,0]T,α1f=[1,1,1]T;神经网络的初始值为神经网络节点 数为N=7×7×7=343,中心点均匀分布在[-1.5 1.5]×[-1.5 1.5]×[-1.5 1.5]上, η1=0.625,η2=0.625,η3=0.625,Γ=10,σ=0.00001;控制器参数为kt1=2,kt2=2.5, τt=0.01,获取稳定后的权值tb>ta>T,T为收敛时间,本实例中T=200, tai=250,tbi=300。
步骤3、构建作用于传感器到控制器之间网络通道的事件触发机制;
定义位于传感器到控制器之间网络通道的状态信号传输误差为:
若系统满足该条件,则将采样信号经过网络通道传输到控制端。
其中,k1,k2是控制器的增益参数,L是神经网络基函数的利普希茨系数,z=[z1 T,z2 T]T, 其中z1是移动机器人的位姿与期望轨迹的差值组成的列向量,z1是移动机器人的速度向量与 虚拟速度经过滤波器之后输出值的差值组成的列向量。Λ是大于0的设计参数,是基于确 定学习获取的常值神经网络权值。
步骤4、设计基于经验学习和事件触发的常值神经网络控制器:
定义移动机器人位姿和参考轨迹之间的跟踪误差为:
z1=x1-xd1
设计虚拟控制器α1:
根据动态面方法得到一阶滤波器方程:
其中τ1为滤波系数,α1f为滤波虚拟控制变量。
定义误差z2为:
z2=x2-α1f
构造出实际常值神经网络控制器为:
x1和x2的初始值为x1(0)=[0,0,0]T,x2(0)=[0,0,0]T,α1f=[1,1,1]T;神经网络节点数为 N=7×7×7=343,中心点均匀分布在[-1.5 1.5]×[-1.5 1.5]×[-1.5 1.5]上,η1=0.625, η2=0.625,η3=0.625,控制器参数为kt1=2,kt2=2.5,τ1=0.01。
仿真采样步长设置为0.001s,采样时间为15s。图3为移动机器人系统在基于确定学习 和事件触发机制下的触发次数,可以看出,相较于传统的时间触发机制需要触发15000次, 本方法只触发了3673次,有效减少了触发次数,节省了网络带宽。图4是移动机器人事件触 发间隔图。图5是事件触发过程中事件误差和阈值的关系图,从图中可知事件误差是小于等 于阈值的。图6是移动机器人的位姿跟踪误差图,可以看出其位姿的跟踪误差可以收敛到零 的小邻域内。图7是移动机器人控制器的输出图。
以上所述,仅为本发明专利较佳的实施例,但本发明专利的保护范围并不局限于此,任 何熟悉本技术领域的技术人员在本发明专利所公开的范围内,根据本发明专利的技术方案及 其发明专利构思加以等同替换或改变,都属于本发明专利的保护范围。
Claims (8)
1.一种基于确定学习的轮式移动机器人事件触发跟踪控制方法,其特征在于,包括以下步骤:
步骤1、建立轮式移动机器人的动力学模型和期望的周期轨迹;
步骤3、构建作用于传感器到控制器之间网络通道的事件触发机制,当网络通道传输信号达到触发条件,将采用信号经过网络通道传输到控制端;
步骤4、设计基于经验知识和事件触发的常值神经网络控制器,利用常值神经网络控制器对触发事件进行跟踪;所述常值神经网络控制器为:
6.根据权利要求1所述的一种基于确定学习和事件触发的移动机器人的智能控制方法,其特征在于:步骤3中,构建作用于传感器到控制器之间网络通道的事件触发机制,具体为:
定义位于传感器到控制器之间网络通道的状态信号传输误差为:
若系统满足该条件,则将采样信号经过网络通道传输到控制端;
其中,k1,k2是控制器的增益参数,L是神经网络基函数的利普希茨系数,z=[z1 T,z2 T]T,其中z1是移动机器人的位姿与期望轨迹的差值组成的列向量,z1是移动机器人的速度向量与虚拟速度经过滤波器之后输出值的差值组成的列向量,Λ是大于0的设计参数,W是基于确定学习获取的常值神经网络权值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010830331.3A CN112051734B (zh) | 2020-08-18 | 2020-08-18 | 一种基于确定学习的轮式移动机器人事件触发跟踪控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010830331.3A CN112051734B (zh) | 2020-08-18 | 2020-08-18 | 一种基于确定学习的轮式移动机器人事件触发跟踪控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112051734A true CN112051734A (zh) | 2020-12-08 |
CN112051734B CN112051734B (zh) | 2021-07-23 |
Family
ID=73599072
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010830331.3A Active CN112051734B (zh) | 2020-08-18 | 2020-08-18 | 一种基于确定学习的轮式移动机器人事件触发跟踪控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112051734B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113211446A (zh) * | 2021-05-20 | 2021-08-06 | 长春工业大学 | 一种事件触发-神经动态规划的机械臂分散跟踪控制方法 |
CN114367980A (zh) * | 2021-12-20 | 2022-04-19 | 华南理工大学 | 基于确定学习的封闭机器人速度补偿跟踪控制方法、存储介质及机器人 |
CN117539153A (zh) * | 2023-11-21 | 2024-02-09 | 山东大学 | 基于确定学习的上肢康复机器人自适应控制方法及系统 |
CN117724336A (zh) * | 2023-12-18 | 2024-03-19 | 中国矿业大学 | 一种基于状态和估计参数触发的机器人系统跟踪控制方法 |
CN117724336B (zh) * | 2023-12-18 | 2024-06-11 | 中国矿业大学 | 一种基于状态和估计参数触发的机器人系统跟踪控制方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107160398A (zh) * | 2017-06-16 | 2017-09-15 | 华南理工大学 | 基于确定学习的全状态受限刚性机械臂安全可靠控制方法 |
CN109227543A (zh) * | 2018-10-19 | 2019-01-18 | 华南理工大学 | 一种位置受限柔性关节机器人基于模式的智能控制方法 |
CN110703609A (zh) * | 2019-11-18 | 2020-01-17 | 南京工业大学 | 一种电机伺服系统智能运动控制方法 |
CN110705034A (zh) * | 2019-09-09 | 2020-01-17 | 华南理工大学 | 一种基于事件触发的永磁同步电机位置跟踪控制方法 |
-
2020
- 2020-08-18 CN CN202010830331.3A patent/CN112051734B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107160398A (zh) * | 2017-06-16 | 2017-09-15 | 华南理工大学 | 基于确定学习的全状态受限刚性机械臂安全可靠控制方法 |
CN109227543A (zh) * | 2018-10-19 | 2019-01-18 | 华南理工大学 | 一种位置受限柔性关节机器人基于模式的智能控制方法 |
CN110705034A (zh) * | 2019-09-09 | 2020-01-17 | 华南理工大学 | 一种基于事件触发的永磁同步电机位置跟踪控制方法 |
CN110703609A (zh) * | 2019-11-18 | 2020-01-17 | 南京工业大学 | 一种电机伺服系统智能运动控制方法 |
Non-Patent Citations (4)
Title |
---|
M. WANG等: "Adaptive Neural Event-Triggered Control for Discrete-Time Strict-Feedback Nonlinear Systems", 《IEEE TRANSACTIONS ON CYBERNETICS》 * |
XIAOBOLIN等: "Event-triggered reinforcement learning control for the quadrotor UAV with actuator saturation", 《NEUROCOMPUTING》 * |
XIONG YANG等: "Decentralized event-triggered control for a class of nonlinear-interconnected systems using reinforcement learning", 《IEEE TRANSACTIONS ON CYBERNETICS》 * |
陈志广: "柔性关节机械臂的神经网络控制与确定学习", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113211446A (zh) * | 2021-05-20 | 2021-08-06 | 长春工业大学 | 一种事件触发-神经动态规划的机械臂分散跟踪控制方法 |
CN113211446B (zh) * | 2021-05-20 | 2023-12-08 | 长春工业大学 | 一种事件触发-神经动态规划的机械臂分散跟踪控制方法 |
CN114367980A (zh) * | 2021-12-20 | 2022-04-19 | 华南理工大学 | 基于确定学习的封闭机器人速度补偿跟踪控制方法、存储介质及机器人 |
CN114367980B (zh) * | 2021-12-20 | 2023-05-30 | 华南理工大学 | 基于确定学习的封闭机器人速度补偿跟踪控制方法、存储介质及机器人 |
CN117539153A (zh) * | 2023-11-21 | 2024-02-09 | 山东大学 | 基于确定学习的上肢康复机器人自适应控制方法及系统 |
CN117539153B (zh) * | 2023-11-21 | 2024-05-28 | 山东大学 | 基于确定学习的上肢康复机器人自适应控制方法及系统 |
CN117724336A (zh) * | 2023-12-18 | 2024-03-19 | 中国矿业大学 | 一种基于状态和估计参数触发的机器人系统跟踪控制方法 |
CN117724336B (zh) * | 2023-12-18 | 2024-06-11 | 中国矿业大学 | 一种基于状态和估计参数触发的机器人系统跟踪控制方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112051734B (zh) | 2021-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112051734B (zh) | 一种基于确定学习的轮式移动机器人事件触发跟踪控制方法 | |
CN112775976B (zh) | 任务执行控制方法、装置、控制设备及可读存储介质 | |
Baumann et al. | Deep reinforcement learning for event-triggered control | |
Chang et al. | Robust tracking designs for both holonomic and nonholonomic constrained mechanical systems: adaptive fuzzy approach | |
Qi et al. | Stable indirect adaptive control based on discrete-time T–S fuzzy model | |
Asad et al. | Backstepping-based recurrent type-2 fuzzy sliding mode control for MIMO systems (MEMS triaxial gyroscope case study) | |
Lewis et al. | Neural networks in feedback control systems | |
Harmon et al. | Reinforcement learning applied to a differential game | |
Ruangsang et al. | Control of time-varying delay systems with uncertain parameters via fuzzy-modeled prescribed performance control approach | |
CN113359439B (zh) | 多智能体系统有限时间多目标协同追踪方法和存储介质 | |
Parapari et al. | Solving nonlinear ordinary differential equations using neural networks | |
CN109176529B (zh) | 一种空间机器人协调运动的自适应模糊控制方法 | |
Khosravi et al. | Adaptive fuzzy SMC-based formation design for swarm of unknown time-delayed robots | |
CN112947066B (zh) | 一种机械手改进有限时间反演控制方法 | |
Rao et al. | Feedback-error learning scheme using recurrent neural networks for nonlinear dynamic systems | |
Jamin et al. | Two-wheeled wheelchair stabilization using interval type-2 fuzzy logic controller | |
CN114859725A (zh) | 一种非线性系统自适应事件触发控制方法及系统 | |
CN114791741A (zh) | 事件触发下无人系统集群的无模型最优分组协同控制方法 | |
Cao et al. | An adaptive controller for a class of nonlinear system using direction basis function | |
Nguyen et al. | Reinforcement Learning-Based Event-Triggered Robust Optimal Control for Mobile Euler-Lagrange Systems with Dead-Zone and Saturation Actuators | |
Chen et al. | Neural network compensator-based robust iterative learning control scheme for mobile robots nonlinear systems with disturbances and uncertain parameters | |
Zhou et al. | Research on the fuzzy algorithm of path planning of mobile robot | |
Efe et al. | Creating a sliding mode in a motion control system by adopting a dynamic defuzzification strategy in an adaptive neuro fuzzy inference system | |
Mousavifard et al. | Formation Control of Multi-quadrotors Based on Deep Q-learning | |
PETER et al. | Neural tracking trajectory of the mobile robot khepera ii in internal model control structure |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |