CN115122335A - 基于外环速度补偿的封闭机器人任务空间学习控制方法、存储介质及机器人 - Google Patents
基于外环速度补偿的封闭机器人任务空间学习控制方法、存储介质及机器人 Download PDFInfo
- Publication number
- CN115122335A CN115122335A CN202210909372.0A CN202210909372A CN115122335A CN 115122335 A CN115122335 A CN 115122335A CN 202210909372 A CN202210909372 A CN 202210909372A CN 115122335 A CN115122335 A CN 115122335A
- Authority
- CN
- China
- Prior art keywords
- robot
- closed
- neural network
- unknown
- task space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 238000003860 storage Methods 0.000 title claims abstract description 10
- 238000013528 artificial neural network Methods 0.000 claims abstract description 79
- 230000003044 adaptive effect Effects 0.000 claims abstract description 19
- 230000000737 periodic effect Effects 0.000 claims abstract description 15
- 238000013461 design Methods 0.000 claims abstract description 13
- 210000002569 neuron Anatomy 0.000 claims description 31
- 239000011159 matrix material Substances 0.000 claims description 20
- 239000000126 substance Substances 0.000 claims description 12
- 230000006870 function Effects 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 4
- 238000009826 distribution Methods 0.000 claims description 4
- 230000005484 gravity Effects 0.000 claims description 4
- 238000012938 design process Methods 0.000 claims description 3
- 230000010354 integration Effects 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 238000004422 calculation algorithm Methods 0.000 abstract description 4
- 230000001052 transient effect Effects 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 13
- 238000004519 manufacturing process Methods 0.000 description 5
- 238000011161 development Methods 0.000 description 4
- 230000018109 developmental process Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 240000006829 Ficus sundaica Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000009776 industrial production Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
- 238000003466 welding Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/1605—Simulation of manipulator lay-out, design, modelling of manipulator
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Feedback Control In General (AREA)
Abstract
本发明公开了一种基于外环速度补偿的封闭机器人任务空间学习控制方法、存储介质及机器人,方法包括:建立具有内部速度PI控制器的封闭机器人动力学和运动学模型,并构建期望的末端周期轨迹;设计自适应神经网络速度补偿控制指令,利用确定学习理论获取经验知识,并通过参数收敛性质获取机器人运动学知识;基于所获知识设计速度补偿学习控制指令。本发明所设计方法通过分离封闭机器人动力学和运动学,在运用确定学习理论实现系统经验知识获取的基础上,保证了未知运动学参数的收敛,实现了学习控制算法在具有未知动力学和运动学封闭机器人系统上的应用,基于所获知识设计的速度补偿学习控制指令,在节省计算资源的同时提升了机器人暂态跟踪性能。
Description
技术领域
本发明涉及基于学习的机器人跟踪控制领域,具体涉及一种基于外环速度补偿的封闭机器人任务空间学习控制方法、存储介质及机器人。
背景技术
随着工业4.0浪潮的到来,我国提出了“中国制造2025”的计划,意在推动我国制造业的创新转型和发展,智能制造的概念也越来越深入人心,机器取代人工已经成为行业发展的巨大趋势。机器人作为一种集机械,电力,控制等多种学科于一身的高端技术产物,在智能制造中发挥了巨大作用,在搬运,切割,焊接等危险作业领域,零件加工,装配等高精度作业领域中随处可见,甚至在饮食行业,娱乐行业等服务业中,机器人也为其发展带来了多样化的可能性。
机器人控制系统作为一个高度非线性、强耦合的多输入多输出系统,环境动态变化、零部件老化等因素导致工业机器人难以精确建模,为处理未精确建模部分和提高控制精度,现阶段常运用神经网络设计自适应力矩控制器对机器人进行控制。然而在目前的日常工业生产中,使用的大多数工业机器人系统封闭,出于使用安全、商业隐私等目的,机器人制造厂商不给予开放力矩控制接口,其内部一般以速度PI控制或者位置PID控制为主要控制形式,在此基础上给予用户速度和位置控制接口,该现象的长期存在导致此类机器人一般只能用于简单的运动控制规划,力矩控制器无法适用,其控制精度也受限于机器人系统内部控制器;此外,一般生产要求机器人末端能以一个特定轨迹做精确的跟踪运动,这要求机器人的正逆运动学为精确已知的,然而,由于参数测量不精准,不完整或者机器人末端夹取工具变化等原因存在,机器人的运动学有可能是未知或者是变化的,这对于机器人任务空间跟踪控制方案设计也是一个巨大挑战。另外值得注意的是,在传统的自适应神经网络控制中,神经网络的学习能力经常被忽视,即使面对重复工作也需要执行再训练过程,存在浪费计算资源、暂态控制性能差等问题。21世纪以来,确定学习理论的快速发展为上述问题提供了解决方案,该理论实现了神经网络在非线性系统控制过程中获得、保存和再运用系统经验知识的能力,进而避免了神经网络的重复训练问题,并可大幅提高控制初期的机器人跟踪精度。
因此,基于机器人系统动力学和运动学分离思想,结合外环速度补偿思想和确定学习理论设计适用于封闭机器人的速度补偿控制指令,促使封闭机器人能够在稳定控制过程中获得、保存并再利用系统经验知识和运动学知识,对于解决具有未知动力学和运动学的封闭机器人系统在处理重复任务时的高性能控制问题具有重要意义。
发明内容
本发明的主要目的在于克服现有技术的缺点与不足,提供一种基于外环速度补偿的封闭机器人任务空间学习控制方法、存储介质及机器人,本发明的方法针对力矩控制无法应用于封闭机器人的问题,利用外环速度补偿思想,结合李雅普诺夫稳定性理论提出了自适应神经网络速度补偿控制指令;针对封闭机器人系统中存在的未知内部动态和运动学,利用动力学环和运动学环分离思想,提出了神经网络权值更新律和未知运动学参数更新律,为实现在系统稳定控制过程中对内部动态和运动学的同时学习提供了前提条件;在此基础上,利用确定学习理论,存储收敛后神经网络权值作为对未知动态学习后获得的系统经验知识,同时根据参数收敛性质保存收敛后的运动学参数,保证当机器人再次执行相同或相似任务时,可以直接调用所学知识,进一步提高机器人末端跟踪精度以及降低计算损耗。
本发明的主要目的可采用以下技术方案实现:
本发明一方面提供了一种基于外环速度补偿的封闭机器人任务空间学习控制方法,包括下述步骤:
S1、建立具有内部速度PI控制器的封闭机器人动力学模型和运动学模型,并构建期望的末端周期轨迹;
S2、运用动态布置神经元的方式构建神经网络,结合李雅普诺夫稳定性理论设计自适应神经网络速度补偿控制指令,利用确定学习理论将收敛后的神经网络权值保存为常值权值并通过参数收敛性质将收敛后的未知运动学参数估计值保存为常值运动学参数
所述自适应神经网络速度补偿控制指令如下:
其中,α1为封闭机器人系统虚拟控制器,为封闭机器人关节参考速度,为自适应神经网络速度补偿控制指令,z1为封闭机器人末端跟踪误差,x1为封闭机器人末端在任务空间的位置,xd1为封闭机器人末端期望的任务空间位置周期轨迹,为封闭机器人末端期望的任务空间速度周期轨迹,为被估计雅可比矩阵的逆,为未知运动学参数ak的估计值,为神经网络权值的估计值,Φ(β)=[φ1(||β-θ1||),…,φN(||β-θN||)]T为神经网络高斯型径向基函数,k=1,…,N,θk为中心点,ρk为宽度,N为神经网络布点数,为神经网络的输入,q为封闭机器人关节的角位置,为封闭机器人的关节角速度,qc为对积分得到的位置补偿控制指令,为封闭机器人关节参考速度的导数,c1为α1中的正常数控制增益,c2为中的正常数控制增益,s为控制器设计过程中的中间误差变量;
其中,γ1为神经网络权值更新律的增益项,σ1为神经网络权值更新律的设计常数;
作为优选的技术方案,步骤S1中,所述PI控制器具体为:
其中,KP为比例系数,KI为积分系数,均为未知对角正定矩阵。
作为优选的技术方案,步骤S1中,所述封闭机器人动力学模型,具体为:
其中,M(q)为封闭机器人的未知惯性矩阵,该矩阵对称且一致正定,为封闭机器人的未知科氏力和离心力矩阵,G(q)为封闭机器人的未知重力向量,u为封闭机器人内部速度PI控制器,K为封闭机器人系统内部控制增益,为未知常值对角正定矩阵。
作为优选的技术方案,步骤S1中,所述封闭机器人运动学模型,具体为:
x1=f(q)
其中,f(·)表示封闭机器人从关节空间角度到任务空间坐标的映射;
对该运动学模型求导如下:
作为优选的技术方案,步骤S1中,所述期望的末端周期轨迹,具体为:
其中,xd2为封闭机器人末端期望的任务空间速度周期轨迹,f(xd1,xd2)为给定的连续周期函数。
作为优选的技术方案,步骤S2中,运用动态布置神经元的方式构建神经网络,具体为:
S21、定义新增神经元参数:
P=<θp,ρp,Wp>
其中,θp,ρp,Wp分别为新增神经元的中心、宽度和权值;
S22、定义新增神经元的中心:
S23、判断是否新增神经元:
其中,tb>ta>T,代表权值收敛后的一段时间,T为收敛时间。
作为优选的技术方案,所述通过参数收敛性质将收敛后的未知运动学参数估计值
本发明另一方面提供了一种计算机可读存储介质,存储有程序,所述程序被处理器执行时,实现所述的基于外环速度补偿的封闭机器人任务空间学习控制方法。
本发明又一方面提供了一种机器人,所述机器人包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序指令,所述计算机程序指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行所述的基于外环速度补偿的封闭机器人任务空间学习控制方法。
本发明与现有技术相比,具有如下优点和有益效果:
1、本发明利用外环速度补偿思想,在机器人系统具有封闭结构以及存在未知内部动态和未知运动学参数的情境下,实现了封闭机器人末端的自适应神经网络跟踪控制。
2、本发明利用动态布置神经元技术,在维持较高控制精度的前提下,大幅度降低了神经网络的结构复杂度,有效减少设备的神经网络计算负荷,有利于该算法在多关节机器人的应用。
3、本发明利用机器人系统动力学和运动学分离思想设计速度补偿控制指令,运用确定学习理论和自适应参数估计分别对未知动力学和运动学进行处理,在实现神经网络对封闭机器人系统内部未知动态学习的基础上,保证了未知运动学参数的收敛,并通过保存所获知识用以构建学习控制指令的方式实现知识再利用,避免了神经网络权值和运动学参数的重复训练问题,降低算法计算复杂度的同时也提高了机器人的控制跟踪精度。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例基于外环速度补偿的封闭机器人任务空间学习控制系统流程图。
图2为本发明实施例二连杆封闭机器人示意图。
图3为本发明实施例自适应控制阶段封闭机器人系统神经网络权值范数收敛图。
图4为本发明实施例自适应控制阶段封闭机器人系统神经网络对未知动态学习效果图。
图5为本发明实施例自适应控制阶段封闭机器人系统未知运动学参数估计值收敛图。
图6为本发明实施例学习控制阶段封闭机器人关节的速度补偿指令输入曲线图。
图7为本发明实施例学习控制阶段机器人末端的轨迹跟踪图。
图8为本发明实施例学习控制阶段封闭机器人末端的跟踪误差图。
具体实施方式
为了使本技术领域人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清晰、完整地描述。显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
在本申请中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本申请所描述的实施例可以与其它实施例相结合。
如图1所示,本实施例提供了一种基于外环速度补偿的封闭机器人任务空间学习控制方法,以双连杆刚性关节封闭机器人为例对所述方法进行详细说明,其详细实施过程包括:
S1、建立具有内部速度PI控制器的封闭机器人动力学和运动学模型,并构建期望的末端周期轨迹;
封闭机器人内部速度PI控制器为:
进一步的,本实施例中选取的内部速度PI控制器系数为:
基于上述内部速度PI控制器建立双连杆封闭机器人的动力学模型:
其中,M(q)为封闭机器人的惯性矩阵,该矩阵对称且一致正定,为封闭机器人的科氏力和离心力矩阵,G(q)为封闭机器人的重力向量,u为封闭机器人内部速度PI控制器,K为封闭机器人系统内部控制增益,为对角正定矩阵。
更进一步的,本实施例中选取的双连杆封闭机器人相关动力学参数和系统内部控制增益分别为:
其中,q1和q2分别为封闭机器人第一关节和第二关节角位置,和分别为第一关节和第二关节角速度,l1=1m和l2=1m分别为第一连杆和第二连杆的长度,m1=0.8kg和m2=2.3kg分别为第一连杆和第二连杆的质量,g0=9.8m/s2为重力加速度。
建立双连杆封闭机器人运动学模型:
x1=f(q)
其中,x1=[x1,1,x1,2]T为封闭机器人末端在任务空间的位置,f(·)表示封闭机器人从关节空间角度到任务空间坐标的映射。
对该运动学模型求导可得:
本实施例中选取的双连杆封闭机器人的相关运动学参数分别为:
其中,ak,1=l1=1m,ak,2=l2=1m。
进一步的,在实际控制过程中,考虑控制系统内部控制器参数、动力学以及运动学均未知。
构建封闭机器人期望的末端周期轨迹为:
其中,xd1为封闭机器人末端期望的任务空间位置周期轨迹,xd2为封闭机器人末端期望的任务空间速度周期轨迹,f(xd1,xd2)为给定的连续周期函数。
更进一步的,本实例中选取期望的末端周期轨迹为:
xd1=[0.5sin(0.5t)+1,0.5cos(0.5t)+1]T
f(xd1,xd2)=[-0.125sin(0.5t),-0.125cos(0.5t)]T
S2、运用动态布置神经元的方式构建神经网络,结合李雅普诺夫稳定性理论设计自适应神经网络速度补偿控制指令,利用确定学习理论将收敛后的神经网络权值保存为常值权值并通过参数收敛性质将收敛后的未知运动学参数估计值保存为常值运动学参数
首先定义封闭机器人末端跟踪误差为:
z1=x1-xd1
设计虚拟控制器α1:
其中,c1为α1中的正常数控制增益;
设计自适应神经网络速度补偿控制指令:
其中,为神经网络权值的估计值,Φ(β)=[φ1(||β-θ1||),…,φN(||β-θN||)]T为神经网络高斯型径向基函数,k=1,…,N,θk为中心点,ρk为宽度,N为神经网络布点数,为神经网络的输入,为封闭机器人关节参考速度的导数,c2为中的正常数控制增益。
其中,γ1为神经网络权值更新律的增益项,σ1为神经网络权值更新律的设计常数。
进一步的,各状态初始值及参数设置如下:q和的初始值为 x1和x2初始值为x1(0)=[1.366,1.366]T,qc初始值为qc(0)=[0,0]T;神经网络初始值为神经网络初始节点中心为[0,0,0.65,0.65,0,0,0.65,0.65]T,神经元集合Cmin中神经元的个数l=3,决定新增神经元与集合Cmin距离的可设计参数λ=0.95,可调阈值ν=0.28,神经元宽度为η=[0.2,0.2,0.2,0.2,0.2,0.2,0.2,0.2]T,神经网络权值更新律的增益项γ1=1.5,神经网络权值更新律的设计常数σ1=0.0003,未知运动学参数更新律的增益项γ2=0.8,未知运动学参数更新律的设计常数σ2=0.0001,α1中的正常数控制增益c1=1.1,中的正常数控制增益c2=2.5。
在本实施例中,学习控制阶段各状态初始值及参数设置与自适应控制阶段一致。仿真采样步长设置为0.01s,自适应控制阶段仿真时长为500s,学习控制阶段仿真时常为200s。图2为本发明实施例二连杆封闭机器人示意图,其中第一关节位于任务空间坐标系原点。
图3为本发明实施例自适应控制阶段封闭机器人系统神经网络权值范数收敛图;
图4为本发明实施例自适应控制阶段封闭机器人系统神经网络对未知动态学习效果图,从图中可以看出神经网络权值在控制经过150s后基本实现收敛,神经网络输出实现了对未知动态的逼近,即成功学习到系统经验知识。
图5为本发明实施例自适应控制阶段封闭机器人系统未知运动学参数估计值收敛图,从图中变化曲线可知,运动学参数估计值在300s后基本收敛于机器人实际运动学参数,证明该算法在控制过程中成功学习到机器人运动学知识。
图6为本发明实施例学习控制阶段封闭机器人关节的速度补偿指令输入曲线图,从图中可以得知,控制输入信号暂态震动过程极短,全程光滑连续,保证了系统稳定。
图7为本发明实施例学习控制阶段机器人末端的轨迹跟踪图;图8为本发明实施例学习控制阶段封闭机器人末端的跟踪误差图,结合图7、图8可知,学习控制在超过10s后可实现机器人末端在x轴和y轴的跟踪误差均收敛于±0.002m,可快速跟踪上给定的圆圈轨迹,具有优异的暂态控制性能。
在另一个实施例中,提供了一种计算机可读存储介质,存储有程序于存储器中,所述程序被处理器执行时,实现所述的基于外环速度补偿的封闭机器人任务空间学习控制方法,具体为:
S1、建立具有内部速度PI控制器的封闭机器人动力学模型和运动学模型,并构建期望的末端周期轨迹;
S2、运用动态布置神经元的方式构建神经网络,结合李雅普诺夫稳定性理论设计自适应神经网络速度补偿控制指令,利用确定学习理论将收敛后的神经网络权值保存为常值权值并通过参数收敛性质将收敛后的未知运动学参数估计值保存为常值运动学参数
所述自适应神经网络速度补偿控制指令如下:
其中,α1为封闭机器人系统虚拟控制器,为封闭机器人关节参考速度,为自适应神经网络速度补偿控制指令,z1为封闭机器人末端跟踪误差,x1为封闭机器人末端在任务空间的位置,xd1为封闭机器人末端期望的任务空间位置周期轨迹,为封闭机器人末端期望的任务空间速度周期轨迹,为被估计雅可比矩阵的逆,为未知运动学参数ak的估计值,为神经网络权值的估计值,Φ(β)=[φ1(||β-θ1||),…,φN(||β-θN||)]T为神经网络高斯型径向基函数,k=1,…,N,θk为中心点,ρk为宽度,N为神经网络布点数,为神经网络的输入,q为封闭机器人关节的角位置,为封闭机器人的关节角速度,qc为对积分得到的位置补偿控制指令,为封闭机器人关节参考速度的导数,c1为α1中的正常数控制增益,c2为中的正常数控制增益,s为控制器设计过程中的中间误差变量;
其中,γ1为神经网络权值更新律的增益项,σ1为神经网络权值更新律的设计常数;
在另一个实施例中,还提供了一种机器人,所述机器人包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序指令,所述计算机程序指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行所述的基于外环速度补偿的封闭机器人任务空间学习控制方法。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上实施例仅为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (10)
1.基于外环速度补偿的封闭机器人任务空间学习控制方法,其特征在于,包括下述步骤:
S1、建立具有内部速度PI控制器的封闭机器人动力学模型和运动学模型,并构建期望的末端周期轨迹;
S2、运用动态布置神经元的方式构建神经网络,结合李雅普诺夫稳定性理论设计自适应神经网络速度补偿控制指令,利用确定学习理论将收敛后的神经网络权值保存为常值权值并通过参数收敛性质将收敛后的未知运动学参数估计值保存为常值运动学参数
所述自适应神经网络速度补偿控制指令如下:
其中,α1为封闭机器人系统虚拟控制器,为封闭机器人关节参考速度,为自适应神经网络速度补偿控制指令,z1为封闭机器人末端跟踪误差,x1为封闭机器人末端在任务空间的位置,xd1为封闭机器人末端期望的任务空间位置周期轨迹,为封闭机器人末端期望的任务空间速度周期轨迹,为被估计雅可比矩阵的逆,为未知运动学参数ak的估计值,为神经网络权值的估计值,Φ(β)=[φ1(||β-θ1||),…,φN(||β-θN||)]T为神经网络高斯型径向基函数,θk为中心点,ρk为宽度,N为神经网络布点数,为神经网络的输入,q为封闭机器人关节的角位置,为封闭机器人的关节角速度,qc为对积分得到的位置补偿控制指令,为封闭机器人关节参考速度的导数,c1为α1中的正常数控制增益,c2为中的正常数控制增益,s为控制器设计过程中的中间误差变量;
其中,γ1为神经网络权值更新律的增益项,σ1为神经网络权值更新律的设计常数;
9.一种计算机可读存储介质,存储有程序,其特征在于,所述程序被处理器执行时,实现权利要求1-8任一项所述的基于外环速度补偿的封闭机器人任务空间学习控制方法。
10.一种机器人,其特征在于,所述机器人包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序指令,所述计算机程序指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1-8中任意一项所述的基于外环速度补偿的封闭机器人任务空间学习控制方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210909372.0A CN115122335A (zh) | 2022-07-29 | 2022-07-29 | 基于外环速度补偿的封闭机器人任务空间学习控制方法、存储介质及机器人 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210909372.0A CN115122335A (zh) | 2022-07-29 | 2022-07-29 | 基于外环速度补偿的封闭机器人任务空间学习控制方法、存储介质及机器人 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115122335A true CN115122335A (zh) | 2022-09-30 |
Family
ID=83386677
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210909372.0A Pending CN115122335A (zh) | 2022-07-29 | 2022-07-29 | 基于外环速度补偿的封闭机器人任务空间学习控制方法、存储介质及机器人 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115122335A (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107160398A (zh) * | 2017-06-16 | 2017-09-15 | 华南理工大学 | 基于确定学习的全状态受限刚性机械臂安全可靠控制方法 |
US20180257227A1 (en) * | 2017-03-09 | 2018-09-13 | Fanuc Corporation | Robot for controlling learning in view of operation in production line, and method of controlling the same |
CN111496792A (zh) * | 2020-04-27 | 2020-08-07 | 北京科技大学 | 一种机械臂输入饱和固定时间轨迹跟踪控制方法及系统 |
CN112223276A (zh) * | 2020-09-01 | 2021-01-15 | 上海大学 | 基于自适应神经网络滑模控制的多关节机器人控制方法 |
CN114367980A (zh) * | 2021-12-20 | 2022-04-19 | 华南理工大学 | 基于确定学习的封闭机器人速度补偿跟踪控制方法、存储介质及机器人 |
-
2022
- 2022-07-29 CN CN202210909372.0A patent/CN115122335A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180257227A1 (en) * | 2017-03-09 | 2018-09-13 | Fanuc Corporation | Robot for controlling learning in view of operation in production line, and method of controlling the same |
CN107160398A (zh) * | 2017-06-16 | 2017-09-15 | 华南理工大学 | 基于确定学习的全状态受限刚性机械臂安全可靠控制方法 |
CN111496792A (zh) * | 2020-04-27 | 2020-08-07 | 北京科技大学 | 一种机械臂输入饱和固定时间轨迹跟踪控制方法及系统 |
CN112223276A (zh) * | 2020-09-01 | 2021-01-15 | 上海大学 | 基于自适应神经网络滑模控制的多关节机器人控制方法 |
CN114367980A (zh) * | 2021-12-20 | 2022-04-19 | 华南理工大学 | 基于确定学习的封闭机器人速度补偿跟踪控制方法、存储介质及机器人 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108932216B (zh) | 一种基于粒子群优化算法的机器人逆运动学求解方法 | |
CN107984472B (zh) | 一种用于冗余度机械臂运动规划的变参神经求解器设计方法 | |
CN110977988B (zh) | 基于有限时间命令滤波的多关节机械臂阻抗控制方法 | |
CN114367980B (zh) | 基于确定学习的封闭机器人速度补偿跟踪控制方法、存储介质及机器人 | |
CN110134018B (zh) | 一种水下多足机器人系统的多足协同控制方法 | |
KR102275302B1 (ko) | 입력 포화를 가지는 불확실한 전기 구동 로봇 시스템에 대해 pso를 이용한 rbfnn 기반 분산 적응 추종 시스템 | |
CN112338913B (zh) | 一种多关节柔性机械臂的轨迹跟踪控制方法及系统 | |
CN112936286B (zh) | 一种多柔性机械臂系统自适应一致性追踪控制方法及系统 | |
CN111872937A (zh) | 一种任务空间中不确定机械臂的控制方法 | |
WO2023116129A1 (zh) | 一种协作机器人的柔顺力控制方法及系统 | |
CN113219825B (zh) | 一种四足机器人单腿轨迹跟踪控制方法及系统 | |
CN106502100A (zh) | 多移动机器人的分布式单时滞控制器设计方法 | |
Wang et al. | Adaptive Sliding Mode Fixed‐Time Tracking Control Based on Fixed‐Time Sliding Mode Disturbance Observer with Dead‐Zone Input | |
CN115122335A (zh) | 基于外环速度补偿的封闭机器人任务空间学习控制方法、存储介质及机器人 | |
Deng et al. | Sparse online Gaussian process impedance learning for multi-DoF robotic arms | |
CN109176529B (zh) | 一种空间机器人协调运动的自适应模糊控制方法 | |
CN116834016A (zh) | 一种双臂可重构机器人协调控制方法、系统、设备及介质 | |
CN116512256A (zh) | 基于联合学习的机器人最优人机交互阻抗控制方法、存储介质及机器人 | |
Nguyen et al. | On the use of a computed-torque control law for the terminal region of an NMPC scheme | |
Nagata et al. | Neural network-based inverse kinematics for an industrial robot and its learning method | |
CN112894819A (zh) | 一种基于双神经网络的机器人动力学运动控制方法及装置 | |
CN113296398A (zh) | 一种柔性单链机械臂基于事件触发的命令滤波控制方法 | |
Ahmed et al. | Robust Computed Torque Control for Uncertain Robotic Manipulatorss | |
Du et al. | Improvement of the conventional computed-torque control scheme with a variable structure compensator for delta robots with uncertain load | |
CN114888797B (zh) | 一种基于参考轨迹实时修正的机器人轨迹跟踪控制方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |