CN114800489B - 基于确定学习与复合学习联合的机械臂柔顺控制方法、存储介质及机器人 - Google Patents
基于确定学习与复合学习联合的机械臂柔顺控制方法、存储介质及机器人 Download PDFInfo
- Publication number
- CN114800489B CN114800489B CN202210280461.3A CN202210280461A CN114800489B CN 114800489 B CN114800489 B CN 114800489B CN 202210280461 A CN202210280461 A CN 202210280461A CN 114800489 B CN114800489 B CN 114800489B
- Authority
- CN
- China
- Prior art keywords
- mechanical arm
- learning
- neural network
- model
- coefficient
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 150000001875 compounds Chemical class 0.000 title claims abstract description 22
- 238000013528 artificial neural network Methods 0.000 claims abstract description 80
- 238000013016 damping Methods 0.000 claims abstract description 25
- 230000003044 adaptive effect Effects 0.000 claims abstract description 17
- 230000003993 interaction Effects 0.000 claims abstract description 17
- 239000002131 composite material Substances 0.000 claims abstract description 5
- 230000004044 response Effects 0.000 claims abstract description 5
- 239000011159 matrix material Substances 0.000 claims description 12
- 230000006870 function Effects 0.000 claims description 11
- 238000012549 training Methods 0.000 claims description 10
- 230000008859 change Effects 0.000 claims description 9
- 238000013461 design Methods 0.000 claims description 9
- 230000001133 acceleration Effects 0.000 claims description 8
- 238000006073 displacement reaction Methods 0.000 claims description 8
- 238000013507 mapping Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 3
- 230000005484 gravity Effects 0.000 claims description 3
- 230000008569 process Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000007547 defect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000009977 dual effect Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000001052 transient effect Effects 0.000 description 2
- 241000135164 Timea Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005498 polishing Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/1605—Simulation of manipulator lay-out, design, modelling of manipulator
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/1607—Calculation of inertia, jacobian matrixes and inverses
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/1651—Programme controls characterised by the control loop acceleration, rate control
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T90/00—Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Software Systems (AREA)
- Feedback Control In General (AREA)
- Manipulator (AREA)
Abstract
本发明公开了基于确定学习与复合学习联合的机械臂柔顺控制方法、存储介质及机器人,方法包括:首先,根据实时交互任务的跟踪误差,设计二阶阻抗模模型中的阻尼系数、刚度系数的调节策略,然后在机械臂与环境交互力回归的情况下,基于复合学习理论设计自适应神经网络阻抗控制器,最后,利用确定学习理论获取经验知识,设计常值神经网络阻抗控制器,实现机械臂的柔顺控制,保证机械臂末端动态响应遵循期望阻抗模型。本发明设计的方法不仅有效加速了神经网络对系统未知动态的学习,解决了带有未知动态的机械臂与环境交互时的安全柔顺控制,而且在保证系统稳定的前提下提高了机械臂的顺应性和适应性,减小了运动冲击。
Description
技术领域
本发明涉及机械臂变阻抗柔顺控制的技术领域,具体涉及一种基于确定学习与复合学习联合的机械臂柔顺控制方法、存储介质及机器人。
背景技术
随着工业自动化进程的不断推进以及“工业4.0”概念的普及,机械臂在各行各业已获得广泛运用。与此同时,机械臂需应对的环境也日趋复杂,已广泛应用到非结构环境下的接触操作任务场合,如机械臂打磨、装配作业、康复医疗作业、人机协同作业等,如何让机械臂安全高效快速地完成复杂控制任务,精确控制不同环境下的接触力,是当前机械臂柔顺控制面临的新挑战。在柔顺控制算法中,阻抗控制由于具有抗扰动能力强以及易于机械臂进行力控等特点得到了广泛关注,传统机械臂通常根据控制任务以及交互环境的需要确定阻抗参数,惯性、阻尼和刚度系数根据经验以固定值的形式手动确定,缺乏灵活性,难以实现复杂环境下的交互控制任务。注意到,机械臂系统由于摩擦、阻尼等因素而存在建模不确定性,影响机械臂的控制性能,但是传统的自适应神经网络控制器对机械臂执行相同或相似控制任务时需要在线调整权值来重新辨识未知动态,使得控制方案占用计算资源大、耗时长,不易实施,并且传统自适应神经网络权值的学习主要根据系统跟踪误差调整学习,并未考虑对神经网络的历史经验充分利用,导致神经网络学习需要足够的时间才能满足期望的控制性能。因此,针对重复的交互控制任务场景,期望设计一个可根据交互环境动态调整期望阻抗参数且具备快速学习能力的实时柔顺控制算法。
发明内容
本发明的主要目的在于克服现有技术的缺点与不足,提供一种确定学习与复合学习联合的机械臂柔顺控制方法。针对传统固定阻抗系数而使得柔顺控制缺乏灵活自主性的不足,本发明利用系统的跟踪误差,动态调节阻抗模型的阻尼和刚度系数,提高了机械臂与环境的交互性能,针对具有未知动态的机械臂系统,本发明利用确定学习理论,实现对存在建模不确定性的机械臂动态准确辨识,在神经网络学习过程中引入复合学习理论,利用未知动态学习的历史信息加速学习速度并提升学习能力,减少神经网络的学习时间,当神经网络权值收敛后将其存储为经验知识,当机械臂重复执行相同或相似任务时,可以直接调用经验知识进行高性能控制,避免重复训练神经网络。
为了达到上述目的,本发明采用以下技术方案:
本发明一方面提供了基于确定学习与复合学习联合的机械臂柔顺控制方法,包括下述步骤:
S1、构建机械臂运动学模型,利用机械臂的运动学模型构建基于任务空间的机械臂动力学模型;
S2、基于机械臂运动学模型和机械臂动力学模型,建立期望的任务空间回归轨迹模型,并根据交互环境的需要建立期望阻抗模型,所述期望阻抗模型的结构如下:
其中,Mm、Bm(t)、Km(t)为期望阻抗模型的惯性、时变阻尼和时变刚度系数,x分别为机械臂末端加速度、速度和位置,/>xd分别为机械臂末端的期望加速度、期望速度、期望位置,fe为机械臂末端与环境交互的作用力;
定义机械臂末端的跟踪误差e(t)为:
e(t)=x-xd
设计时变阻尼系数Bm(t)与时变刚度系数Km(t)调节策略分别为:
Bm(t)=B0-αf(e(t))
Km(t)=K0+βf(e(t))
其中,B0为时变阻尼系数Bm(t)的正偏置系数,K0为时变刚度系数Km(t)的正偏置系数,α、β分别为阻尼变化系数和刚度变化系数,f(·)为连续光滑的非线性函数;
S3、基于复合学习理论设计自适应神经网络阻抗控制器,具体为:
定义辅助变量feu(t):
定义辅助误差z为:
定义辅助变量ξ1为:
定义辅助变量ξ2为:
二阶滤波器的初始条件满足:
构造预测误差η为:
设计自适应神经网络阻抗控制器为:
其中,Γ为神经网络学习率,λw为正增益常数;
S4、利用确定学习理论获取经验知识,并设计常值神经网络阻抗控制器,实现机械臂的柔顺控制,保证机械臂末端动态响应遵循期望阻抗模型,具体为:
利用获取的经验权值,设计常值神经网络阻抗控制器:
其中,kl为常值神经网络控制器设计的增益参数。
作为优选的技术方案,步骤S1中,所述构建机械臂的运动学模型为:
正运动学表示机械臂从关节空间到任务空间的映射:
x=T(q)
其中,x=[px,py,pz]T为机械臂末端在任务空间的位置,q=[q1,q2,…,qn]T为机械臂在关节空间的角位移,T(·)为正运动学映射关系;
机械臂末端速度与关节速度的关系表示为:
作为优选的技术方案,步骤S1中,所述利用机械臂的运动学模型构建基于任务空间的机械臂动力学模型,具体为:
基于拉格朗日方程的机械臂在关节空间的动力学模型为:
结合建立的机械臂运动学模型,基于任务空间的机械臂动力学模型为:
作为优选的技术方案,任务空间下的动力学模型参数与关节空间动力学模型参数的转换关系如下:
M(q)=J-TMq(q)J-1
G(q)=J-TGq(q)
作为优选的技术方案,步骤S2中,所述期望的任务空间回归轨迹模型为:
作为优选的技术方案,步骤S2中,Mm=1;
Bm(t)=6-3arctan(80e(t));
Km(t)=10+6arctan(80e(t))。
本发明另一方面提供了一种计算机可读存储介质,存储有程序,所述程序被处理器执行时,实现所述的基于确定学习与复合学习联合的机械臂柔顺控制方法。
本发明又一方面提供了一种机器人,所述机器人包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序指令,所述计算机程序指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行所述的基于确定学习与复合学习联合的机械臂柔顺控制方法。
本发明与现有技术相比,具有如下优点和有益效果:
1、本发明利用外环速度补偿思想,在机器人内部速度控制器为未知参数PI控制器以及机器人动力学参数未知的前提下,实现了封闭机器人的自适应神经网络控制;
2、本发明利用确定学习理论,实现了封闭机器人在自适应神经网络控制过程中对机器人系统内部未知动态的学习,并且通过存储收敛后神经网络权值的方式实现对经验知识的再利用,避免了执行相同或相似任务时,神经网络权值的重复训练问题;
3、本发明利用确定学习理论将学习后得到的常值神经网络权值代替原有神经网络权值估计值,在自适应神经网络速度补偿控制指令的基础上构建了常值神经网络速度补偿控制指令,除去了权值更新环节,在降低计算时间和硬件消耗的同时提升了暂态跟踪性能,可更好实现神经网络控制算法在封闭机器人上的应用。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例基于确定学习与复合学习联合的机械臂柔顺控制方法流程图。
图2为本实施例双连杆机械臂系统场景图。
图3为本实施例神经网络权值范数收敛图。
图4为本发明实施例机械臂末端轨迹跟踪曲线图。
图5为本发明实施例机械臂末端与环境交互的接触力曲线图。
图6为本发明实施例机械臂末端轨迹跟踪误差变化曲线图。
图7为本发明实施例机械臂动力学系统表现的辅助阻抗误差变量曲线图。
图8为本发明实施例神经网络对未知动态的学习曲线。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
在本申请中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本申请所描述的实施例可以与其它实施例相结合。
如图1所示,本实施例基于确定学习与复合学习联合的机械臂柔顺控制方法,首先,根据实时交互任务的跟踪误差,设计二阶阻抗模模型中的阻尼系数、刚度系数的调节策略,然后在机械臂与环境交互力回归的情况下,基于复合学习理论设计自适应神经网络阻抗控制器,最后,利用确定学习理论获取经验知识,设计常值神经网络阻抗控制器,实现机械臂的柔顺控制,保证机械臂末端动态响应遵循期望阻抗模型。所述机械臂柔顺控制方法具体步骤如下:
S1、本实施例中选取的机械臂如图2所示,根据机械臂结构建立机械臂的运动学模型,具体如下:
正运动学表示机械臂从关节空间到任务空间的映射:
x=T(q)
其中,x=[px,py,pz]T为机械臂末端在任务空间的位置,q=[q1,q2]T为机械臂在关节空间的角位移,q1和q2分别为关节1和关节2的角位置,T(·)为正运动学映射关系;
进一步的,机械臂末端速度与关节速度的关系可表示为:
根据机械臂的机械臂结构,机械臂的正运动学模型为:
其中,l1=1m和l2=1m分别为连杆1和连杆2的长度,机械臂系统的雅可比矩阵为:
建立任务空间下的机械臂动力学模型:
基于拉格朗日方程的机械臂在关节空间的动力学模型为:
更进一步的,结合步骤S1建立的机械臂运动学模型,基于任务空间的机械臂动力学模型为:
任务空间下的动力学模型参数与关节空间动力学模型参数的转换关系如下:
M(q)=J-TMq(q)J-1
G(q)=J-TGq(q)
在一个具体的实施方式中,选取的双连杆刚性机械臂模型的相关参数分别为:
其中,p1=2.16,p1=0.92,p1=1.13,p1=4.25,p1=1.75,g=9.8。
S2、建立期望的任务空间回归轨迹模型为:
在一个具体的实施方式中,选取的期望轨迹为:
根据交互环境的需要建立期望阻抗模型,其结构如下:
定义机械臂末端的跟踪误差e(t)为
e(t)=x-xd
设计时变阻尼系数Bm(t)与时变刚度系数Km(t)调节策略分别为
Bm(t)=B0-αf(e(t))
Km(t)=K0+βf(e(t))
其中,B0为时变阻尼系数Bm(t)的正偏置系数,K0为时变刚度系数Km(t)的正偏置系数,α、β分别为阻尼变化系数和刚度变化系数,f(·)为连续光滑的非线性函数。
本实施例中选取的阻抗参数如下:
Mm=1
Bm(t)=6-3arctan(80e(t))
Km(t)=10+6arctan(80e(t))
S3、基于复合学习理论设计自适应神经网络阻抗控制器:
定义辅助变量feu(t)
定义辅助误差z为
定义辅助变量ξ1为
定义辅助变量ξ2为
二阶滤波器的初始条件满足
本实施例中选取的机械臂末端与环境接触力为:
构造预测误差η为
设计自适应神经网络阻抗控制器为:
其中,Γ=20为神经网络学习率,λw=4为正增益常数;
S4、基于确定学习理论获取经验知识,并设计常值神经网络阻抗控制器:
利用获取的经验权值,设计常值神经网络阻抗控制器:
其中,kl=80为常值神经网络控制器设计的增益参数
本实施例中,ξ和初始值为ξ(0)=[0.85,1.1]T、/>中心点均匀分布在[0.6,1.4]×[0.6,1.4]×[-0.2,0.4]×[-0.2,0.4]×[-1,0.5]×[-0.4,0.4]×[-0.4,0.4]×[-0.4,0.4]上,宽度为[0.5,0.5,0.375,0.375,0.9375,0.5,0.5,0.5]T。
采用本实施例中的参数,在MATLAB仿真环境下可获得图3至图8的结果。神经网络权值的收敛如图3所示,表明在重复任务下,权值可收敛至常值附近。机械臂末端的轨迹跟踪如图4所示,机械臂末端与环境接触的交互力如图5所示,机械臂末端的跟踪误差如图6所示,机械臂动力学系统表现的辅助阻抗误差变化如图7所示。图6-图7可表明本发明利用经验知识实现良好的暂态控制性能,实现高性能的柔顺控制,图8为神经网络对机械臂系统未知动态的逼近效果,表明利用神经网络实现了对未知动态的学习。
本发明设计的方法不仅有效加速了神经网络对系统未知动态的学习,解决了带有未知动态的机械臂与环境交互时的安全柔顺控制,而且在保证系统稳定的前提下提高了机械臂的顺应性和适应性,减小了运动冲击。
需要说明的是,对于前述的各方法实施例,为了简便描述,将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其它顺序或者同时进行。
基于与上述实施例中的基于确定学习的封闭机器人速度补偿跟踪控制方法相同的思想,本发明还提供基于确定学习的封闭机器人速度补偿跟踪控制系统,该系统可用于执行上述基于确定学习的封闭机器人速度补偿跟踪控制方法。为了便于说明,基于确定学习的封闭机器人速度补偿跟踪控制系统实施例的结构示意图中,仅仅示出了与本发明实施例相关的部分,本领域技术人员可以理解,图示结构并不构成对装置的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
在另一个实施例中,提供了一种计算机可读存储介质,存储有程序于存储器中,所述程序被处理器执行时,实现所述的基于确定学习与复合学习联合的机械臂柔顺控制方法,具体为:
S1、构建机械臂运动学模型,利用机械臂的运动学模型构建基于任务空间的机械臂动力学模型;
S2、基于机械臂运动学模型和机械臂动力学模型,建立期望的任务空间回归轨迹模型,并根据交互环境的需要建立期望阻抗模型,所述期望阻抗模型的结构如下:
其中,Mm、Bm(t)、Km(t)为期望阻抗模型的惯性、时变阻尼和时变刚度系数,x分别为机械臂末端加速度、速度和位置,/>xd分别为机械臂末端的期望加速度、期望速度、期望位置,fe为机械臂末端与环境交互的作用力;
定义机械臂末端的跟踪误差e(t)为:
e(t)=x-xd
设计时变阻尼系数Bm(t)与时变刚度系数Km(t)调节策略分别为:
Bm(t)=B0-αf(e(t))
Km(t)=K0+βf(e(t))
其中,B0为时变阻尼系数Bm(t)的正偏置系数,K0为时变刚度系数Km(t)的正偏置系数,α、β分别为阻尼变化系数和刚度变化系数,f(·)为连续光滑的非线性函数;
S3、基于复合学习理论设计自适应神经网络阻抗控制器,具体为:
定义辅助变量feu(t):
定义辅助误差z为:
定义辅助变量ξ1为:
定义辅助变量ξ2为:
二阶滤波器的初始条件满足:
构造预测误差η为:
设计自适应神经网络阻抗控制器为:
其中,Γ为神经网络学习率,λw为正增益常数;
S4、利用确定学习理论获取经验知识,并设计常值神经网络阻抗控制器,实现机械臂的柔顺控制,保证机械臂末端动态响应遵循期望阻抗模型,具体为:
利用获取的经验权值,设计常值神经网络阻抗控制器:
其中,kl为常值神经网络控制器设计的增益参数。
在另一个实施例中,还提供了一种机器人,所述机器人包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序指令,所述计算机程序指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行所述的基于确定学习与复合学习联合的机械臂柔顺控制方法。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (8)
1.基于确定学习与复合学习联合的机械臂柔顺控制方法,其特征在于,包括下述步骤:
S1、构建机械臂运动学模型,利用机械臂的运动学模型构建基于任务空间的机械臂动力学模型;
S2、基于机械臂运动学模型和机械臂动力学模型,建立期望的任务空间回归轨迹模型,并根据交互环境的需要建立期望阻抗模型,所述期望阻抗模型的结构如下:
其中,Mm、Bm(t)、Km(t)为期望阻抗模型的惯性、时变阻尼系数和时变刚度系数, x分别为机械臂末端加速度、速度和位置,/>xd分别为机械臂末端的期望加速度、期望速度、期望位置,fe为机械臂末端与环境交互的作用力;
定义机械臂末端的跟踪误差e(t)为:
e(t)=x-xd
设计时变阻尼系数Bm(t)与时变刚度系数Km(t)调节策略分别为:
Bm(t)=B0-αf(e(t))
Km(t)=K0+βf(e(t))
其中,B0为时变阻尼系数Bm(t)的正偏置系数,K0为时变刚度系数Km(t)的正偏置系数,α、β分别为阻尼变化系数和刚度变化系数,f(·)为连续光滑的非线性函数;
S3、基于复合学习理论设计自适应神经网络阻抗控制器,具体为:
定义辅助变量feu(t):
定义辅助误差z为:
定义辅助变量ξ1为:
定义辅助变量ξ2为:
二阶滤波器的初始条件满足:
构造预测误差η为:
设计自适应神经网络阻抗控制器为:
其中,Γ为神经网络学习率,λw为正增益常数;
S4、利用确定学习理论获取常值神经网络权值,并设计常值神经网络阻抗控制器,实现机械臂的柔顺控制,保证机械臂末端动态响应遵循期望阻抗模型,具体为:
利用获取的常值神经网络权值,设计常值神经网络阻抗控制器:
其中,kl为常值神经网络控制器设计的增益参数。
6.根据权利要求1所述基于确定学习与复合学习联合的机械臂柔顺控制方法,其特征在于,步骤S2中,Mm=1;
Bm(t)=6-3arctan(80e(t));
Km(t)=10+6arctan(80e(t))。
7.一种计算机可读存储介质,存储有程序,其特征在于,所述程序被处理器执行时,实现权利要求1-6任一项所述的基于确定学习与复合学习联合的机械臂柔顺控制方法。
8.一种机器人,其特征在于,所述机器人包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序指令,所述计算机程序指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1-6中任意一项所述的基于确定学习与复合学习联合的机械臂柔顺控制方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210280461.3A CN114800489B (zh) | 2022-03-22 | 2022-03-22 | 基于确定学习与复合学习联合的机械臂柔顺控制方法、存储介质及机器人 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210280461.3A CN114800489B (zh) | 2022-03-22 | 2022-03-22 | 基于确定学习与复合学习联合的机械臂柔顺控制方法、存储介质及机器人 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114800489A CN114800489A (zh) | 2022-07-29 |
CN114800489B true CN114800489B (zh) | 2023-06-20 |
Family
ID=82530885
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210280461.3A Active CN114800489B (zh) | 2022-03-22 | 2022-03-22 | 基于确定学习与复合学习联合的机械臂柔顺控制方法、存储介质及机器人 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114800489B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115421387B (zh) * | 2022-09-22 | 2023-04-14 | 中国科学院自动化研究所 | 一种基于逆强化学习的可变阻抗控制系统及控制方法 |
CN115847404A (zh) * | 2022-11-28 | 2023-03-28 | 燕山大学 | 一种基于复合学习的受限机械臂有限时间控制方法 |
CN116766181B (zh) * | 2023-05-31 | 2024-05-10 | 四川大学 | 一种基于全驱系统理论的机械臂主动柔顺控制方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109702740A (zh) * | 2018-12-14 | 2019-05-03 | 中国科学院深圳先进技术研究院 | 机器人柔顺性控制方法、装置、设备及存储介质 |
WO2020118730A1 (zh) * | 2018-12-14 | 2020-06-18 | 中国科学院深圳先进技术研究院 | 机器人柔顺性控制方法、装置、设备及存储介质 |
CN111993417A (zh) * | 2020-08-04 | 2020-11-27 | 北京航空航天大学 | 一种基于rbf神经网络的机械臂自适应阻抗控制方法 |
CN113977572A (zh) * | 2021-08-06 | 2022-01-28 | 华南理工大学 | 一种基于宽度径向基神经网络的机械臂阻抗学习控制方法 |
-
2022
- 2022-03-22 CN CN202210280461.3A patent/CN114800489B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109702740A (zh) * | 2018-12-14 | 2019-05-03 | 中国科学院深圳先进技术研究院 | 机器人柔顺性控制方法、装置、设备及存储介质 |
WO2020118730A1 (zh) * | 2018-12-14 | 2020-06-18 | 中国科学院深圳先进技术研究院 | 机器人柔顺性控制方法、装置、设备及存储介质 |
CN111993417A (zh) * | 2020-08-04 | 2020-11-27 | 北京航空航天大学 | 一种基于rbf神经网络的机械臂自适应阻抗控制方法 |
CN113977572A (zh) * | 2021-08-06 | 2022-01-28 | 华南理工大学 | 一种基于宽度径向基神经网络的机械臂阻抗学习控制方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114800489A (zh) | 2022-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114800489B (zh) | 基于确定学习与复合学习联合的机械臂柔顺控制方法、存储介质及机器人 | |
CN111496792B (zh) | 一种机械臂输入饱和固定时间轨迹跟踪控制方法及系统 | |
CN110202574B (zh) | 基于环境刚度估计的机器人自适应混合阻抗/导纳控制方法 | |
CN108875253B (zh) | 基于干扰观测器的欠驱动吊车系统的终端滑模消摆控制方法及系统 | |
CN112338912B (zh) | 一种柔性单链机械臂的有限时间稳定控制方法及系统 | |
CN110977988B (zh) | 基于有限时间命令滤波的多关节机械臂阻抗控制方法 | |
CN114367980B (zh) | 基于确定学习的封闭机器人速度补偿跟踪控制方法、存储介质及机器人 | |
CN114895564B (zh) | 一种电驱动柔性关节机械臂自适应神经网络控制器设计方法 | |
Hu et al. | A reinforcement learning neural network for robotic manipulator control | |
CN108388114A (zh) | 一种基于输出重定义的柔性机械臂复合控制方法 | |
CN111176122B (zh) | 一种基于双bp神经网络q学习技术的水下机器人参数自适应反步控制方法 | |
CN112769367B (zh) | 永磁直线电机数据驱动离散迭代积分滑模控制方法及系统 | |
CN116619383B (zh) | 基于确定学习的机械臂pid控制方法及系统 | |
CN112338913A (zh) | 一种多关节柔性机械臂的轨迹跟踪控制方法及系统 | |
CN115990888A (zh) | 一种具有死区和时变约束功能的机械臂控制方法 | |
CN114839880A (zh) | 一种基于柔性关节机械臂的自适应控制方法 | |
CN113219825B (zh) | 一种四足机器人单腿轨迹跟踪控制方法及系统 | |
CN113977572A (zh) | 一种基于宽度径向基神经网络的机械臂阻抗学习控制方法 | |
WO2023116129A1 (zh) | 一种协作机器人的柔顺力控制方法及系统 | |
CN116512256A (zh) | 基于联合学习的机器人最优人机交互阻抗控制方法、存储介质及机器人 | |
CN109176529B (zh) | 一种空间机器人协调运动的自适应模糊控制方法 | |
CN116068893A (zh) | 一种机械臂自适应分数阶滑模控制方法、设备及介质 | |
CN113296398A (zh) | 一种柔性单链机械臂基于事件触发的命令滤波控制方法 | |
CN114859725A (zh) | 一种非线性系统自适应事件触发控制方法及系统 | |
CN116088299A (zh) | 卫星天线混联运动机构神经网络反步控制方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |