CN113977572A - 一种基于宽度径向基神经网络的机械臂阻抗学习控制方法 - Google Patents
一种基于宽度径向基神经网络的机械臂阻抗学习控制方法 Download PDFInfo
- Publication number
- CN113977572A CN113977572A CN202110899746.0A CN202110899746A CN113977572A CN 113977572 A CN113977572 A CN 113977572A CN 202110899746 A CN202110899746 A CN 202110899746A CN 113977572 A CN113977572 A CN 113977572A
- Authority
- CN
- China
- Prior art keywords
- mechanical arm
- neural network
- impedance
- basis function
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Feedback Control In General (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种基于宽度径向基神经网络的机械臂阻抗学习控制方法,包括如下步骤:根据机械臂结构建立机械臂的运动学模型;基于拉格朗日方程及运动学模型,在任务空间下建立机械臂的动力学模型;建立期望的任务空间回归轨迹模型以及二阶阻抗模型;构造宽度径向基神经网络以实现神经网络节点的动态调整;利用宽度径向基神经网络结合二阶阻抗模型,构建自适应神经网络阻抗控制器;基于确定学习理论获取经验知识,构建常值神经网络阻抗控制器。本方法不仅有效解决了机械臂在未知动力学信息条件下与环境交互的精确阻抗控制,而且提高了控制系统的实时性,为机械臂在与环境重复交互的情景下,提供一种新的安全可靠方法。
Description
技术领域
本发明涉及机械臂的安全柔顺控制的技术领域,具体涉及一种基于宽度径向基神经网络的机械臂阻抗学习控制方法。
背景技术
随着科学技术的快速发展,机械臂在工业、服务业领域获得越来越广泛的应用,面临的控制任务也日益复杂。在面对诸多的作业场合,如机械臂打磨、装配作业、康复医疗作业、人机协同作业等,传统的机械臂位置控制已不能满足该方面的控制需求,往往还需要考虑其力的柔顺控制。在柔顺控制算法中,阻抗控制凭借将力与位置纳入统一控制体系,具有抗扰动能力强以及易于机械臂进行力控等特点,得到了许多研究人员的深入研究。在机械臂阻抗控制的研究和应用中,计算机械臂的控制力矩往往需要精确的动力学模型以实现控制精度,而机械臂系统由于摩擦力和阻尼等因素导致系统存在建模的不确定性,影响机械臂的柔顺性能。为了克服建模不确定性带来的控制性能下降问题,通常采用神经网络对机械臂的未知动态进行辨识,但是传统的自适应神经网络控制器对机械臂执行相同或相似控制任务时需要在线调整权值来重新辨识未知动态,使得控制方案占用计算资源大、耗时长,不易实施。此外,传统的径向基神经网络结构参数通常依赖于设计者的经验以及试错方式进行选取,具有主观偏向性且效率低下,当需要较高的神经网络逼近精度时,往往需要选取过多的中心点,从而进一步增加神经网络的计算负荷,影响控制系统的实时性。因此,针对执行相同或相似的接触环境控制任务的机械臂,期望设计一个能充分利用经验知识、较小计算量以及具备高性能的实时阻抗控制算法。
发明内容
本发明的目的是针对现有技术的不足,提供了一种基于宽度径向基神经网络的机械臂阻抗学习控制方法;针对机械臂动力学模型存在的不确定性问题,本发明利用确定学习理论,实现对机械臂未知动态的精确辨识,并将收敛后的神经网络权值存储为经验知识,当机械臂重复执行相同任务时,可以直接调用存储经验知识进行利用,避免重复训练神经网络;针对传统神经网络过多的中心点而增大神经网络计算负担,基于宽度神经网络增量式结构,通过当前神经网络输入与已有中心节点集合的距离,动态拓展神经网络的节点,减少神经网络的计算量,使机械臂可以高效实时精准实现柔顺控制。
本发明的目的可以通过如下技术方案实现:
一种基于宽度径向基神经网络的机械臂阻抗学习控制方法,包括以下步骤:
根据机械臂结构建立机械臂运动学模型;
基于拉格朗日方程以及建立的机械臂运动学模型,在任务空间下建立机械臂动力学模型;
建立期望的任务空间回归轨迹模型,并根据任务空间回归轨迹模型和交互环境,建立二阶阻抗模型;
构造宽度径向基神经网络以实现神经网络中心点的动态调整,具体为:
定义当前神经网络输入状态ψ与神经网络中心点的距离集合为:
D={||ψ-μ1||,…,||ψ-μN||},
其中,N表示当前神经网络的中心点数量,U={μ1,...,μN}为神经网络中心点集;
从集合D选取与当前神经网络输入状态ψ距离最近的k个中心点构成最近神经网络中心点集为
Cmin={c1,…,ck},
则Cmin的平均中心点为
新增的神经网络中心点表示为
其中,ρ为设计的中心点更新参数;
每个计算周期更新后的中心点集合表示为
其中,γ为设计的用以判断是否更新神经网络中心点集的阈值参数;
则每个计算周期更新后,宽度径向基神经网络基函数为
S(ψ)=exp(-||ψ-Unew||2/η),
其中,η为径向基函数的宽度;
故宽度径向基神经网络表示为
f(ψ)=W*TS(ψ)
其中,W*为宽度径向基神经网络的理想权值;
利用宽度径向基神经网络逼近机械臂动力学系统的未知动态,结合期望的二阶阻抗模型,当机械臂末端与环境交互的接触力fe回归时,构建自适应神经网络阻抗控制器,实现机械臂动力学表征跟踪期望的二阶阻抗模型;
基于确定学习理论获取经验知识,构建常值神经网络阻抗控制器,实现机械臂重复任务的控制。
作为优选的技术方案,所述根据机械臂结构建立机械臂运动学模型,具体为:
正运动学表示机械臂从关节空间到任务空间的映射:
ξ=Trans(q),
其中,q=[q1,q2,…,qn]T为机械臂在关节空间的角位移,qi(i=1,2,…,n)为第i个关节的角位移,n对应着机械臂的关节数,Trans(·)为正运动学映射关系,T表示向量的转置;
机械臂末端速度与关节速度的关系表示为:
作为优选的技术方案,所述基于拉格朗日方程建立任务空间下的机械臂动力学模型,具体为:
基于拉格朗日方程的机械臂在关节空间的动力学模型为:
其中,为机械臂在关节空间的角加速度,Mq(q)、Gq(q)分别为关节空间下机械臂的惯性矩阵、向心力矩阵、重力项,τq为关节控制力矩,J为机械臂系统的雅可比矩阵,JT是J的转置,为第i个关节的角加速度,T表示向量的转置,n对应着机械臂的关节数;
结合所述建立的机械臂运动学模型,基于任务空间的机械臂动力学模型为:
其中,τ为关节力矩映射到机械臂末端的控制力矩,M(q)、G(q)分别为任务空间下机械臂的惯性矩阵、向心力矩阵和重力项,为机械臂末端加速度,为机械臂末端速度,分别为机械臂末端在任务空间下三个方向的加速度,分别为机械臂末端在任务空间下三个方向的速度,其与关节空间的动力学模型参数的转换关系为:
M(q)=J-TMq(q)J-1,
G(q)=J-TGq(q)。
作为优选的技术方案,所述任务空间期望回归轨迹模型为:
作为优选的技术方案,所述二阶阻抗模型结构为:
其中,Mm、Bm、Km分别代表期望二阶阻抗模型的惯性、阻尼和刚度矩阵,为机械臂末端的期望加速度,为机械臂末端的期望速度,ξ=[x,y,z]T为机械臂末端位置,ξd=[xd,yd,zd]T为机械臂末端的期望位置,fe为机械臂末端与环境交互的接触力,x,y,z分别为机械臂末端在任务空间下三个方向的位移,xd,yd,zd分别为机械臂末端在任务空间下三个方向的期望位移,分别为机械臂末端在任务空间下三个方向的期望速度,分别为机械臂末端在任务空间下三个方向的期望加速度。
作为优选的技术方案,所述构建自适应神经网络阻抗控制器,具体为:
存在辅助力τe使得接触力fe重写为如下关系:
定义机械臂的跟踪误差为
e=ξ-ξd,
定义辅助误差变量为
其中,Λ为控制增益参数;
构建自适应神经网络阻抗控制器为
其中,ka为自适应神经网络控制器设计的增益参数,为理想神经网络权值W*的估计值,β为神经网络学习率,σ为常数,S(ψ)是以向量ψ为输入的高斯径向基函数,为的转置,是的更新率,s是辅助误差变量,sT为s的转置。
作为优选的技术方案,所述构建常值神经网络阻抗控制器,具体为:
在自适应神经网络阻抗控制后闭环系统一致收敛的时间段[t1,t2]内,常值神经网络权值通过以下公式获得:
将收敛后的神经网络权值存储为经验知识,当机械臂重复执行相同任务时,可以直接调用存储经验知识进行利用,避免重复训练神经网络;
利用经验知识构建常值神经网络阻抗控制器:
其中,kl为常值神经网络阻抗控制器的控制增益参数,S(ψ)是以向量ψ为输入的高斯径向基函数,s是辅助误差变量。
本发明与现有技术相比,具有如下优点和有益效果:
1、本发明结合宽度神经网络增量思想,实现了神经网络中心节点的动态拓展,减小了中心点数量规模,降低了控制系统的计算量和提高了控制系统的实时性;
2、本发明从环境交互中实现了对机械臂系统未知动态的学习,当控制任务重复出现时,机械臂利用经验知识,避免了神经网络的冗余训练,进一步减轻了计算负担;
3、本发明在阻抗控制的思想上结合确定学习、宽度学习理论,在机械臂的柔顺控制中实现了良好的控制性能,机械臂系统可以表现出所期望的阻抗关系。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例一种基于宽度径向基神经网络的机械臂阻抗学习控制方法流程图。
图2为本发明实施例双连杆机械臂系统场景图。
图3为本实施例仿真场景中机械臂的宽度径向基神经网络权值范数收敛图。
图4为本发明实施例机械臂末端轨迹跟踪曲线图。
图5为本发明实施例机械臂末端轨迹跟踪误差变化曲线图。
图6为本发明实施例机械臂末端与环境交互的接触力曲线图。
图7为本发明实施例机械臂关节力矩曲线图。
图8为本发明实施例机械臂系统的辅助误差变量曲线图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
在本申请中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本申请所描述的实施例可以与其它实施例相结合。
如图1所示,本实施例提供的一种基于宽度径向基神经网络的机械臂阻抗学习控制方法,包括以下步骤:
步骤1、本实施例中选取的双连杆机械臂如图2所示,根据机械臂结构建立机械臂运动学模型;
正运动学表示机械臂从关节空间到任务空间的映射:
ξ=Trans(q),
其中,q=[q1,q2,…,qn]T为机械臂在关节空间的角位移,qi(i=1,2,…,n)为第i个关节的角位移,n对应着机械臂的关节数,Trans(·)为正运动学映射关系,T表示向量的转置;
机械臂末端速度与关节速度的关系可表示为:
根据机械臂的机械臂结构,机械臂的正运动学模型为:
其中,l1=0.3m和l2=0.3m分别为连杆1和连杆2的长度。
机械臂系统的雅可比矩阵为:
步骤2、基于拉格朗日方程以及建立的机械臂运动学模型,在任务空间下建立机械臂动力学模型,具体为:
基于拉格朗日方程的机械臂在关节空间的动力学模型为:
其中,为机械臂在关节空间的角速度,Mq(q)、Gq(q)分别为关节空间下机械臂的惯性矩阵、向心力矩阵、重力项,τq为关节控制力矩,fe为机械臂末端与环境交互产生的接触力,J为机械臂系统的雅可比矩阵,JT是J的转置,为第i个关节的角加速度,T表示向量的转置,n对应着机械臂的关节数。
结合步骤1建立的机械臂运动学模型,基于任务空间的机械臂动力学模型为:
其中,τ为关节力矩映射到机械臂末端的控制力矩,M(q)、G(q)分别为任务空间下机械臂的惯性矩阵、向心力矩阵和重力项,为机械臂末端加速度,为机械臂末端速度,分别为机械臂末端在任务空间下三个方向的加速度,分别为机械臂末端在任务空间下三个方向的速度,其与关节空间的动力学模型参数的转换关系如下:
M(q)=J-TMq(q)J-1,
G(q)=J-TGq(q),
本实施例中选取的双连杆刚性机械臂模型的相关参数分别为:
其中,m1=0.5kg和m2=0.5kg分别是连杆1和连杆2的质量,I1=1kg·m2和I2=1kg·m2分别是连杆1和连杆2的惯性,a1=0.15m和a2=0.15m分别是连杆1和连杆2质心的位置,g=9.8m/s2为重力加速度;
步骤3、建立期望的任务空间回归轨迹模型,并根据任务空间回归轨迹模型和交互环境,建立二阶阻抗模型,具体为:
建立二阶阻抗模型,其结构为:
其中,Mm=1、Bm=6、Km=8分别代表期望阻抗模型的期望惯性、阻尼和刚度,为机械臂末端加速度,为机械臂末端的期望加速度,为机械臂末端速度,为机械臂末端的期望速度,ξ=[x,y,z]T为机械臂末端位置,ξd=[xd,yd,zd]T为机械臂末端的期望位置。
建立任务空间期望回归轨迹模型为:
本实施例中选取的期望轨迹为:
步骤4、构造宽度径向基神经网络以实现神经网络节点的动态调整,具体为:
定义当前神经网络输入状态ψ与神经网络中心点的距离集合为:
D={||ψ-μ1||,…,||ψ-μN||},
其中,N表示当前神经网络的中心点数量,U={μ1,...,μN}为神经网络中心点集;
从集合D选取与当前神经网络输入状态ψ距离最近的k个中心点构成最近神经网络中心点集:
Cmin={c1,…,ck},
则最近神经网络中心点集Cmin的平均中心点为:
新增的神经网络中心点表示为:
其中,ρ为设计的中心点更新参数。
每个计算周期更新后的中心点集合表示为:
其中,γ为设计的用以判断是否更新神经网络中心点集的阈值参数;
则每个计算周期更新后,宽度径向基神经网络基函数为:
S(ψ)=exp(-||ψ-Unew||2/η),
其中,η为径向基函数的宽度。
故宽度径向基神经网络表示为:
f(ψ)=W*TS(ψ),
其中,W*为宽度径向基神经网络的理想权值。
本实施例中选取的初始中心点为[0.2;0.4;0;0;0;0;0;0],神经网络宽度η为0.125,神经网络中心点是否拓展的可调节阈值参数γ为0.1,中心节点更新参数ρ为0.9,选取与神经网络当前输入最近的中心点个数为5。
步骤5、利用宽度径向基神经网络逼近机械臂系统的未知动态,结合期望的二阶阻抗模型,当机械臂末端与环境交互的接触力fe回归时,构建自适应神经网络阻抗控制器,实现机械臂动态模型跟踪期望的二阶阻抗模型;
其中,存在辅助力τe使得接触力fe重写为如下关系:
本实施例中选取的机械臂末端与环境接触力为:
定义机械臂的跟踪误差为:
e=ξ-ξd,
定义辅助误差变量为:
其中,Λ=4为控制增益参数。
设计自适应神经网络阻抗控制器为:
其中,ka=120为自适应神经网络阻抗控制器设计的增益参数,为理想神经网络权值W*的估计值,S(ψ)是以向量ψ为输入的高斯径向基函数,β=10为神经网络的学习率,σ=0.0005为常数,为的转置,是的更新率,s是辅助误差变量,sT为s的转置。
步骤6、基于确定学习理论获取经验知识,并构建常值神经网络阻抗控制器,实现机械臂重复任务的控制;
在自适应神经网络阻抗控制后闭环系统一致收敛的时间段[t1,t2]内,常值神经网络权值通过以下公式获得:
将收敛后的神经网络权值存储为经验知识,当机械臂重复执行相同任务时,可以直接调用存储经验知识进行利用,避免重复训练神经网络;
利用经验知识构建常值神经网络阻抗控制器:
其中,kl=80为常值神经网络阻抗控制器设计的增益参数,S(ψ)是以向量ψ为输入的高斯径向基函数,s是辅助误差变量。
采用本实施例中的参数,在MATLAB软件与V-rep软件的联合仿真环境下可获得如图3至图8的结果;宽度径向基神经网络权值的收敛如图3所示,表明在重复任务下,权值可收敛至常值附近;机械臂末端的轨迹跟踪如图4所示,机械臂末端的轨迹跟踪误差如图5所示,机械臂末端与环境接触的交互力如图6所示,图4至图6表明本发明利用经验知识实现了良好的暂态控制性能;图7所示的机械臂关节输出力矩表明本发明下机械臂的输出力矩在合理的安全范围内;机械臂动力学系统表现的辅助阻抗误差变化如图8所示,说明本发明可实现高性能的柔顺控制。
需要说明的是,对于前述的各方法实施例,为了简便描述,将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其它顺序或者同时进行。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (7)
1.一种基于宽度径向基神经网络的机械臂阻抗学习控制方法,其特征在于,所述方法包括以下步骤:
根据机械臂结构建立机械臂运动学模型;
基于拉格朗日方程以及建立的机械臂运动学模型,在任务空间下建立机械臂动力学模型;
建立期望的任务空间回归轨迹模型,并根据任务空间回归轨迹模型和交互环境,建立二阶阻抗模型;
构造宽度径向基神经网络以实现神经网络中心点的动态调整,具体为:
定义当前神经网络输入状态ψ与神经网络中心点的距离集合为:
D={||ψ-μ1||,…,||ψ-μN||},
其中,N表示当前神经网络的中心点数量,U={μ1,...,μN}为神经网络中心点集;
从集合D选取与当前神经网络输入状态ψ距离最近的k个中心点构成最近神经网络中心点集为
Cmin={c1,…,ck},
则Cmin的平均中心点为
新增的神经网络中心点表示为
其中,ρ为设计的中心点更新参数;
每个计算周期更新后的中心点集合表示为
其中,γ为设计的用以判断是否更新神经网络中心点集的阈值参数;
则每个计算周期更新后,宽度径向基神经网络基函数为
S(ψ)=exp(-||ψ-Unew||2/η),
其中,η为径向基函数的宽度;
故宽度径向基神经网络表示为
f(ψ)=W*TS(ψ)
其中,W*为宽度径向基神经网络的理想权值;
利用宽度径向基神经网络逼近机械臂动力学系统的未知动态,结合期望的二阶阻抗模型,当机械臂末端与环境交互的接触力fe回归时,构建自适应神经网络阻抗控制器,实现机械臂动力学表征跟踪期望的二阶阻抗模型;
基于确定学习理论获取经验知识,构建常值神经网络阻抗控制器,实现机械臂重复任务的控制。
3.根据权利要求1所述的一种基于宽度径向基神经网络的机械臂阻抗学习控制方法,其特征在于,所述基于拉格朗日方程建立任务空间下的机械臂动力学模型,具体为:
基于拉格朗日方程的机械臂在关节空间的动力学模型为:
其中,为机械臂在关节空间的角加速度,Mq(q)、Gq(q)分别为关节空间下机械臂的惯性矩阵、向心力矩阵、重力项,τq为关节控制力矩,J为机械臂系统的雅可比矩阵,JT是J的转置,为第i个关节的角加速度,T表示向量的转置,n对应着机械臂的关节数;
结合所述建立的机械臂运动学模型,基于任务空间的机械臂动力学模型为:
其中,τ为关节力矩映射到机械臂末端的控制力矩,M(q)、G(q)分别为任务空间下机械臂的惯性矩阵、向心力矩阵和重力项,为机械臂末端加速度,为机械臂末端速度,分别为机械臂末端在任务空间下三个方向的加速度,分别为机械臂末端在任务空间下三个方向的速度,其与关节空间的动力学模型参数的转换关系为:
M(q)=J-TMq(q)J-1,
G(q)=J-TGq(q)。
6.根据权利要求1所述的一种基于宽度径向基神经网络的机械臂阻抗学习控制方法,其特征在于,所述构建自适应神经网络阻抗控制器,具体为:
存在辅助力τe使得接触力fe重写为如下关系:
定义机械臂的跟踪误差为
e=ξ-ξd,
定义辅助误差变量为
其中,Λ为控制增益参数;
构建自适应神经网络阻抗控制器为
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110899746.0A CN113977572B (zh) | 2021-08-06 | 2021-08-06 | 一种基于宽度径向基神经网络的机械臂阻抗学习控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110899746.0A CN113977572B (zh) | 2021-08-06 | 2021-08-06 | 一种基于宽度径向基神经网络的机械臂阻抗学习控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113977572A true CN113977572A (zh) | 2022-01-28 |
CN113977572B CN113977572B (zh) | 2023-03-21 |
Family
ID=79735099
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110899746.0A Active CN113977572B (zh) | 2021-08-06 | 2021-08-06 | 一种基于宽度径向基神经网络的机械臂阻抗学习控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113977572B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114800489A (zh) * | 2022-03-22 | 2022-07-29 | 华南理工大学 | 基于确定学习与复合学习联合的机械臂柔顺控制方法、存储介质及机器人 |
CN116766181A (zh) * | 2023-05-31 | 2023-09-19 | 四川大学 | 一种基于全驱系统理论的机械臂主动柔顺控制方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113156819A (zh) * | 2021-04-09 | 2021-07-23 | 浙江大学 | 协调打磨机械臂系统自适应神经网络同步阻抗控制方法 |
WO2022007358A1 (zh) * | 2020-07-08 | 2022-01-13 | 深圳市优必选科技股份有限公司 | 阻抗控制方法、装置、阻抗控制器和机器人 |
-
2021
- 2021-08-06 CN CN202110899746.0A patent/CN113977572B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022007358A1 (zh) * | 2020-07-08 | 2022-01-13 | 深圳市优必选科技股份有限公司 | 阻抗控制方法、装置、阻抗控制器和机器人 |
CN113156819A (zh) * | 2021-04-09 | 2021-07-23 | 浙江大学 | 协调打磨机械臂系统自适应神经网络同步阻抗控制方法 |
Non-Patent Citations (4)
Title |
---|
HAOHUI HUANG,CHENGUANG YANG: "Broad Fuzzy Neural Control Using Impedance Learning", 《2019 IEEE 4TH INTERNATIONAL CONFERENCE ON ADVANCED》 * |
HAOHUI HUANG: "Optimal Robot–Environment Interaction Under", 《IEEE TRANSACTIONS ON CYBERNETICS》 * |
于欣波: "机器人自适应神经网络阻抗控制与人机物理交互研究", 《中国博士学位论文全文数据库 信息科技辑 》 * |
张燕雯: "一类具有状态约束的刚性机械臂确定学习研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114800489A (zh) * | 2022-03-22 | 2022-07-29 | 华南理工大学 | 基于确定学习与复合学习联合的机械臂柔顺控制方法、存储介质及机器人 |
CN114800489B (zh) * | 2022-03-22 | 2023-06-20 | 华南理工大学 | 基于确定学习与复合学习联合的机械臂柔顺控制方法、存储介质及机器人 |
CN116766181A (zh) * | 2023-05-31 | 2023-09-19 | 四川大学 | 一种基于全驱系统理论的机械臂主动柔顺控制方法 |
CN116766181B (zh) * | 2023-05-31 | 2024-05-10 | 四川大学 | 一种基于全驱系统理论的机械臂主动柔顺控制方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113977572B (zh) | 2023-03-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110275436B (zh) | 一种多单臂机械手的rbf神经网络自适应控制方法 | |
CN113977572B (zh) | 一种基于宽度径向基神经网络的机械臂阻抗学习控制方法 | |
Rigatos | Model-based and model-free control of flexible-link robots: A comparison between representative methods | |
CN111580392A (zh) | 一种串联倒立摆的有限频率范围鲁棒迭代学习控制方法 | |
CN112338913B (zh) | 一种多关节柔性机械臂的轨迹跟踪控制方法及系统 | |
CN114800489B (zh) | 基于确定学习与复合学习联合的机械臂柔顺控制方法、存储介质及机器人 | |
Hui et al. | Observer-based adaptive controller design of flexible manipulators using time-delay neuro-fuzzy networks | |
CN112051734A (zh) | 一种基于确定学习的轮式移动机器人事件触发跟踪控制方法 | |
CN109176529B (zh) | 一种空间机器人协调运动的自适应模糊控制方法 | |
Kawaharazuka et al. | Dynamic task control method of a flexible manipulator using a deep recurrent neural network | |
CN115185187B (zh) | 一种基于二型椭球型模糊神经网络的机械臂有限时间跟踪控制方法 | |
CN113954077B (zh) | 带有能量优化的水下游动机械臂轨迹跟踪控制方法及装置 | |
CN114200830A (zh) | 一种多智能体一致性强化学习控制方法 | |
CN115401691A (zh) | 一种多单连杆机械臂的一致性跟踪有限时间控制方法 | |
CN114545777A (zh) | 基于改进q函数的多智能体一致性强化学习方法及系统 | |
CN114851193A (zh) | 一种空间机械臂与未知环境接触过程的智能柔顺操控方法 | |
CN114488786A (zh) | 一种基于a3c和事件触发的网络化伺服系统控制方法 | |
Macnab | Neural-adaptive backstepping for flexible-joint robots with neither extra parameters, extra networks, nor robust terms | |
Xia et al. | The control of two-wheeled self-balancing vehicle based on reinforcement learning in a continuous domain | |
Chen et al. | Active vibration control using the modified independent modal space control (MIMSC) algorithm and neural networks as state estimators | |
CN113359626A (zh) | 一种多机器人系统的有限时间分层控制的方法 | |
Heyu et al. | Impedance control method with reinforcement learning for dual-arm robot installing slabstone | |
CN115008456B (zh) | 一种柔性单链机械臂多智能体的跟踪控制方法和系统 | |
CN114700960B (zh) | 一种阶次优化的远程操控行为轮廓规划方法 | |
CN117539153B (zh) | 基于确定学习的上肢康复机器人自适应控制方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |