CN110712201A - 基于感知器模型的机器人多关节自适应补偿方法和稳定器 - Google Patents

基于感知器模型的机器人多关节自适应补偿方法和稳定器 Download PDF

Info

Publication number
CN110712201A
CN110712201A CN201910892895.7A CN201910892895A CN110712201A CN 110712201 A CN110712201 A CN 110712201A CN 201910892895 A CN201910892895 A CN 201910892895A CN 110712201 A CN110712201 A CN 110712201A
Authority
CN
China
Prior art keywords
robot
joint
compensation
value
neuron
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910892895.7A
Other languages
English (en)
Other versions
CN110712201B (zh
Inventor
刘成菊
周浩然
陈启军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tongji University
Original Assignee
Tongji University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tongji University filed Critical Tongji University
Priority to CN201910892895.7A priority Critical patent/CN110712201B/zh
Publication of CN110712201A publication Critical patent/CN110712201A/zh
Application granted granted Critical
Publication of CN110712201B publication Critical patent/CN110712201B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1653Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis

Abstract

本发明涉及一种基于感知器模型的机器人多关节自适应补偿方法和稳定器,所述方法包括以下步骤:1)基于机器人惯性传感器和步态生成器,获取误差数据;2)将误差数据输入预建立的感知器模型中,感知器模型基于联想式学习策略更新网络权重参数,计算并输出补偿值;3)基于补偿值对机器人进行运动补偿,所述感知器模型输出的补偿值包括髋关节补偿值、膝关节补偿值和踝关节补偿值。与现有技术相比,本发明采用联想式学习策略,即有监督的Hebb学习规则来更新网络权重参数,提高鲁棒性,实现自适应控制,将补偿量分散到腿部所有关节,即踝关节、膝关节和髋关节,能够减小关节负荷,延长机器人使用寿命。

Description

基于感知器模型的机器人多关节自适应补偿方法和稳定器
技术领域
本发明涉及控制技术领域,尤其是涉及一种基于感知器模型的机器人多关节自适应补偿方法和稳定器。
背景技术
仿人机器人稳定行走的实现一般包括两个部分,步态规划器和补偿稳定器。机器人在执行规划器生成的质心轨迹和步态时,由于机器人自身的模型误差和外界环境的干扰或扰动,其行走时的实际状态和目标步态往往会出现较大差异,机器人行走状态不再稳定甚至跌倒。所以,在机器人实际行走过程中需要设计稳定器,根据机器人的实际状态对规划参数做一定的补偿,以消除跟踪误差、对抗干扰,实现机器人持续的稳定行走。
由外界干扰或自身模型带来的跟踪误差主要体现在机器人质心误差和姿态误差两个方面。传统的质心补偿器和姿态控制器往往是通过踝关节或髋关节力矩控制,大型机器人还会通过控制腰关节来进行补偿,以消除跟踪误差,保持机器人行走姿态,抵抗外力或环境造成的干扰。关节补偿的大小通过近似模型推导或直接根据误差采用PID控制算法得到。
传统的踝关节或髋关节稳定器在仿人机器人行走稳定中有一定的作用,但其还存在着以下不足:
1)由于仿人机器人系统的非线性、强耦合、大滞后等特性,传统稳定控制器参数计算和整定困难,繁琐;
2)传统稳定控制器一般只适用于某种特定的干扰情况,适应性、鲁棒性差,参数固定,不能自我调节,无法应对复杂多变的环境;
3)当扰动较大时,单一的踝关节或髋关节稳定器对机器人关节负荷大,会缩减机器人使用寿命;
4)传统单关节稳定器补偿范围有限,无法应对较大干扰。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于感知器模型的机器人多关节自适应补偿方法和稳定器。
本发明的目的可以通过以下技术方案来实现:
一种基于感知器模型的机器人多关节自适应补偿方法,该方法包括以下步骤:
S1:基于机器人惯性传感器和步态生成器,获取误差数据;
S2:将误差数据输入预建立的感知器模型中,感知器模型基于联想式学习策略更新网络权重参数,并输出补偿值;
S3:基于补偿值对机器人进行运动补偿。
进一步地,所述步骤S2中,采用联想式学习策略,即有监督的Hebb学习规则来更新网络权重参数,该学习方式将无监督的Hebb学习和有监督的Delta学习规则结合,通过关联搜索对未知的外界做出反应和作用,神经元在监督信号T(k)的作用下对环境信息进行自组织来产生控制作用,并隐含着对神经元作用信号的评价,因此该学习策略能有效提高控制系统对环境的适应性,联想式学习策略的表达式为:
Δwij(k)=ηijT(k)Ii(k)Oj(k)
式中,Δwij(k)为k时刻输入层第i个神经元与输出层第j个神经元之间的连接权重调整值,Ii(k)为k时刻输入层第i个神经元的输入值,Oj(k)为k时刻输出层第j个神经元的补偿值,T(k)为k时刻的监督信号,ηij为输入层第i个神经元与输出层第j个神经元之间的学习率。
进一步地,为了消除机器人在行走过程由于模型误差或外界干扰产生的质心跟踪误差和身体姿态误差,所以选用质心误差和姿态角误差的二阶范数加权值作为权重更新时的监督信号,所述监督信号的表达式为:
T(k)=α||cd(k)-cs(k)||2+β||θd(k)-θs(k)||2
式中,cd(k)为k时刻质心的参考值,θd(k)为k时刻姿态角的参考值,cs(k)为k时刻质心的测量值,θs(k)为k时刻姿态角的测量值,α为加权系数,β为加权系数,||·||为二阶范数。
进一步地,所述步骤S2中,补偿值的计算表达式为:
Figure BDA0002209318000000021
wij(k)=wij(k-1)+Δwij(k)
式中,Oj(k+1)为k+1时刻输出层第j个神经元的补偿值,Kj为第j个神经元的输出增益,cij(k)为k时刻输入层第i个神经元与输出层第j个神经元之间的权重比例系数,Ii(k)为k时刻输入层第i个神经元的输入值,wij(k)为k时刻输入层第i个神经元与输出层第j个神经元之间的连接权重,Δwij(k)为k时刻输入层第i个神经元与输出层第j个神经元之间的连接权重调整值,wij(k-1)为k-1时刻输入层第i个神经元与输出层第j个神经元之间的连接权重。
进一步地,所述步骤S1中,感知器模型的输入层包括四个神经元,输出层包括三个神经元。
进一步地,所述步骤S1中,误差数据包括姿态角误差、姿态角角速度误差、机器人质心跟踪误差和质心误差一阶差分。
进一步地,所述步骤S2中,输出的补偿值包括髋关节补偿值、膝关节补偿值和踝关节补偿值,将补偿分散到各个关节,能够减小关节负荷,延长机器人使用寿命。
进一步地,所述步骤S3具体为,将补偿值输入到机器人行走关节空间规划器中,对根据步态生成的关节角度进行补偿,进而实现机器人行走步态的调整。
进一步地,所述步骤S2执行前还对误差数据进行预处理,所述预处理包括滤波和无量纲化,滤波是为去除误差数据的测量误差并平滑数据,无量纲化是由于角度误差与质心误差数据量纲不同,为提高模型精度提升网络收敛速度,需要再对数据进行归一化处理,也就是无量纲化,所述滤波具体为通过一阶滞后滤波器进行滤波,所述一阶滞后滤波器的表达式为:
f(k)=γf(k-1)+(1-γ)s(k)
式中,f(k)为滤波器k时刻滤波器输出值,s(k)为传感器测量值,γ为滤波系数,0<γ<1,f(k-1)为滤波器k-1时刻滤波器输出值。
一种基于感知器模型的机器人多关节自适应补偿稳定器,该稳定器执行上述的方法的步骤对机器人进行运动补偿。
与现有技术相比,本发明具有以下优点:
(1)本发明采用联想式学习策略,即有监督的Hebb学习规则来更新网络权重参数,提高鲁棒性,实现自适应控制,避免了传统控制器繁琐的参数计算和整定过程,进而实现实时有效的仿人机器人行走过程中的质心跟踪和姿态控制,在复杂干扰环境中完成稳定性行走。
(2)本发明选用质心误差和姿态角误差的二阶范数加权值作为权重更新时的监督信号,达到了消除机器人在行走过程由于模型误差或外界干扰产生的质心跟踪误差和身体姿态误差的控制目标。
(3)本发明将补偿量分散到腿部所有关节,即踝关节、膝关节和髋关节,能够减小关节负荷,延长机器人使用寿命。
(4)本发明对输入的误差数据进行了滤波,以去除传感器数据测量的误差并平滑数据,并进行了无量纲化处理,提高了模型精度并提升了网络收敛速度。
附图说明
图1为本发明基于感知器模型的机器人多关节自适应补偿方法的流程示意图;
图2为本发明自适应多关节稳定器的网络结构示意图;
图3为本发明自适应多关节稳定器的算法框图;
图4为Nao型机器人结构参数示意图;
图5为本发明实施例机器人正常行走时测量计算的原始输入数据示意图;
图6为本发明实施例机器人不使用稳定器时机器人受到干扰后行走状态数据示意图;
图7为本发明实施例机器人使用稳定器后机器人受到多次干扰时行走状态数据示意图;
图8为本发明实施例稳定器输出补偿值示意图;
图9为本发明实施例稳定器在调节行走平衡时权值系数更新过程示意图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
实施例1
如图1所示,本实施例为一种基于感知器模型的机器人多关节自适应补偿方法,该方法包括以下步骤:
S1:基于机器人惯性传感器和步态生成器,获取误差数据;
误差数据包括姿态角误差、姿态角角速度误差、机器人质心跟踪误差和质心误差一阶差分。姿态角eθ和角速度误差
Figure BDA0002209318000000051
可直接由机器人惯性传感器(陀螺仪和加速度计)测量得到;步态生成器规划质心轨迹,和实际测量的质心作差得到质心误差eCoM,再作一阶差分可得质心误差微分项
Figure BDA0002209318000000052
S2:将误差数据输入预建立的感知器模型中,感知器模型基于联想式学习策略更新网络权重参数,并输出补偿值;
感知器模型具有两层神经元,分别为输入层(I)和输出层(O)。输入层有四个神经元,分别对应姿态角误差(eθ)、姿态角角速度误差
Figure BDA0002209318000000053
机器人质心跟踪误差(eCoM)和质心误差一阶差分
Figure BDA0002209318000000054
输出层三个神经元分别对应髋(ΔJh)、膝(ΔJk)和踝关节(ΔJa)的补偿量。输入与输出两两连接,一共产生12个权重参数(W)。将补偿分散到各个关节,能够减小关节负荷,延长机器人使用寿命。
步骤S2执行前还对误差数据进行预处理,该预处理包括以下步骤:
S201:为去除传感器数据测量的误差并平滑数据,本发明稳定器在输入端添加如下一阶滞后滤波器:
f(k)=γf(k-1)+(1-γ)s(k)
式中,f(k)为滤波器k时刻滤波器输出值,s(k)为传感器测量值,γ为滤波系数,0<γ<1,f(k-1)为滤波器k-1时刻滤波器输出值。一阶滞后滤波器对周期性干扰具有良好的抑制作用,适用于波动频率较高的惯性传感器的测量数据滤波。滤波系数γ可调节滤波效果强弱和测量的灵敏度,γ越大滤波效果越强,测量系统的鲁棒性越强,但引入的滞后越大,系统响应越慢,反之亦然。
S202:滤波后的数据还不能直接输入到稳定器中,由于角度误差与质心误差数据量纲不同,为提高模型精度提升网络收敛速度,需要再对数据进行归一化处理,也就是无量纲化。本发明采用的无量纲的方法是Z-score标准化方法,即标准差标准化,将输入数据处理成均值为0,标准差为1。处理方法如下:
Figure BDA0002209318000000055
其中I(k)为原始数据,I*(k)为归一化后的输入数据,
Figure BDA0002209318000000056
σI是输入数据的均值和方差,事先由无稳定器时机器人行走数据计算得到。
步骤S2中,采用联想式学习策略,即有监督的Hebb学习规则来更新网络权重参数,该学习方式将无监督的Hebb学习和有监督的Delta学习规则结合,通过关联搜索对未知的外界做出反应和作用,神经元在监督信号T(k)的作用下对环境信息进行自组织来产生控制作用,并隐含着对神经元作用信号的评价,因此该学习策略能有效提高控制系统对环境的适应性,联想式学习策略的表达式为:
Δwij(k)=ηijT(k)Ii(k)Oj(k)
式中,Δwij(k)为k时刻输入层第i个神经元与输出层第j个神经元之间的连接权重调整值,Ii(k)为k时刻输入层第i个神经元的输入值,Oj(k)为k时刻输出层第j个神经元的补偿值,T(k)为k时刻的监督信号,ηij为输入层第i个神经元与输出层第j个神经元之间的学习率。
为了消除机器人在行走过程由于模型误差或外界干扰产生的质心跟踪误差和身体姿态误差,所以选用质心误差和姿态角误差的二阶范数加权值作为权重更新时的监督信号,所述监督信号的表达式为:
T(k)=α||cd(k)-cs(k)||2+β||θd(k)-θs(k)||2
式中,cd(k)为k时刻质心的参考值,θd(k)为k时刻姿态角的参考值,cs(k)为k时刻质心的测量值,θs(k)为k时刻姿态角的测量值,α为加权系数,β为加权系数,||·||为二阶范数。
补偿值的计算表达式为:
Figure BDA0002209318000000061
Figure BDA0002209318000000062
wij(k)=wij(k-1)+Δwij(k)
式中,Oj(k+1)为k+1时刻输出层第j个神经元的补偿值,Kj为第j个神经元的输出增益,cij(k)为k时刻输入层第i个神经元与输出层第j个神经元之间的权重比例系数,Ii(k)为k时刻输入层第i个神经元的输入值,wij(k)为k时刻输入层第i个神经元与输出层第j个神经元之间的连接权重,Δwij(k)为k时刻输入层第i个神经元与输出层第j个神经元之间的连接权重调整值,wij(k-1)为k-1时刻输入层第i个神经元与输出层第j个神经元之间的连接权重。
S3:基于补偿值对机器人进行运动补偿。
具体为,将补偿值输入到机器人行走关节空间规划器中,对根据步态生成的关节角度进行补偿,进而实现机器人行走步态的调整。
实施例2
本实施例为一种基于感知器模型的机器人多关节自适应补偿稳定器,本实施例的控制对象为机器人质心轨迹和上半身姿态;为提高鲁棒性,对抗较大干扰,减轻机器人单一关节负荷,执行器不再是髋关节或踝关节,而是将补偿量分散到腿部所有关节(踝关节、膝关节、髋关节)。考虑到传统稳定器常采用PD控制,且为同时消除机器人行走过程的质心误差和姿态误差,本实施例稳定器的输入定为身体姿态角度误差、角速度误差和质心跟踪误差及质心误差一阶差分;输出为机器人腿部各关节的补偿量。本实施例采用简单的神经元网络连接输入和输出,基于单神经元自适应PID控制器,通过有监督的Hebb学习调节权重实现自适应控制,避免了传统控制器繁琐的参数计算和整定过程。
本实施例机器人多关节自适应补偿稳定器能够实现补偿参数的自适应调节,进而实现实时有效的仿人机器人行走过程中的质心跟踪和姿态控制,在复杂干扰环境中完成稳定性行走;同时因为本稳定器将补偿分散到各个关节,能够减小关节负荷,延长机器人使用寿命。
如图2所示为本稳定器的拓扑结构,具有两层神经元,分别为输入层(I)和输出层(O)。输入层有四个神经元,分别对应姿态角误差(eθ)、姿态角角速度误差
Figure BDA0002209318000000071
机器人质心跟踪误差(eCoM)和质心误差一阶差分
Figure BDA0002209318000000072
输出层三个神经元分别对应髋(ΔJh)、膝(ΔJk)和踝关节(ΔJa)的补偿量。输入与输出两两连接,一共产生12个权重参数(W)。
本稳定器对误差数据的处理包括数据预处理步骤和权重学习策略,下面从数据预处理、权重学习策略、算法伪码和系统框图上对本稳定器进行详细描述:
1、数据预处理
为去除传感器数据测量的误差并平滑数据,本稳定器在输入端添加如下一阶滞后滤波器,该滤波器的表达式为:
f(k)=γf(k-1)+(1-γ)s(k)
式中,f(k)为滤波器k时刻滤波器输出值,s(k)为传感器测量值,γ为滤波系数,0<γ<1,f(k-1)为滤波器k-1时刻滤波器输出值。一阶滞后滤波器对周期性干扰具有良好的抑制作用,适用于波动频率较高的惯性传感器的测量数据滤波。滤波系数γ可调节滤波效果强弱和测量的灵敏度,γ越大滤波效果越强,测量系统的鲁棒性越强,但引入的滞后越大,系统响应越慢,反之亦然。
滤波后的数据还不能直接输入到稳定器中,由于角度误差与质心误差数据量纲不同,为提高模型精度提升网络收敛速度,需要再对数据进行归一化处理,也就是无量纲化。本稳定器采用的无量纲的方法是Z-score标准化方法,即标准差标准化,将输入数据处理成均值为0,标准差为1。处理方法如下:
Figure BDA0002209318000000081
其中I(k)为原始数据,I*(k)为归一化后的输入数据,
Figure BDA0002209318000000082
σI是输入数据的均值和方差,事先由无稳定器时机器人行走数据计算得到。
2、权重学习策略
简单神经元网络通常使用Hebb学习规则Δwij(k)=ηIi(k)Oj(k),Hebb规则是典型的无监督学习方式,其与“条件反射”的机理一致,Hebb的理论认为在同一时间被激发的神经元之间的联系会被强化。与Hebb学习规则不同,Delta学习规则Δwij(k)=ηTi(k)Oj(k)是一种简单的有监督学习策略,其中Ti(k)=Di(k)-Ii(k)为监督信号,该算法根据神经元的实际输出与期望输出的误差来调节连接权重。
本稳定器采用联想式学习策略,即有监督的Hebb学习规则来更新网络权重参数,该学习方式将无监督的Hebb学习和有监督的Delta学习规则结合,通过关联搜索对未知的外界做出反应和作用,神经元在监督信号T(k)的作用下对环境信息进行自组织来产生控制作用,并隐含着对神经元作用信号的评价,因此该学习策略能有效提高控制系统对环境的适应性。联想式学习策略的表达式为:
Δwij(k)=ηijT(k)Ii(k)Oj(k)
式中,Δwij(k)为k时刻输入层第i个神经元与输出层第j个神经元之间的连接权重调整值,Ii(k)为k时刻输入层第i个神经元的输入值,Oj(k)为k时刻输出层第j个神经元的补偿值,T(k)为k时刻的监督信号,ηij为输入层第i个神经元与输出层第j个神经元之间的学习率。
本稳定器的控制目标是消除机器人在行走过程由于模型误差或外界干扰产生的质心跟踪误差和身体姿态误差,所以选用质心误差和姿态角误差的二阶范数加权值作为权重更新时的监督信号,监督信号的表达式为:
T(k)=α||cd(k)-cs(k)||2+β||θd(k)-θs(k)||2
式中,cd(k)为k时刻质心的参考值,θd(k)为k时刻姿态角的参考值,cs(k)为k时刻质心的测量值,θs(k)为k时刻姿态角的测量值,α为加权系数,β为加权系数,||·||为二阶范数。
得到权重参数后,将每个输出神经元对应的权重进行归一化得到k时刻权重比例系数ci(k),再用此比例系数与输入加权求和得到最后输出的关节补偿值,补偿值的计算表达式为:
Figure BDA0002209318000000091
Figure BDA0002209318000000092
wij(k)=Δwij(k)+wij(k-1)
式中,Oj(k+1)为k+1时刻输出层第j个神经元的补偿值,Kj为第j个神经元的输出增益,cij(k)为k时刻输入层第i个神经元与输出层第j个神经元之间的权重比例系数,Ii(k)为k时刻输入层第i个神经元的输入值,wij(k)为k时刻输入层第i个神经元与输出层第j个神经元之间的连接权重,Δwij(k)为k时刻输入层第i个神经元与输出层第j个神经元之间的连接权重调整值,wij(k-1)为k-1时刻输入层第i个神经元与输出层第j个神经元之间的连接权重。
3、算法伪码
本稳定器完整的控制更新算法如表1所示。
表1多关节自适应补偿算法表
表中首先是初始化参数,包括初始化权重、增益K、学习率,第2、3步对输入数据进行滤波和归一化处理,然后更新权重参数,第6步根据更新后的权重计算比例系数,最后计算补偿输出值。
4、系统框图
如图3所示,本稳定器应用在仿人机器人行走控制系统中,用以提高机器人行走的稳定性,图3为整个行走系统的框图。本稳定器输入的姿态角和角速度误差
Figure BDA0002209318000000101
可直接由机器人惯性传感器(陀螺仪和加速度计)测量得到;步态生成器规划质心轨迹CoMref和实际测量的质心CoMreal作差得到质心误差eCoM,再作一阶差分可得质心误差微分项
Figure BDA0002209318000000104
稳定器的输出为腿部三个关节的关节角补偿量ΔJh、ΔJk、ΔJa,步态生成器生成的关节空间轨迹加上姿态控制器输出的关节角补偿作为最后的关节空间输出J作用到机器人上的机器人行走关节空间规划器中实现稳定行走。
具体实施方式:
本例实验平台为SoftBank公司的Nao仿人机器人,采用MPC步态规划器生成机器人基本行走步态,在此基础上使用本发明的多关节自适应补偿稳定器对机器人腿部关节进行补偿,以消除行走过程中的质心轨迹跟踪误差并调节机器人上身姿态,提高行走的稳定性及对环境的适应性。
1、参数初始化
如图4所示,本稳定器中的网络超参数有输出增益(K)、权重学习率η。图4为本例中所使用的Nao仿人机器人的结构参数,其中,Nao的躯干距离髋关节(hip)85mm,距离膝关节(knee)185mm,距离踝关节(ankle)287mm,关节角对于躯干姿态和质心的灵敏度与距离大致成反比例关系,为了均衡腿部三个关节对躯干姿态和质心的影响,根据他们灵敏度的相对大小,分别设置三个关节对应的输出增益如表1所示。
表1三个关节对应的输出增益表
Figure BDA0002209318000000102
网络的初始化权重如表2所示。
表2网络的初始化权重表
Figure BDA0002209318000000103
机器人控制器主要控制对象为机器人身体姿态和质心位置,身体姿态角对干扰的灵敏度要高于质心误差,所以对于输入I1、I2相对于I3、I4拥有更高的权重。根据Nao机器人的结构参数,通过膝关节(knee)和踝关节(ankle)来调节躯干姿态有较大的惯性,整个调节系统具有较大的时滞性,所以设置的初始权重参数髋关节(hip)对姿态角的权重大于膝关节,并依次递减。而质心跟踪误差主要靠踝关节来补偿,所以其权重略大于膝关节和髋关节。
对于权重的学习率,出于同样的考虑,本例中设置如表3所示。
表3权重的学习率表
Figure BDA0002209318000000111
2、数据测量计算
在本例中,身体姿态角和姿态角速度由惯性测量系统即由陀螺仪和加速度计提供。
机器人参考质心轨迹由MPC步态规划器计算得到,实际质心根据机器人实际关节运动状态由以下公式计算得到,
Figure BDA0002209318000000112
式中,m为关节质量,p为关节在躯干坐标系中的位置坐标,N为关节数量。
得到原始的输入数据后,用一阶滞后滤波器对原始数据进行滤波,经过多次试验对比,滤波系数γ取0.2时滤波效果较好且对测量系统灵敏性影响可接受。经过滤波后传感器一些典型的随机噪声和周期性噪声大部分被消除,测量数据变得更加平滑,控制系统的稳定性和控制性能有一定的提高。
如图5所示,在不使用本发明稳定器时,采集机器人在无任何外界干扰的情况正常行走时状态数据,图中Body Angle为机器人身体姿态角,Angle Speed为姿态角速度,CoMError为机器人行走时质心跟踪误差,CoM Error Diff为质心误差的一阶差分,计算得到机器人
Figure BDA0002209318000000113
对应的均值和标准差分别为mean=[0.019,0.010,-3.2,-0.003],deviation=[0.046,0.263,1.524,0.152]。采用Z-score标准化法对稳定器输入数据进行归一化。
如图6和图7所示,是采用此方法归一化之后的输入数据。
3、实验测试结果
本实例中做了一组对比实验,使用MPC步态规划器规划机器人行走步态,在实验一中不使用本发明稳定器,在机器人行走过程中对其施加一碰撞干扰,观察机器人行走状态;实验二中,使用稳定器,在行走过程根据机器人行走状态实时对其进行补偿,同时为进一步测试稳定器性能,在机器人稳定行走时多次对机器人施加与实验一相同大小的碰撞干扰,观察机器人行走状态。
如图6所示,实验一中机器人行走过程状态数据,包括其身体姿态角和质心误差,也是本发明稳定器的输入。实验中,前6秒机器人稳定行走,身体姿态角、角速度和质心误差都随着机器人运动有较小的周期性扰动,角速度跳变剧烈;在第7秒时,施加一碰撞干扰,机器人状态开始出现较大的震荡且振幅越来越大,行走不再稳定,在第19秒左右时,机器人跌倒。实验一说明在没有使用本稳定器时,机器人在行走过程中受到外界碰撞后不再稳定,甚至跌倒,行走系统不具有抵抗干扰的能力。
如图7、图8和图9所示,分别为实验二中机器人状态输入数据、稳定器输出补偿值和稳定器在整个过程中权重系数更新过程,图9中weight_b为输出层神经元b的连接权重,weight_ab为输入层中神经元a到输出层中神经元b的连接权重,1≤a≤4,1≤b≤3,Time为时间,Ratio为比例。在实验二中,前5秒机器人在无任何干扰的情况下稳定行走,稳定器权重在不断更新,但变化速率较小,输出补偿值也较小,机器人行走状态与实验一相似;在第5秒时对机器人施加与实验一中相同的碰撞,机器人姿态角、角速度和质心误差显著变化,权重系数也随之更新,稳定器输出补偿增大,机器人震荡一次后恢复稳定,稳定器补偿效果明显。随后分别在第9秒、12秒和17秒施加依次增大的碰撞干扰,机器人都在一个步行周期内恢复了姿态和稳定行走。与实验一相比,机器人行走系统稳定性有了大幅提升,对抗干扰能力显著增强。
本实例实验结果充分证明本发明能根据环境变化调节自身参数,进而消除由于外界干扰或自身模型精度问题带来的质心跟踪误差,同时实现仿人机器人在行走时的姿态自适应控制,有效提高机器人行走稳定性。
以上详细描述了本发明的较佳具体实施例。应当理解,本领域的普通技术人员无需创造性劳动就可以根据本发明的构思作出诸多修改和变化。因此,凡本技术领域中技术人员依本发明的构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应在由权利要求书所确定的保护范围内。

Claims (10)

1.一种基于感知器模型的机器人多关节自适应补偿方法,其特征在于,该方法包括以下步骤:
S1:基于机器人惯性传感器和步态生成器,获取误差数据;
S2:将误差数据输入预建立的感知器模型中,感知器模型基于联想式学习策略更新网络权重参数,计算并输出补偿值;
S3:基于补偿值对机器人进行运动补偿。
2.根据权利要求1所述的一种基于感知器模型的机器人多关节自适应补偿方法,其特征在于,所述步骤S2中,联想式学习策略的表达式为:
Δwij(k)=ηijT(k)Ii(k)Oj(k)
式中,Δwij(k)为k时刻输入层第i个神经元与输出层第j个神经元之间的连接权重调整值,Ii(k)为k时刻输入层第i个神经元的输入值,Oj(k)为k时刻输出层第j个神经元的补偿值,T(k)为k时刻的监督信号,ηij为输入层第i个神经元与输出层第j个神经元之间的学习率。
3.根据权利要求2所述的一种基于感知器模型的机器人多关节自适应补偿方法,其特征在于,所述监督信号的表达式为:
T(k)=α||cd(k)-cs(k)||2+β||θd(k)-θs(k)||2
式中,cd(k)为k时刻质心的参考值,θd(k)为k时刻姿态角的参考值,cs(k)为k时刻质心的测量值,θs(k)为k时刻姿态角的测量值,α为加权系数,β为加权系数,||·||为二阶范数。
4.根据权利要求1所述的一种基于感知器模型的机器人多关节自适应补偿方法,其特征在于,所述步骤S2中,补偿值的计算表达式为:
Figure FDA0002209317990000011
wij(k)=wij(k-1)+Δwij(k)
式中,Oj(k+1)为k+1时刻输出层第j个神经元的补偿值,Kj为第j个神经元的输出增益,cij(k)为k时刻输入层第i个神经元与输出层第j个神经元之间的权重比例系数,Ii(k)为k时刻输入层第i个神经元的输入值,wij(k)为k时刻输入层第i个神经元与输出层第j个神经元之间的连接权重,Δwij(k)为k时刻输入层第i个神经元与输出层第j个神经元之间的连接权重调整值,wij(k-1)为k-1时刻输入层第i个神经元与输出层第j个神经元之间的连接权重。
5.根据权利要求1所述的一种基于感知器模型的机器人多关节自适应补偿方法,其特征在于,所述步骤S1中,感知器模型的输入层包括四个神经元,输出层包括三个神经元。
6.根据权利要求1所述的一种基于感知器模型的机器人多关节自适应补偿方法,其特征在于,所述步骤S1中,误差数据包括姿态角误差、姿态角角速度误差、机器人质心跟踪误差和质心误差一阶差分。
7.根据权利要求1所述的一种基于感知器模型的机器人多关节自适应补偿方法,其特征在于,所述步骤S2中,输出的补偿值包括髋关节补偿值、膝关节补偿值和踝关节补偿值。
8.根据权利要求1所述的一种基于感知器模型的机器人多关节自适应补偿方法,其特征在于,所述步骤S3具体为,将补偿值输入到机器人行走关节空间规划器中,对根据步态生成的关节角度进行补偿,进而实现机器人行走步态的调整。
9.根据权利要求1所述的一种基于感知器模型的机器人多关节自适应补偿方法,其特征在于,所述步骤S2执行前还对误差数据进行预处理,所述预处理包括滤波和无量纲化,所述滤波具体为通过一阶滞后滤波器进行滤波,所述一阶滞后滤波器的表达式为:
f(k)=γf(k-1)+(1-γ)s(k)
式中,f(k)为滤波器k时刻滤波器输出值,s(k)为传感器测量值,γ为滤波系数,0<γ<1,f(k-1)为滤波器k-1时刻滤波器输出值。
10.一种基于感知器模型的机器人多关节自适应补偿稳定器,其特征在于,该稳定器执行如权利要求1~9任一所述的方法的步骤对机器人进行运动补偿。
CN201910892895.7A 2019-09-20 2019-09-20 基于感知器模型的机器人多关节自适应补偿方法和稳定器 Active CN110712201B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910892895.7A CN110712201B (zh) 2019-09-20 2019-09-20 基于感知器模型的机器人多关节自适应补偿方法和稳定器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910892895.7A CN110712201B (zh) 2019-09-20 2019-09-20 基于感知器模型的机器人多关节自适应补偿方法和稳定器

Publications (2)

Publication Number Publication Date
CN110712201A true CN110712201A (zh) 2020-01-21
CN110712201B CN110712201B (zh) 2022-09-16

Family

ID=69210662

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910892895.7A Active CN110712201B (zh) 2019-09-20 2019-09-20 基于感知器模型的机器人多关节自适应补偿方法和稳定器

Country Status (1)

Country Link
CN (1) CN110712201B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114310917A (zh) * 2022-03-11 2022-04-12 山东高原油气装备有限公司 一种油管搬运机器人关节轨迹误差补偿方法
CN113442171B (zh) * 2021-07-01 2022-06-24 南京蔚蓝智能科技有限公司 一种机器人动态稳定判别方法和动态自适应姿态控制方法
CN115543096A (zh) * 2022-12-02 2022-12-30 世优(北京)科技有限公司 基于神经网络的动捕数据处理方法、装置及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011065553A (ja) * 2009-09-18 2011-03-31 Honda Motor Co Ltd 学習制御システム及び学習制御方法
CN104199289A (zh) * 2014-08-04 2014-12-10 江苏科技大学 磁铁电源整流系统无辨识单神经元自适应pid控制方法
CN104932264A (zh) * 2015-06-03 2015-09-23 华南理工大学 基于rbf网络的q学习框架仿人机器人稳定控制方法
CN106094813A (zh) * 2016-05-26 2016-11-09 华南理工大学 基于模型相关强化学习的仿人机器人步态控制方法
CN107943021A (zh) * 2017-10-19 2018-04-20 布法罗机器人科技(成都)有限公司 一种自适应上下楼梯控制系统和方法
CN109176519A (zh) * 2018-09-14 2019-01-11 北京遥感设备研究所 一种提高机器人视觉伺服控制响应时间的方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011065553A (ja) * 2009-09-18 2011-03-31 Honda Motor Co Ltd 学習制御システム及び学習制御方法
CN104199289A (zh) * 2014-08-04 2014-12-10 江苏科技大学 磁铁电源整流系统无辨识单神经元自适应pid控制方法
CN104932264A (zh) * 2015-06-03 2015-09-23 华南理工大学 基于rbf网络的q学习框架仿人机器人稳定控制方法
CN106094813A (zh) * 2016-05-26 2016-11-09 华南理工大学 基于模型相关强化学习的仿人机器人步态控制方法
CN107943021A (zh) * 2017-10-19 2018-04-20 布法罗机器人科技(成都)有限公司 一种自适应上下楼梯控制系统和方法
CN109176519A (zh) * 2018-09-14 2019-01-11 北京遥感设备研究所 一种提高机器人视觉伺服控制响应时间的方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
许涛 等: "四腿机器人步态参数自动进化研究与实现", 《机器人》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113442171B (zh) * 2021-07-01 2022-06-24 南京蔚蓝智能科技有限公司 一种机器人动态稳定判别方法和动态自适应姿态控制方法
CN114310917A (zh) * 2022-03-11 2022-04-12 山东高原油气装备有限公司 一种油管搬运机器人关节轨迹误差补偿方法
CN115543096A (zh) * 2022-12-02 2022-12-30 世优(北京)科技有限公司 基于神经网络的动捕数据处理方法、装置及系统

Also Published As

Publication number Publication date
CN110712201B (zh) 2022-09-16

Similar Documents

Publication Publication Date Title
CN110712201B (zh) 基于感知器模型的机器人多关节自适应补偿方法和稳定器
CN112540538B (zh) 一种变载荷四旋翼无人机的自适应模糊自抗扰控制方法
CN111941432B (zh) 一种高性能机械臂人工智能输出反馈控制方法
CN112817231B (zh) 一种具有强鲁棒性的机械臂高精度跟踪控制方法
Bouhali et al. Neural network control with neuro-sliding mode observer applied to quadrotor helicopter
Olivares et al. Accurate human limb angle measurement: sensor fusion through Kalman, least mean squares and recursive least-squares adaptive filtering
Lewis et al. Neural networks in feedback control systems
CN114310851B (zh) 一种机器人免力矩传感器的拖动示教方法
Subudhi et al. Singular perturbation based neuro-H∞ control scheme for a manipulator with flexible links and joints
Efe et al. Stabilizing and robustifying the learning mechanisms of artificial neural networks in control engineering applications
Kotina et al. Active disturbance rejection control for human postural sway
Martins et al. Trajectory tracking of a nonholonomic mobile robot with parametric and nonparametric uncertainties: A proposed neural control
CN116088306A (zh) 基于线性二次型最优控制下模糊扩张状态观测器设计方法
CN111152213B (zh) 一种基于混合控制的机械臂振动补偿方法及装置
Bebek et al. A fuzzy system for gait adaptation of biped walking robots
Cao et al. Observer-based adaptive sliding mode tracking control for soft bending actuators
Priyadarshi Optimal Controller Design for Inverted Pendulum System: An Experimental Study
Martins et al. Nonholonomic mobile robot with kinematic disturbances in the trajectory tracking: a variable structure controller
Katić et al. Control algorithm for humanoid walking based on fuzzy reinforcement learning
Hou et al. Adaptive Fixed-time output feedback tracking control for uncertain nonlinear systems
Boukens et al. Neuro-optimal controller for robot manipulators
dos Santos et al. Adaptive intelligent systems applied to two-wheeled robot
Martins et al. Trajectory tracking of a nonholonomic mobile robot: A suggested neural torque controller based on the sliding mode theory
Huy et al. Novel robust walking for biped robot using adaptive neural PID controller
Baghbani et al. Adaptive Emotional Neuro Control for a Class of Uncertain Affine Nonlinear Systems

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant