CN109702740B - 机器人柔顺性控制方法、装置、设备及存储介质 - Google Patents

机器人柔顺性控制方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN109702740B
CN109702740B CN201811534989.9A CN201811534989A CN109702740B CN 109702740 B CN109702740 B CN 109702740B CN 201811534989 A CN201811534989 A CN 201811534989A CN 109702740 B CN109702740 B CN 109702740B
Authority
CN
China
Prior art keywords
motion
data
teaching
variable impedance
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811534989.9A
Other languages
English (en)
Other versions
CN109702740A (zh
Inventor
欧勇盛
段江哗
徐升
王志扬
金少堃
田超然
王煜睿
熊荣
江国来
吴新宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Institute of Advanced Technology of CAS
Original Assignee
Shenzhen Institute of Advanced Technology of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Institute of Advanced Technology of CAS filed Critical Shenzhen Institute of Advanced Technology of CAS
Priority to CN201811534989.9A priority Critical patent/CN109702740B/zh
Publication of CN109702740A publication Critical patent/CN109702740A/zh
Application granted granted Critical
Publication of CN109702740B publication Critical patent/CN109702740B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

本发明适用计算机技术领域,提供了一种机器人柔顺性控制方法、装置、设备及存储介质,该方法包括:获取示教运动的示教数据,根据示教数据中的运动数据计算示教运动的运动方程,并且同时根据示教数据中的交互力数据计算示教运动的变阻抗参数,根据运动方程和变阻抗参数控制操作,从而减少了机器人柔顺性控制过程中的手动编程,降低了机器人的使用门槛,提高了机器人控制的柔顺性和精确性,进而提高了机器人的泛化能力、智能化程度和控制效果。

Description

机器人柔顺性控制方法、装置、设备及存储介质
技术领域
本发明属于计算机技术领域,尤其涉及一种机器人柔顺性控制方法、装置、设备及存储介质。
背景技术
在现阶段机器人的应用中,尤其是工业应用中,机械臂的运动轨迹一般是通过用户预先定义的,或者预先设定某种任务环境,然后让机器人或机械臂按照计划重复执行即可。这种模式运行的机械臂无法面对环境的变化,或者突如其来的扰动。对于复杂场景下或较困难任务的实现,这种模式也需要较为繁重的人工编程。对普通工人来讲,使用门槛要求高(例如:要会机器人编程)。更重要的是,这种机器人控制模式没有隐含人的操作习惯更没有像人手那样的具有柔顺性。为了有效降低机器人的使用门槛、更好地实现人机协同交互,机械臂或机器人应该具有学习能力,并更加灵活和柔顺的特性。机器人“模仿学习”(Imitation Learning)或者“示教学习”(Programming by Demonstration)便是解决这一问题的重要方法。
通常机器人的柔顺性行为包含动作和力两个方面,因此柔顺性行为的学习也是包括动作学习和力学习两个方面的。
在机器人柔顺性控制领域,之前的研究工作主要集中在控制器的人为设计领域(例如:力位混合控制,阻抗控制,碰撞检测反馈控制器等)以及被动柔顺机构设计。上述的柔顺性控制器设计方法具有复杂的调参过程,且不具有泛化能力不能适应新的情况。机器人通过学习人类柔顺性行为而获得柔顺控制策略的研究能简化复杂的调参过程和减低机器人的使用门槛(工人只需提供正确的人类示教即可让机器人具有相应的柔顺性行为,而不需要使用者具有编程和机器人控制的相关技术基础)。
机器人通过学习人类柔顺性行为而获得柔顺控制策略的研究属于前沿领域,示教学习控制中大都将运动轨迹学习和力的学习独立研究。例如,Seyed Mohammad Khansari-Zadeh提出一种学习运动轨迹的方法(发表于2011年IEEE Transactions on Robotics上的文章《Learning Stable Nonlinear Dynamical Systems With Gaussian MixtureModels》)。在该方法的最初提出时,动态系统是通过高斯混合模型(Gaussian MixtureModels)来建模的,并且基于李雅普诺夫稳定性的约束也被推导出来用于保证运动收敛到目标。在接下来几年的发展中也出现了其他一些轨迹动作的模仿学习方法,但使用动态系统建模、使用李雅普诺夫稳定性进行约束这两大特征,基本上是各种方法的共同特征。Calinon提出了一种根据示教位置扰动的协方差推导出不同交互力的学习方法,但是这种方法示教怪异且不利于与轨迹一起学习。
从现有的资料来看,将运动轨迹和力看做柔顺性行为两个组成部分,并将两者用于机器人柔顺性行为学习控制的相关成熟方案甚少。2017年发表于Autonomous Robots的文章《Learning potential functions from human demonstrations with encapsulateddynamic and compliant behaviors》提出了基于势函数和耗散场的联合变阻抗控制策略,该方法的需要人为通过先验知识设计多组基于任务的参数,这种方法具有强构造性,且只能离线训练无法,效率低。
已申请或已授权的专利中,也有一些与所述领域有关。在名称为“一种基于高斯过程的机器人模仿”的专利文件中,公开了一种基于高斯过程的机器人模仿学习方法。高斯过程也是一种回归算法,与高斯混合模型类似,该方案使用高斯过程对机器人运动进行建模学习。在名称为“一种基于轨迹模仿的机器人汉字书写学习方法”的专利文件中,公开了一种将基于轨迹匹配的模仿学习引入到机器人书写技能的学习中,将汉字的比划进行分割,并通过多个高斯混合模型对示教数据进行编码学习和重构的方法。在名称为“具有模仿学习机制的手把手示教机械臂系统及方法”的专利文件中,公开了一种带有模仿学习功能的机械臂系统,并给出了基于前馈神经网络的模仿学习建模方法。在名称为“一种机器人力控示教模仿学习的装置及方法”的专利文件中,公开了一种在示教数据中引入了力反馈信息,并使用隐马尔科夫模型对示教数据进行建模编码的方法。
综上所述,现有的机器人柔顺性控制方法,对运动轨迹和力进行独立建模学习,学习效果不佳,进而导致控制结果不精确;基于高斯混合模型、高斯过程等离线的回归方法来进行模仿学习,需要的训练时间比较长,训练效率较低;控制的稳定性无法保证,可能出现机器人交互力过大而出现伤人的情况。
发明内容
本发明的目的在于提供一种机器人柔顺性控制方法、装置、设备及存储介质,旨在解决现有的机器人柔顺性控制方法的控制结果不精确、柔顺性较差导致的控制效果不佳问题。
一方面,本发明提供了一种机器人柔顺性控制方法,所述方法包括下述步骤:
获取示教运动的示教数据,其中,所述示教数据至少包括所述示教运动的运动数据和交互力数据;
根据所述示教数据中的运动数据计算所述示教运动的运动方程,并且同时根据所述示教数据中的交互力数据计算所述示教运动的变阻抗参数,其中,所述变阻抗参数至少包括变刚度参数和变阻尼参数;
根据所述运动方程和所述变阻抗参数控制操作。
另一方面,本发明提供了一种机器人柔顺性控制装置,所述装置包括:
数据获取单元,用于获取示教运动的示教数据,其中,所述示教数据至少包括所述示教运动的运动数据和交互力数据;
参数计算单元,用于根据所述示教数据中的运动数据计算所述示教运动的运动方程,并且同时根据所述示教数据中的交互力数据计算所述示教运动的变阻抗参数,其中,所述变阻抗参数至少包括变刚度参数和变阻尼参数;以及
操作控制单元,用于根据所述运动方程和所述变阻抗参数控制操作。
另一方面,本发明还提供了一种计算设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如所述机器人柔顺性控制方法的步骤。
另一方面,本发明还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如所述机器人柔顺性控制方法的步骤。
本发明通过获取示教运动的示教数据,根据所述示教数据中的运动数据计算所述示教运动的运动方程,并且同时根据所述示教数据中的交互力数据计算所述示教运动的变阻抗参数,根据所述运动方程和所述变阻抗参数控制操作,从而减少了机器人柔顺性控制过程中的手动编程,降低了机器人的使用门槛,提高了机器人控制的柔顺性和精确性,进而提高了机器人的泛化能力、智能化程度和控制效果。
附图说明
图1是本发明实施例一提供的机器人柔顺性控制方法的实现流程图;
图2是本发明实施例提供的对机器人进行示教的示意图;
图3是本发明实施例提供的在线序列超限学习机的示例性结构图;
图4是本发明实施例提供的机器人柔顺性控制的示教学习和复现的示例性示图;
图5是本发明实施例二提供的机器人柔顺性控制装置的结构示意图;以及
图6是本发明实施例三提供的计算设备的结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
以下结合具体实施例对本发明的具体实现进行详细描述:
实施例一:
图1示出了本发明实施例一提供的机器人柔顺性控制方法的实现流程,为了便于说明,仅示出了与本发明实施例相关的部分,详述如下:
在步骤S101中,获取示教运动的示教数据。
本发明实施例适用于对机器人的自动控制。机器人包括并不局限于机械臂、人形机器人等一系列带有关节、连杆等结构,并可实现伸缩、抓取等动作的机器人产品。其中,示教数据至少可包括示教运动的运动数据和交互力数据,因此,对示教运动的学习可包括动作学习和力学习(即,变刚度参数和变阻尼参数学习)。
在本发明实施例中,运动数据可包括机器人的预设点(例如,末端执行器)的位置数据和速度数据,或者运动数据可包括机器人的预设角(例如,关节角)的角度和角加速度,另外,运动数据还可包括其他可用于完整描述示教运动的一个或多个参数,本发明对此不进行限制。
作为示例,图2示出一种对机器人进行示教的示图,如图2所示,在示教时,示教者一只手抓握住机器人的末端执行器,在平面或空间中运动出一条轨迹,另一个手在末端施加示教力。机器人通过自带的运动捕捉系统和腕部装的六维力传感器采集示教数据。
例如,当运动数据包括机器人的预设采样点(例如,末端执行器或者末端等)的位置数据和速度数据时,按照时间间隔对末端的位置数据和交互力数据进行采样,从而获取一系列采样点数据
Figure GDA0002003467930000051
其中i=1,...,Ntraj,Ntraj表示示教运动轨迹的数量,k=1,...,Ni,Ni表示示教中采样点个数(每隔一个时间间隔采一次样),
Figure GDA0002003467930000052
即表示第i条轨迹的第k个采样点的末端位置,Fk第k个采样点的示教力大小。
作为另一示例,在示教时,示教者通过遥控器或示教器控制机器人进行示教操作,或者手把手示教。机器人根据示教操作记录示教数据。
作为又一示例,在示教时,示教者亲自完成示教运动任务。由机器人的运动捕捉器或数据手套以及力传感器等设备根据示教运动采集示教数据。
优选地,如果运动数据包括机器人的预设点(例如,末端执行器)的位置数据和速度数据,则在获取示教运动的示教数据时,可首先获取与示教运动相关的位置数据、交互力数据和时间数据,然后根据位置数据和时间数据计算与示教运动相关的速度数据,从而得到示教运动的运动数据。
优选地,如果运动数据包括机器人的预设角(例如,关节角)的角度和角加速度,则在获取示教运动的示教数据时,可首先获取与示教运动相关的角度数据、交互力数据和时间数据,然后根据角度数据和时间数据计算与示教运动相关的角加速度数据,从而得到示教运动的运动数据。
在步骤S102中,根据示教数据中的运动数据计算示教运动的运动方程,并且同时根据示教数据中的交互力数据计算示教运动的变阻抗参数。
在本发明实施例中,变阻抗参数至少可包括变刚度参数和变阻尼参数。同时对运动轨迹和力进行学习,从而提高学习效果,进而提高控制结果的精确性。
优选地,在根据示教数据中的运动数据计算示教运动的运动方程时,可使用运动数据对预设的神经网络模型进行训练,得到示教运动的运动方程,并根据运动方程对神经网络模型进行在线更新,从而提高运动方程的计算效率,方便运动方程的后续使用,并且适应实时在线学习的需要,进而提高学习效果。
其中,优选地,在使用运动数据对预设的神经网络模型进行训练时,可以以逐一或逐块的方式对运动数据进行增量学习,得到示教运动的运动方程,从而提高运动方程的准确性,进而提高学习效果。
神经网络模型可以是支持向量机(Support Vector Machine,SVM)、在线序列超限学习机等能够增量在线学习的模型,也可以是其他的增量在线学习的模型,如增量支持向量机(ISVM)等,本发明对此不进行限定。其中,由于与其他在线学习算法相比,在线序列超限学习机具有学习速度快、泛化能力强、实现简单等特点,因此,优选地,神经网络模型是在线序列超限学习机,即使用运动数据对在线序列超限学习机进行训练,从而提高训练效率。
其中,在对在线序列超限学习机进行训练时,在运动方面,输入输出分别为采样点(例如,机器人末端执行器)的位置和速度(或者关节角的角度和角加速度),因此,在线序列超限学习机的输入和输出应该具有相同的维度,即具有相同的神经元个数d。如果考虑二维平面内的运动,d=2,如果考虑三维空间内的运动,d=3。
作为示例,图3示出在线序列超限学习机的示例性结构,如图3所示,假设在线序列超限学习机的隐藏层的激活函数为g,那么我们要学习的在线序列超限学习机(即,要学习的模型)可以表达为
Figure GDA0002003467930000071
其中,隐藏层神经元个数为
Figure GDA0002003467930000072
为隐藏层的偏置,
Figure GDA0002003467930000073
为隐藏层的权值,维度为
Figure GDA0002003467930000074
为输出层的权值,维度为
Figure GDA0002003467930000075
其中,在线序列超限学习机的训练过程中,W和b是随机产生并固定不变的,训练的过程只需要确定输出层的权值即可,可通过对
Figure GDA0002003467930000076
的优化过程来实现。
其中,
Figure GDA0002003467930000077
O=[o1,...,oN]T表示示教数据中的目标输出。由于w和b都是随机产生并且固定的,因此H也是固定的。训练的目标即求解最优的一组输出层权值
Figure GDA0002003467930000078
使得
Figure GDA0002003467930000079
取到最小值。
其中,虽然激活函数g一般选择S形函数(sigmoid函数)或双曲正切函数(tanh函数),也可使用的修改后的S形函数,例如,
Figure GDA00020034679300000710
但是,只要是满足
Figure GDA0002003467930000081
并且单调递增的连续、连续可微的函数都符合激活函数的要求,在此不做限制。
在线序列超限学习机的训练目标是要找到一组最佳的输出层权值
Figure GDA0002003467930000082
使用最小二乘法可得到
Figure GDA0002003467930000083
其中,
Figure GDA0002003467930000084
是矩阵H的Moore-Penrose广义逆矩阵。使用这种方法可不经过迭代求得输出层权值,在增加约束条件时,求解输出层权值的问题就变成了一个带约束的优化问题。
其中,在线序列超限学习机的训练过程包括一个初始的ELM批量学习过程和一个连续的贯序学习过程,具体如下:
在初始化阶段,给定初始训练子集
Figure GDA0002003467930000085
其中,N1是新到达的数据,由式
Figure GDA0002003467930000086
计算得到的初始输出权值为
Figure GDA0002003467930000087
其中,
Figure GDA0002003467930000088
每当获取到新的训练样本
Figure GDA0002003467930000089
时,按照
Figure GDA00020034679300000810
递归计算输出权值。其中,
Figure GDA00020034679300000811
作为示例,在根据示教数据中的交互力数据计算示教运动的变阻抗参数时,可根据交互力数据计算变刚度参数和变阻尼参数。
具体地,在计算变刚度参数时,令
Figure GDA00020034679300000812
表示采集到的交互力(F)与相应的时间(q)信息,其中是所获得扰动数据样本的个数。在q时刻的变刚度参数是由时间窗[q-(w-1),q]内的力信息计算得到。滑动时间窗的长度为w,窗内数据点的上下界分别用Lq,Uq表示,
Figure GDA00020034679300000813
在q时刻窗内数据点的个数为Wq=Uq-Lq+1,窗内力数据对应的的协方差矩阵为
Figure GDA0002003467930000091
其中,
Figure GDA0002003467930000092
由于协方差矩阵Σq是对称且正定的,故其能分解成如下形式Σq=PΛP-1,其中,Λ是包含特征值
Figure GDA0002003467930000093
的对角阵。刚度矩阵Kq
Figure GDA0002003467930000094
其中,
Figure GDA0002003467930000095
与特征值
Figure GDA0002003467930000096
成正比,表达式为
Figure GDA0002003467930000097
Figure GDA0002003467930000098
Figure GDA0002003467930000099
随着示教的进行,交互力的数据会不断的被收集,并根据时间信息将新的数据进行排序并取窗内的值进行刚度求解。例如当q+1时刻的数据进入时,协方差的在线更新为
Figure GDA00020034679300000910
其中,
Figure GDA00020034679300000911
具体地,在计算变阻尼参数时,由于阻尼比是恒定的,阻尼与刚度的平方根是线性关系,因此可根据公式
Figure GDA00020034679300000912
来计算变阻尼参数B。其中,γ是大于0的常数。
在本发明实施例中,为保证学习出的模型具有稳定性,优选地,在根据交互力数据计算示教运动的变阻抗参数时,可根据预设的稳定性约束条件和交互力数据对预设的变阻抗模型进行训练,得到示教运动的变阻抗参数,并根据变阻抗参数对变阻抗模型进行更新,从而保证变阻抗控制的稳定性,避免出现机器人交互力过大而出现伤人的情况。
在步骤S103中,根据运动方程和变阻抗参数控制操作。
在本发明实施例中,在得到运动方程和变阻抗参数之后,可根据运动方程和变阻抗参数控制操作,从而控制机器人复现示教运动的运动轨迹和交互力。
在本发明实施例中,在预设的神经网络模型(例如,在线序列超限学习机)和变阻抗模型训练完成之后,可使用训练后的神经网络模型(例如,在线序列超限学习机)和变阻抗模型,从而控制机器人复现示教运动的运动轨迹和交互力。
作为示例,图4示出机器人柔顺性控制的示教学习和复现的示例性示图,如图4所示,示教者一只手抓握住机器人进行示教,机器人采集示教运动的轨迹信息
Figure GDA0002003467930000101
和力信息Fq,然后根据轨迹信息
Figure GDA0002003467930000102
进行动作学习得到f(·),并且根据力信息Fq进行变刚度参数和变阻尼参数学习得到{Bq,Kq},最后根据f(·)产生运动,并根据{Bq,Kq}进行变阻抗控制,从而控制机器人复现示教运动的运动轨迹和交互力。
在本发明实施例中,通过获取示教运动的示教数据,根据示教数据中的运动数据计算示教运动的运动方程,并且同时根据示教数据中的交互力数据计算示教运动的变阻抗参数,根据运动方程和变阻抗参数控制操作,从而减少了机器人柔顺性控制过程中的手动编程,降低了机器人的使用门槛,提高了机器人控制的柔顺性和精确性,进而提高了机器人的泛化能力、智能化程度和控制效果。
实施例二:
图5示出了本发明实施例二提供的机器人柔顺性控制装置的结构,为了便于说明,仅示出了与本发明实施例相关的部分,其中包括:数据获取单元51、参数计算单元52和操作控制单元53。
数据获取单元51,用于获取示教运动的示教数据,其中,示教数据至少包括示教运动的运动数据和交互力数据。
在本发明实施例中,对示教运动的学习可包括动作学习和力学习(即,变刚度参数和变阻尼参数学习)。
在本发明实施例中,运动数据可包括机器人的预设点(例如,末端执行器)的位置数据和速度数据,或者运动数据可包括机器人的预设角(例如,关节角)的角度和角加速度,另外,运动数据还可包括其他可用于完整描述示教运动的一个或多个参数,本发明对此不进行限制。
因此,优选地,数据获取单元51可包括:
第一获取单元,用于获取与示教运动相关的位置数据、交互力数据和时间数据;以及
第一计算单元,用于根据位置数据和时间数据计算运动数据。
具体地,根据位置数据和时间数据计算与示教运动相关的速度数据,从而得到示教运动的运动数据。
优选地,数据获取单元51还可包括:
第二获取单元,用于获取与示教运动相关的角度数据、交互力数据和时间数据;以及
第二计算单元,用于根据角度数据和时间数据计算运动数据。
具体地,可根据角度数据和时间数据计算与示教运动相关的角加速度数据,从而得到示教运动的运动数据。
参数计算单元52,用于根据示教数据中的运动数据计算示教运动的运动方程,并且同时根据示教数据中的交互力数据计算示教运动的变阻抗参数,其中,变阻抗参数至少包括变刚度参数和变阻尼参数。
在本发明实施例中,同时对运动轨迹和力进行学习,从而提高学习效果,进而提高控制结果的精确性。
优选地,参数计算单元52可包括:
第一训练单元,用于使用运动数据对预设的神经网络模型进行训练,得到示教运动的运动方程,并根据运动方程对神经网络模型进行在线更新,从而提高运动方程的计算效率,方便运动方程的后续使用,并且适应实时在线学习的需要,进而提高学习效果。
其中,优选地,模型训练单元可包括:
增量学习单元,用于以逐一或逐块的方式对运动数据进行增量学习,得到示教运动的运动方程,从而提高运动方程的准确性,进而提高学习效果。
其中,优选地,神经网络模型是在线序列超限学习机。
优选地,参数计算单元52可包括:
第二训练单元,用于根据预设的稳定性约束条件和交互力数据对预设的变阻抗模型进行训练,得到示教运动的变阻抗参数,并根据变阻抗参数对变阻抗模型进行更新,从而保证变阻抗控制的稳定性,避免出现机器人交互力过大而出现伤人的情况。
操作控制单元53,用于根据运动方程和变阻抗参数控制操作。
在本发明实施例中,通过数据获取单元51获取示教运动的示教数据,通过参数计算单元52根据示教数据中的运动数据计算示教运动的运动方程,并且同时根据示教数据中的交互力数据计算示教运动的变阻抗参数,通过操作控制单元53根据运动方程和变阻抗参数控制操作,从而减少了机器人柔顺性控制过程中的手动编程,降低了机器人的使用门槛,提高了机器人控制的柔顺性和精确性,进而提高了机器人的泛化能力、智能化程度和控制效果。
在本发明实施例中,机器人柔顺性控制装置的各单元可由相应的硬件或软件单元实现,各单元可以为独立的软、硬件单元,也可以集成为一个软、硬件单元,在此不用以限制本发明。
实施例三:
图6示出了本发明实施例三提供的计算设备的结构,为了便于说明,仅示出了与本发明实施例相关的部分。
本发明实施例的计算设备6包括处理器60、存储器61以及存储在存储器61中并可在处理器60上运行的计算机程序62。该处理器60执行计算机程序62时实现上述各个机器人柔顺性控制方法实施例中的步骤,例如图1所示的步骤S101至S103。或者,处理器60执行计算机程序62时实现上述各装置实施例中各单元的功能,例如,图5所示单元51至53的功能。
在本发明实施例中,该处理器60执行计算机程序62时实现上述各个机器人柔顺性控制方法实施例中的步骤时,获取示教运动的示教数据,根据示教数据中的运动数据计算示教运动的运动方程,并且同时根据示教数据中的交互力数据计算示教运动的变阻抗参数,根据运动方程和变阻抗参数控制操作,从而减少了机器人柔顺性控制过程中的手动编程,降低了机器人的使用门槛,提高了机器人控制的柔顺性和精确性,进而提高了机器人的泛化能力、智能化程度和控制效果。
该计算设备6中处理器60在执行计算机程序62时实现的步骤具体可参考实施例一中方法的描述,在此不再赘述。
实施例四:
在本发明实施例中,提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序被处理器执行时实现上述各个机器人柔顺性控制方法实施例中的步骤,例如,图1所示的步骤S101至S103。或者,该计算机程序被处理器执行时实现上述各装置实施例中各单元的功能,例如,图5所示单元51至53的功能。
在本发明实施例中,获取示教运动的示教数据,根据示教数据中的运动数据计算示教运动的运动方程,并且同时根据示教数据中的交互力数据计算示教运动的变阻抗参数,根据运动方程和变阻抗参数控制操作,从而减少了机器人柔顺性控制过程中的手动编程,降低了机器人的使用门槛,提高了机器人控制的柔顺性和精确性,进而提高了机器人的泛化能力、智能化程度和控制效果。该计算机程序被处理器执行时实现的机器人柔顺性控制方法进一步可参考前述方法实施例中步骤的描述,在此不再赘述。
本发明实施例的计算机可读存储介质可以包括能够携带计算机程序代码的任何实体或装置、记录介质,例如,ROM/RAM、磁盘、光盘、闪存等存储器。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种机器人柔顺性控制方法,其特征在于,所述方法包括下述步骤:
获取示教运动的示教数据,其中,所述示教数据至少包括所述示教运动的运动数据和交互力数据;
根据所述示教数据中的运动数据计算所述示教运动的运动方程,并且同时根据所述示教数据中的交互力数据计算所述示教运动的变阻抗参数,其中,所述变阻抗参数至少包括变刚度参数和变阻尼参数;
根据所述运动方程和所述变阻抗参数控制操作;
所述根据所述示教数据中的运动数据计算所述示教运动的运动方程的步骤,包括:
使用所述运动数据对预设的神经网络模型进行训练,得到所述示教运动的运动方程,并根据所述运动方程对所述神经网络模型进行在线更新,其中,使用所述运动数据对预设的神经网络模型进行训练的步骤,包括:以逐一或逐块的方式对所述运动数据进行增量学习,得到所述示教运动的运动方程;所述神经网络模型是增量在线学习的模型;
根据所述示教数据中的交互力数据计算所述示教运动的变阻抗参数的步骤,包括:
根据预设的稳定性约束条件和所述交互力数据对预设的变阻抗模型进行训练,得到所述示教运动的变阻抗参数,并根据所述变阻抗参数对所述变阻抗模型进行更新。
2.如权利要求1所述的方法,其特征在于,获取示教运动的示教数据的步骤,包括:
获取与示教运动相关的位置数据、交互力数据和时间数据;
根据所述位置数据和所述时间数据计算所述运动数据,其中,所述运动数据中包括速度数据。
3.如权利要求1所述的方法,其特征在于,所述神经网络模型包括在线序列超限学习机。
4.一种机器人柔顺性控制装置,其特征在于,所述装置包括:
数据获取单元,用于获取示教运动的示教数据,其中,所述示教数据至少包括所述示教运动的运动数据和交互力数据;
参数计算单元,用于根据所述示教数据中的运动数据计算所述示教运动的运动方程,并且同时根据所述示教数据中的交互力数据计算所述示教运动的变阻抗参数,其中,所述变阻抗参数至少包括变刚度参数和变阻尼参数;以及
操作控制单元,用于根据所述运动方程和所述变阻抗参数控制操作;
所述参数计算单元包括:
第一训练单元,用于使用所述运动数据对预设的神经网络模型进行训练,得到所述示教运动的运动方程,并根据所述运动方程对所述神经网络模型进行在线更新;
第二训练单元,用于根据预设的稳定性约束条件和所述交互力数据对预设的变阻抗模型进行训练,得到所述示教运动的变阻抗参数,并根据所述变阻抗参数对所述变阻抗模型进行更新;
其中,所述第一训练单元还包括:
增量学习单元,用于以逐一或逐块的方式对所述运动数据进行增量学习,得到所述示教运动的运动方程;
所述神经网络模型是增量在线学习的模型。
5.如权利要求4所述的装置,其特征在于,所述数据获取单元包括:
第一获取单元,用于获取与示教运动相关的位置数据、交互力数据和时间数据;以及
第一计算单元,用于根据所述位置数据和所述时间数据计算所述运动数据,其中,所述运动数据中包括速度数据。
6.如权利要求4所述的装置,其特征在于,所述神经网络模型包括在线序列超限学习机。
7.一种计算设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至3任一项所述方法的步骤。
8.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至3任一项所述方法的步骤。
CN201811534989.9A 2018-12-14 2018-12-14 机器人柔顺性控制方法、装置、设备及存储介质 Active CN109702740B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811534989.9A CN109702740B (zh) 2018-12-14 2018-12-14 机器人柔顺性控制方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811534989.9A CN109702740B (zh) 2018-12-14 2018-12-14 机器人柔顺性控制方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN109702740A CN109702740A (zh) 2019-05-03
CN109702740B true CN109702740B (zh) 2020-12-04

Family

ID=66256548

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811534989.9A Active CN109702740B (zh) 2018-12-14 2018-12-14 机器人柔顺性控制方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN109702740B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110524544A (zh) * 2019-10-08 2019-12-03 深圳前海达闼云端智能科技有限公司 一种机械臂运动的控制方法、终端和可读存储介质
CN110722563A (zh) * 2019-10-29 2020-01-24 南京南邮信息产业技术研究院有限公司 一种变刚度软体机器人的建模方法
CN112372637B (zh) * 2020-10-27 2022-05-06 东方红卫星移动通信有限公司 低轨卫星空间机械臂自适应阻抗柔顺控制方法、模块及系统
CN112549001B (zh) * 2020-12-22 2022-06-10 上海航天控制技术研究所 基于弹性元件的外骨骼关节力位复合柔顺控制方法及系统
CN112775964B (zh) * 2020-12-29 2023-03-21 上海机器人产业技术研究院有限公司 一种力感知阻抗控制方法
CN114800489B (zh) * 2022-03-22 2023-06-20 华南理工大学 基于确定学习与复合学习联合的机械臂柔顺控制方法、存储介质及机器人
CN116175548B (zh) * 2022-12-06 2023-10-20 之江实验室 一种机器人自适应变阻抗电驱动系统及控制方法、装置
CN116175644A (zh) * 2023-01-29 2023-05-30 深圳先进技术研究院 轴孔装配方法、系统、电子设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108115681A (zh) * 2017-11-14 2018-06-05 深圳先进技术研究院 机器人的模仿学习方法、装置、机器人及存储介质
CN108153153A (zh) * 2017-12-19 2018-06-12 哈尔滨工程大学 一种学习变阻抗控制系统及控制方法
JP2018171664A (ja) * 2017-03-31 2018-11-08 セイコーエプソン株式会社 制御装置、ロボット、およびロボットシステム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018171664A (ja) * 2017-03-31 2018-11-08 セイコーエプソン株式会社 制御装置、ロボット、およびロボットシステム
CN108115681A (zh) * 2017-11-14 2018-06-05 深圳先进技术研究院 机器人的模仿学习方法、装置、机器人及存储介质
CN108153153A (zh) * 2017-12-19 2018-06-12 哈尔滨工程大学 一种学习变阻抗控制系统及控制方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
机器人柔顺控制算法研究;崔亮;《哈尔滨工程大学》;20140417;论文正文第6-54页 *
郭德慧.面向不确定性的机器人柔顺性控制方法研究.《东北大学》.2016, *
面向不确定性的机器人柔顺性控制方法研究;郭德慧;《东北大学》;20160831;论文正文第11-53页 *

Also Published As

Publication number Publication date
CN109702740A (zh) 2019-05-03

Similar Documents

Publication Publication Date Title
CN109702740B (zh) 机器人柔顺性控制方法、装置、设备及存储介质
CN108115681B (zh) 机器人的模仿学习方法、装置、机器人及存储介质
Gu et al. Deep reinforcement learning for robotic manipulation
Gu et al. Deep reinforcement learning for robotic manipulation with asynchronous off-policy updates
Billard et al. Discriminative and adaptive imitation in uni-manual and bi-manual tasks
Billard et al. Discovering optimal imitation strategies
Wang et al. A framework of hybrid force/motion skills learning for robots
Yu et al. Global model learning for large deformation control of elastic deformable linear objects: An efficient and adaptive approach
WO2020118730A1 (zh) 机器人柔顺性控制方法、装置、设备及存储介质
Qu et al. Human-like coordination motion learning for a redundant dual-arm robot
Neumann et al. Neural learning of stable dynamical systems based on data-driven Lyapunov candidates
Field et al. Learning trajectories for robot programing by demonstration using a coordinated mixture of factor analyzers
Skoglund et al. Programming-by-Demonstration of reaching motions—A next-state-planner approach
Seleem et al. Development and stability analysis of an imitation learning-based pose planning approach for multi-section continuum robot
Arsenic Developmental learning on a humanoid robot
Gutzeit et al. The besman learning platform for automated robot skill learning
Palm et al. Recognition of human grasps by time-clustering and fuzzy modeling
Duan et al. Sequential learning unification controller from human demonstrations for robotic compliant manipulation
Khadivar et al. Adaptive fingers coordination for robust grasp and in-hand manipulation under disturbances and unknown dynamics
Kawaharazuka et al. Adaptive robotic tool-tip control learning considering online changes in grasping state
Palm et al. Learning of grasp behaviors for an artificial hand by time clustering and Takagi-Sugeno modeling
Saito et al. Task-grasping from human demonstration
Beltran-Hernandez et al. Learning to grasp with primitive shaped object policies
Malone et al. Efficient motion-based task learning for a serial link manipulator
CN114952791A (zh) 肌肉骨骼机器人控制方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant