CN109702740B - 机器人柔顺性控制方法、装置、设备及存储介质 - Google Patents
机器人柔顺性控制方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN109702740B CN109702740B CN201811534989.9A CN201811534989A CN109702740B CN 109702740 B CN109702740 B CN 109702740B CN 201811534989 A CN201811534989 A CN 201811534989A CN 109702740 B CN109702740 B CN 109702740B
- Authority
- CN
- China
- Prior art keywords
- motion
- data
- teaching
- variable impedance
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 63
- 230000033001 locomotion Effects 0.000 claims abstract description 204
- 230000003993 interaction Effects 0.000 claims abstract description 40
- 238000012549 training Methods 0.000 claims description 23
- 238000003062 neural network model Methods 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 17
- 238000004364 calculation method Methods 0.000 claims description 14
- 238000013016 damping Methods 0.000 claims description 14
- 230000008569 process Effects 0.000 abstract description 18
- 230000000694 effects Effects 0.000 abstract description 14
- 230000006870 function Effects 0.000 description 16
- 238000004088 simulation Methods 0.000 description 9
- 230000006399 behavior Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 241000282414 Homo sapiens Species 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 6
- 239000012636 effector Substances 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 5
- 239000000203 mixture Substances 0.000 description 5
- 238000013461 design Methods 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 238000011217 control strategy Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 230000009133 cooperative interaction Effects 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005312 nonlinear dynamic Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
Abstract
本发明适用计算机技术领域,提供了一种机器人柔顺性控制方法、装置、设备及存储介质,该方法包括:获取示教运动的示教数据,根据示教数据中的运动数据计算示教运动的运动方程,并且同时根据示教数据中的交互力数据计算示教运动的变阻抗参数,根据运动方程和变阻抗参数控制操作,从而减少了机器人柔顺性控制过程中的手动编程,降低了机器人的使用门槛,提高了机器人控制的柔顺性和精确性,进而提高了机器人的泛化能力、智能化程度和控制效果。
Description
技术领域
本发明属于计算机技术领域,尤其涉及一种机器人柔顺性控制方法、装置、设备及存储介质。
背景技术
在现阶段机器人的应用中,尤其是工业应用中,机械臂的运动轨迹一般是通过用户预先定义的,或者预先设定某种任务环境,然后让机器人或机械臂按照计划重复执行即可。这种模式运行的机械臂无法面对环境的变化,或者突如其来的扰动。对于复杂场景下或较困难任务的实现,这种模式也需要较为繁重的人工编程。对普通工人来讲,使用门槛要求高(例如:要会机器人编程)。更重要的是,这种机器人控制模式没有隐含人的操作习惯更没有像人手那样的具有柔顺性。为了有效降低机器人的使用门槛、更好地实现人机协同交互,机械臂或机器人应该具有学习能力,并更加灵活和柔顺的特性。机器人“模仿学习”(Imitation Learning)或者“示教学习”(Programming by Demonstration)便是解决这一问题的重要方法。
通常机器人的柔顺性行为包含动作和力两个方面,因此柔顺性行为的学习也是包括动作学习和力学习两个方面的。
在机器人柔顺性控制领域,之前的研究工作主要集中在控制器的人为设计领域(例如:力位混合控制,阻抗控制,碰撞检测反馈控制器等)以及被动柔顺机构设计。上述的柔顺性控制器设计方法具有复杂的调参过程,且不具有泛化能力不能适应新的情况。机器人通过学习人类柔顺性行为而获得柔顺控制策略的研究能简化复杂的调参过程和减低机器人的使用门槛(工人只需提供正确的人类示教即可让机器人具有相应的柔顺性行为,而不需要使用者具有编程和机器人控制的相关技术基础)。
机器人通过学习人类柔顺性行为而获得柔顺控制策略的研究属于前沿领域,示教学习控制中大都将运动轨迹学习和力的学习独立研究。例如,Seyed Mohammad Khansari-Zadeh提出一种学习运动轨迹的方法(发表于2011年IEEE Transactions on Robotics上的文章《Learning Stable Nonlinear Dynamical Systems With Gaussian MixtureModels》)。在该方法的最初提出时,动态系统是通过高斯混合模型(Gaussian MixtureModels)来建模的,并且基于李雅普诺夫稳定性的约束也被推导出来用于保证运动收敛到目标。在接下来几年的发展中也出现了其他一些轨迹动作的模仿学习方法,但使用动态系统建模、使用李雅普诺夫稳定性进行约束这两大特征,基本上是各种方法的共同特征。Calinon提出了一种根据示教位置扰动的协方差推导出不同交互力的学习方法,但是这种方法示教怪异且不利于与轨迹一起学习。
从现有的资料来看,将运动轨迹和力看做柔顺性行为两个组成部分,并将两者用于机器人柔顺性行为学习控制的相关成熟方案甚少。2017年发表于Autonomous Robots的文章《Learning potential functions from human demonstrations with encapsulateddynamic and compliant behaviors》提出了基于势函数和耗散场的联合变阻抗控制策略,该方法的需要人为通过先验知识设计多组基于任务的参数,这种方法具有强构造性,且只能离线训练无法,效率低。
已申请或已授权的专利中,也有一些与所述领域有关。在名称为“一种基于高斯过程的机器人模仿”的专利文件中,公开了一种基于高斯过程的机器人模仿学习方法。高斯过程也是一种回归算法,与高斯混合模型类似,该方案使用高斯过程对机器人运动进行建模学习。在名称为“一种基于轨迹模仿的机器人汉字书写学习方法”的专利文件中,公开了一种将基于轨迹匹配的模仿学习引入到机器人书写技能的学习中,将汉字的比划进行分割,并通过多个高斯混合模型对示教数据进行编码学习和重构的方法。在名称为“具有模仿学习机制的手把手示教机械臂系统及方法”的专利文件中,公开了一种带有模仿学习功能的机械臂系统,并给出了基于前馈神经网络的模仿学习建模方法。在名称为“一种机器人力控示教模仿学习的装置及方法”的专利文件中,公开了一种在示教数据中引入了力反馈信息,并使用隐马尔科夫模型对示教数据进行建模编码的方法。
综上所述,现有的机器人柔顺性控制方法,对运动轨迹和力进行独立建模学习,学习效果不佳,进而导致控制结果不精确;基于高斯混合模型、高斯过程等离线的回归方法来进行模仿学习,需要的训练时间比较长,训练效率较低;控制的稳定性无法保证,可能出现机器人交互力过大而出现伤人的情况。
发明内容
本发明的目的在于提供一种机器人柔顺性控制方法、装置、设备及存储介质,旨在解决现有的机器人柔顺性控制方法的控制结果不精确、柔顺性较差导致的控制效果不佳问题。
一方面,本发明提供了一种机器人柔顺性控制方法,所述方法包括下述步骤:
获取示教运动的示教数据,其中,所述示教数据至少包括所述示教运动的运动数据和交互力数据;
根据所述示教数据中的运动数据计算所述示教运动的运动方程,并且同时根据所述示教数据中的交互力数据计算所述示教运动的变阻抗参数,其中,所述变阻抗参数至少包括变刚度参数和变阻尼参数;
根据所述运动方程和所述变阻抗参数控制操作。
另一方面,本发明提供了一种机器人柔顺性控制装置,所述装置包括:
数据获取单元,用于获取示教运动的示教数据,其中,所述示教数据至少包括所述示教运动的运动数据和交互力数据;
参数计算单元,用于根据所述示教数据中的运动数据计算所述示教运动的运动方程,并且同时根据所述示教数据中的交互力数据计算所述示教运动的变阻抗参数,其中,所述变阻抗参数至少包括变刚度参数和变阻尼参数;以及
操作控制单元,用于根据所述运动方程和所述变阻抗参数控制操作。
另一方面,本发明还提供了一种计算设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如所述机器人柔顺性控制方法的步骤。
另一方面,本发明还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如所述机器人柔顺性控制方法的步骤。
本发明通过获取示教运动的示教数据,根据所述示教数据中的运动数据计算所述示教运动的运动方程,并且同时根据所述示教数据中的交互力数据计算所述示教运动的变阻抗参数,根据所述运动方程和所述变阻抗参数控制操作,从而减少了机器人柔顺性控制过程中的手动编程,降低了机器人的使用门槛,提高了机器人控制的柔顺性和精确性,进而提高了机器人的泛化能力、智能化程度和控制效果。
附图说明
图1是本发明实施例一提供的机器人柔顺性控制方法的实现流程图;
图2是本发明实施例提供的对机器人进行示教的示意图;
图3是本发明实施例提供的在线序列超限学习机的示例性结构图;
图4是本发明实施例提供的机器人柔顺性控制的示教学习和复现的示例性示图;
图5是本发明实施例二提供的机器人柔顺性控制装置的结构示意图;以及
图6是本发明实施例三提供的计算设备的结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
以下结合具体实施例对本发明的具体实现进行详细描述:
实施例一:
图1示出了本发明实施例一提供的机器人柔顺性控制方法的实现流程,为了便于说明,仅示出了与本发明实施例相关的部分,详述如下:
在步骤S101中,获取示教运动的示教数据。
本发明实施例适用于对机器人的自动控制。机器人包括并不局限于机械臂、人形机器人等一系列带有关节、连杆等结构,并可实现伸缩、抓取等动作的机器人产品。其中,示教数据至少可包括示教运动的运动数据和交互力数据,因此,对示教运动的学习可包括动作学习和力学习(即,变刚度参数和变阻尼参数学习)。
在本发明实施例中,运动数据可包括机器人的预设点(例如,末端执行器)的位置数据和速度数据,或者运动数据可包括机器人的预设角(例如,关节角)的角度和角加速度,另外,运动数据还可包括其他可用于完整描述示教运动的一个或多个参数,本发明对此不进行限制。
作为示例,图2示出一种对机器人进行示教的示图,如图2所示,在示教时,示教者一只手抓握住机器人的末端执行器,在平面或空间中运动出一条轨迹,另一个手在末端施加示教力。机器人通过自带的运动捕捉系统和腕部装的六维力传感器采集示教数据。
例如,当运动数据包括机器人的预设采样点(例如,末端执行器或者末端等)的位置数据和速度数据时,按照时间间隔对末端的位置数据和交互力数据进行采样,从而获取一系列采样点数据其中i=1,...,Ntraj,Ntraj表示示教运动轨迹的数量,k=1,...,Ni,Ni表示示教中采样点个数(每隔一个时间间隔采一次样),即表示第i条轨迹的第k个采样点的末端位置,Fk第k个采样点的示教力大小。
作为另一示例,在示教时,示教者通过遥控器或示教器控制机器人进行示教操作,或者手把手示教。机器人根据示教操作记录示教数据。
作为又一示例,在示教时,示教者亲自完成示教运动任务。由机器人的运动捕捉器或数据手套以及力传感器等设备根据示教运动采集示教数据。
优选地,如果运动数据包括机器人的预设点(例如,末端执行器)的位置数据和速度数据,则在获取示教运动的示教数据时,可首先获取与示教运动相关的位置数据、交互力数据和时间数据,然后根据位置数据和时间数据计算与示教运动相关的速度数据,从而得到示教运动的运动数据。
优选地,如果运动数据包括机器人的预设角(例如,关节角)的角度和角加速度,则在获取示教运动的示教数据时,可首先获取与示教运动相关的角度数据、交互力数据和时间数据,然后根据角度数据和时间数据计算与示教运动相关的角加速度数据,从而得到示教运动的运动数据。
在步骤S102中,根据示教数据中的运动数据计算示教运动的运动方程,并且同时根据示教数据中的交互力数据计算示教运动的变阻抗参数。
在本发明实施例中,变阻抗参数至少可包括变刚度参数和变阻尼参数。同时对运动轨迹和力进行学习,从而提高学习效果,进而提高控制结果的精确性。
优选地,在根据示教数据中的运动数据计算示教运动的运动方程时,可使用运动数据对预设的神经网络模型进行训练,得到示教运动的运动方程,并根据运动方程对神经网络模型进行在线更新,从而提高运动方程的计算效率,方便运动方程的后续使用,并且适应实时在线学习的需要,进而提高学习效果。
其中,优选地,在使用运动数据对预设的神经网络模型进行训练时,可以以逐一或逐块的方式对运动数据进行增量学习,得到示教运动的运动方程,从而提高运动方程的准确性,进而提高学习效果。
神经网络模型可以是支持向量机(Support Vector Machine,SVM)、在线序列超限学习机等能够增量在线学习的模型,也可以是其他的增量在线学习的模型,如增量支持向量机(ISVM)等,本发明对此不进行限定。其中,由于与其他在线学习算法相比,在线序列超限学习机具有学习速度快、泛化能力强、实现简单等特点,因此,优选地,神经网络模型是在线序列超限学习机,即使用运动数据对在线序列超限学习机进行训练,从而提高训练效率。
其中,在对在线序列超限学习机进行训练时,在运动方面,输入输出分别为采样点(例如,机器人末端执行器)的位置和速度(或者关节角的角度和角加速度),因此,在线序列超限学习机的输入和输出应该具有相同的维度,即具有相同的神经元个数d。如果考虑二维平面内的运动,d=2,如果考虑三维空间内的运动,d=3。
作为示例,图3示出在线序列超限学习机的示例性结构,如图3所示,假设在线序列超限学习机的隐藏层的激活函数为g,那么我们要学习的在线序列超限学习机(即,要学习的模型)可以表达为其中,隐藏层神经元个数为为隐藏层的偏置,为隐藏层的权值,维度为为输出层的权值,维度为
其中,虽然激活函数g一般选择S形函数(sigmoid函数)或双曲正切函数(tanh函数),也可使用的修改后的S形函数,例如,但是,只要是满足并且单调递增的连续、连续可微的函数都符合激活函数的要求,在此不做限制。
在线序列超限学习机的训练目标是要找到一组最佳的输出层权值使用最小二乘法可得到其中,是矩阵H的Moore-Penrose广义逆矩阵。使用这种方法可不经过迭代求得输出层权值,在增加约束条件时,求解输出层权值的问题就变成了一个带约束的优化问题。
其中,在线序列超限学习机的训练过程包括一个初始的ELM批量学习过程和一个连续的贯序学习过程,具体如下:
作为示例,在根据示教数据中的交互力数据计算示教运动的变阻抗参数时,可根据交互力数据计算变刚度参数和变阻尼参数。
具体地,在计算变刚度参数时,令表示采集到的交互力(F)与相应的时间(q)信息,其中是所获得扰动数据样本的个数。在q时刻的变刚度参数是由时间窗[q-(w-1),q]内的力信息计算得到。滑动时间窗的长度为w,窗内数据点的上下界分别用Lq,Uq表示,在q时刻窗内数据点的个数为Wq=Uq-Lq+1,窗内力数据对应的的协方差矩阵为其中,由于协方差矩阵Σq是对称且正定的,故其能分解成如下形式Σq=PΛP-1,其中,Λ是包含特征值的对角阵。刚度矩阵Kq为其中,与特征值成正比,表达式为 随着示教的进行,交互力的数据会不断的被收集,并根据时间信息将新的数据进行排序并取窗内的值进行刚度求解。例如当q+1时刻的数据进入时,协方差的在线更新为其中,
在本发明实施例中,为保证学习出的模型具有稳定性,优选地,在根据交互力数据计算示教运动的变阻抗参数时,可根据预设的稳定性约束条件和交互力数据对预设的变阻抗模型进行训练,得到示教运动的变阻抗参数,并根据变阻抗参数对变阻抗模型进行更新,从而保证变阻抗控制的稳定性,避免出现机器人交互力过大而出现伤人的情况。
在步骤S103中,根据运动方程和变阻抗参数控制操作。
在本发明实施例中,在得到运动方程和变阻抗参数之后,可根据运动方程和变阻抗参数控制操作,从而控制机器人复现示教运动的运动轨迹和交互力。
在本发明实施例中,在预设的神经网络模型(例如,在线序列超限学习机)和变阻抗模型训练完成之后,可使用训练后的神经网络模型(例如,在线序列超限学习机)和变阻抗模型,从而控制机器人复现示教运动的运动轨迹和交互力。
作为示例,图4示出机器人柔顺性控制的示教学习和复现的示例性示图,如图4所示,示教者一只手抓握住机器人进行示教,机器人采集示教运动的轨迹信息和力信息Fq,然后根据轨迹信息进行动作学习得到f(·),并且根据力信息Fq进行变刚度参数和变阻尼参数学习得到{Bq,Kq},最后根据f(·)产生运动,并根据{Bq,Kq}进行变阻抗控制,从而控制机器人复现示教运动的运动轨迹和交互力。
在本发明实施例中,通过获取示教运动的示教数据,根据示教数据中的运动数据计算示教运动的运动方程,并且同时根据示教数据中的交互力数据计算示教运动的变阻抗参数,根据运动方程和变阻抗参数控制操作,从而减少了机器人柔顺性控制过程中的手动编程,降低了机器人的使用门槛,提高了机器人控制的柔顺性和精确性,进而提高了机器人的泛化能力、智能化程度和控制效果。
实施例二:
图5示出了本发明实施例二提供的机器人柔顺性控制装置的结构,为了便于说明,仅示出了与本发明实施例相关的部分,其中包括:数据获取单元51、参数计算单元52和操作控制单元53。
数据获取单元51,用于获取示教运动的示教数据,其中,示教数据至少包括示教运动的运动数据和交互力数据。
在本发明实施例中,对示教运动的学习可包括动作学习和力学习(即,变刚度参数和变阻尼参数学习)。
在本发明实施例中,运动数据可包括机器人的预设点(例如,末端执行器)的位置数据和速度数据,或者运动数据可包括机器人的预设角(例如,关节角)的角度和角加速度,另外,运动数据还可包括其他可用于完整描述示教运动的一个或多个参数,本发明对此不进行限制。
因此,优选地,数据获取单元51可包括:
第一获取单元,用于获取与示教运动相关的位置数据、交互力数据和时间数据;以及
第一计算单元,用于根据位置数据和时间数据计算运动数据。
具体地,根据位置数据和时间数据计算与示教运动相关的速度数据,从而得到示教运动的运动数据。
优选地,数据获取单元51还可包括:
第二获取单元,用于获取与示教运动相关的角度数据、交互力数据和时间数据;以及
第二计算单元,用于根据角度数据和时间数据计算运动数据。
具体地,可根据角度数据和时间数据计算与示教运动相关的角加速度数据,从而得到示教运动的运动数据。
参数计算单元52,用于根据示教数据中的运动数据计算示教运动的运动方程,并且同时根据示教数据中的交互力数据计算示教运动的变阻抗参数,其中,变阻抗参数至少包括变刚度参数和变阻尼参数。
在本发明实施例中,同时对运动轨迹和力进行学习,从而提高学习效果,进而提高控制结果的精确性。
优选地,参数计算单元52可包括:
第一训练单元,用于使用运动数据对预设的神经网络模型进行训练,得到示教运动的运动方程,并根据运动方程对神经网络模型进行在线更新,从而提高运动方程的计算效率,方便运动方程的后续使用,并且适应实时在线学习的需要,进而提高学习效果。
其中,优选地,模型训练单元可包括:
增量学习单元,用于以逐一或逐块的方式对运动数据进行增量学习,得到示教运动的运动方程,从而提高运动方程的准确性,进而提高学习效果。
其中,优选地,神经网络模型是在线序列超限学习机。
优选地,参数计算单元52可包括:
第二训练单元,用于根据预设的稳定性约束条件和交互力数据对预设的变阻抗模型进行训练,得到示教运动的变阻抗参数,并根据变阻抗参数对变阻抗模型进行更新,从而保证变阻抗控制的稳定性,避免出现机器人交互力过大而出现伤人的情况。
操作控制单元53,用于根据运动方程和变阻抗参数控制操作。
在本发明实施例中,通过数据获取单元51获取示教运动的示教数据,通过参数计算单元52根据示教数据中的运动数据计算示教运动的运动方程,并且同时根据示教数据中的交互力数据计算示教运动的变阻抗参数,通过操作控制单元53根据运动方程和变阻抗参数控制操作,从而减少了机器人柔顺性控制过程中的手动编程,降低了机器人的使用门槛,提高了机器人控制的柔顺性和精确性,进而提高了机器人的泛化能力、智能化程度和控制效果。
在本发明实施例中,机器人柔顺性控制装置的各单元可由相应的硬件或软件单元实现,各单元可以为独立的软、硬件单元,也可以集成为一个软、硬件单元,在此不用以限制本发明。
实施例三:
图6示出了本发明实施例三提供的计算设备的结构,为了便于说明,仅示出了与本发明实施例相关的部分。
本发明实施例的计算设备6包括处理器60、存储器61以及存储在存储器61中并可在处理器60上运行的计算机程序62。该处理器60执行计算机程序62时实现上述各个机器人柔顺性控制方法实施例中的步骤,例如图1所示的步骤S101至S103。或者,处理器60执行计算机程序62时实现上述各装置实施例中各单元的功能,例如,图5所示单元51至53的功能。
在本发明实施例中,该处理器60执行计算机程序62时实现上述各个机器人柔顺性控制方法实施例中的步骤时,获取示教运动的示教数据,根据示教数据中的运动数据计算示教运动的运动方程,并且同时根据示教数据中的交互力数据计算示教运动的变阻抗参数,根据运动方程和变阻抗参数控制操作,从而减少了机器人柔顺性控制过程中的手动编程,降低了机器人的使用门槛,提高了机器人控制的柔顺性和精确性,进而提高了机器人的泛化能力、智能化程度和控制效果。
该计算设备6中处理器60在执行计算机程序62时实现的步骤具体可参考实施例一中方法的描述,在此不再赘述。
实施例四:
在本发明实施例中,提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序被处理器执行时实现上述各个机器人柔顺性控制方法实施例中的步骤,例如,图1所示的步骤S101至S103。或者,该计算机程序被处理器执行时实现上述各装置实施例中各单元的功能,例如,图5所示单元51至53的功能。
在本发明实施例中,获取示教运动的示教数据,根据示教数据中的运动数据计算示教运动的运动方程,并且同时根据示教数据中的交互力数据计算示教运动的变阻抗参数,根据运动方程和变阻抗参数控制操作,从而减少了机器人柔顺性控制过程中的手动编程,降低了机器人的使用门槛,提高了机器人控制的柔顺性和精确性,进而提高了机器人的泛化能力、智能化程度和控制效果。该计算机程序被处理器执行时实现的机器人柔顺性控制方法进一步可参考前述方法实施例中步骤的描述,在此不再赘述。
本发明实施例的计算机可读存储介质可以包括能够携带计算机程序代码的任何实体或装置、记录介质,例如,ROM/RAM、磁盘、光盘、闪存等存储器。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种机器人柔顺性控制方法,其特征在于,所述方法包括下述步骤:
获取示教运动的示教数据,其中,所述示教数据至少包括所述示教运动的运动数据和交互力数据;
根据所述示教数据中的运动数据计算所述示教运动的运动方程,并且同时根据所述示教数据中的交互力数据计算所述示教运动的变阻抗参数,其中,所述变阻抗参数至少包括变刚度参数和变阻尼参数;
根据所述运动方程和所述变阻抗参数控制操作;
所述根据所述示教数据中的运动数据计算所述示教运动的运动方程的步骤,包括:
使用所述运动数据对预设的神经网络模型进行训练,得到所述示教运动的运动方程,并根据所述运动方程对所述神经网络模型进行在线更新,其中,使用所述运动数据对预设的神经网络模型进行训练的步骤,包括:以逐一或逐块的方式对所述运动数据进行增量学习,得到所述示教运动的运动方程;所述神经网络模型是增量在线学习的模型;
根据所述示教数据中的交互力数据计算所述示教运动的变阻抗参数的步骤,包括:
根据预设的稳定性约束条件和所述交互力数据对预设的变阻抗模型进行训练,得到所述示教运动的变阻抗参数,并根据所述变阻抗参数对所述变阻抗模型进行更新。
2.如权利要求1所述的方法,其特征在于,获取示教运动的示教数据的步骤,包括:
获取与示教运动相关的位置数据、交互力数据和时间数据;
根据所述位置数据和所述时间数据计算所述运动数据,其中,所述运动数据中包括速度数据。
3.如权利要求1所述的方法,其特征在于,所述神经网络模型包括在线序列超限学习机。
4.一种机器人柔顺性控制装置,其特征在于,所述装置包括:
数据获取单元,用于获取示教运动的示教数据,其中,所述示教数据至少包括所述示教运动的运动数据和交互力数据;
参数计算单元,用于根据所述示教数据中的运动数据计算所述示教运动的运动方程,并且同时根据所述示教数据中的交互力数据计算所述示教运动的变阻抗参数,其中,所述变阻抗参数至少包括变刚度参数和变阻尼参数;以及
操作控制单元,用于根据所述运动方程和所述变阻抗参数控制操作;
所述参数计算单元包括:
第一训练单元,用于使用所述运动数据对预设的神经网络模型进行训练,得到所述示教运动的运动方程,并根据所述运动方程对所述神经网络模型进行在线更新;
第二训练单元,用于根据预设的稳定性约束条件和所述交互力数据对预设的变阻抗模型进行训练,得到所述示教运动的变阻抗参数,并根据所述变阻抗参数对所述变阻抗模型进行更新;
其中,所述第一训练单元还包括:
增量学习单元,用于以逐一或逐块的方式对所述运动数据进行增量学习,得到所述示教运动的运动方程;
所述神经网络模型是增量在线学习的模型。
5.如权利要求4所述的装置,其特征在于,所述数据获取单元包括:
第一获取单元,用于获取与示教运动相关的位置数据、交互力数据和时间数据;以及
第一计算单元,用于根据所述位置数据和所述时间数据计算所述运动数据,其中,所述运动数据中包括速度数据。
6.如权利要求4所述的装置,其特征在于,所述神经网络模型包括在线序列超限学习机。
7.一种计算设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至3任一项所述方法的步骤。
8.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至3任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811534989.9A CN109702740B (zh) | 2018-12-14 | 2018-12-14 | 机器人柔顺性控制方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811534989.9A CN109702740B (zh) | 2018-12-14 | 2018-12-14 | 机器人柔顺性控制方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109702740A CN109702740A (zh) | 2019-05-03 |
CN109702740B true CN109702740B (zh) | 2020-12-04 |
Family
ID=66256548
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811534989.9A Active CN109702740B (zh) | 2018-12-14 | 2018-12-14 | 机器人柔顺性控制方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109702740B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110524544A (zh) * | 2019-10-08 | 2019-12-03 | 深圳前海达闼云端智能科技有限公司 | 一种机械臂运动的控制方法、终端和可读存储介质 |
CN110722563A (zh) * | 2019-10-29 | 2020-01-24 | 南京南邮信息产业技术研究院有限公司 | 一种变刚度软体机器人的建模方法 |
CN112372637B (zh) * | 2020-10-27 | 2022-05-06 | 东方红卫星移动通信有限公司 | 低轨卫星空间机械臂自适应阻抗柔顺控制方法、模块及系统 |
CN112549001B (zh) * | 2020-12-22 | 2022-06-10 | 上海航天控制技术研究所 | 基于弹性元件的外骨骼关节力位复合柔顺控制方法及系统 |
CN112775964B (zh) * | 2020-12-29 | 2023-03-21 | 上海机器人产业技术研究院有限公司 | 一种力感知阻抗控制方法 |
CN114800489B (zh) * | 2022-03-22 | 2023-06-20 | 华南理工大学 | 基于确定学习与复合学习联合的机械臂柔顺控制方法、存储介质及机器人 |
CN116175548B (zh) * | 2022-12-06 | 2023-10-20 | 之江实验室 | 一种机器人自适应变阻抗电驱动系统及控制方法、装置 |
CN116175644A (zh) * | 2023-01-29 | 2023-05-30 | 深圳先进技术研究院 | 轴孔装配方法、系统、电子设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108115681A (zh) * | 2017-11-14 | 2018-06-05 | 深圳先进技术研究院 | 机器人的模仿学习方法、装置、机器人及存储介质 |
CN108153153A (zh) * | 2017-12-19 | 2018-06-12 | 哈尔滨工程大学 | 一种学习变阻抗控制系统及控制方法 |
JP2018171664A (ja) * | 2017-03-31 | 2018-11-08 | セイコーエプソン株式会社 | 制御装置、ロボット、およびロボットシステム |
-
2018
- 2018-12-14 CN CN201811534989.9A patent/CN109702740B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018171664A (ja) * | 2017-03-31 | 2018-11-08 | セイコーエプソン株式会社 | 制御装置、ロボット、およびロボットシステム |
CN108115681A (zh) * | 2017-11-14 | 2018-06-05 | 深圳先进技术研究院 | 机器人的模仿学习方法、装置、机器人及存储介质 |
CN108153153A (zh) * | 2017-12-19 | 2018-06-12 | 哈尔滨工程大学 | 一种学习变阻抗控制系统及控制方法 |
Non-Patent Citations (3)
Title |
---|
机器人柔顺控制算法研究;崔亮;《哈尔滨工程大学》;20140417;论文正文第6-54页 * |
郭德慧.面向不确定性的机器人柔顺性控制方法研究.《东北大学》.2016, * |
面向不确定性的机器人柔顺性控制方法研究;郭德慧;《东北大学》;20160831;论文正文第11-53页 * |
Also Published As
Publication number | Publication date |
---|---|
CN109702740A (zh) | 2019-05-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109702740B (zh) | 机器人柔顺性控制方法、装置、设备及存储介质 | |
CN108115681B (zh) | 机器人的模仿学习方法、装置、机器人及存储介质 | |
Gu et al. | Deep reinforcement learning for robotic manipulation | |
Gu et al. | Deep reinforcement learning for robotic manipulation with asynchronous off-policy updates | |
Billard et al. | Discriminative and adaptive imitation in uni-manual and bi-manual tasks | |
Billard et al. | Discovering optimal imitation strategies | |
Wang et al. | A framework of hybrid force/motion skills learning for robots | |
Yu et al. | Global model learning for large deformation control of elastic deformable linear objects: An efficient and adaptive approach | |
WO2020118730A1 (zh) | 机器人柔顺性控制方法、装置、设备及存储介质 | |
Qu et al. | Human-like coordination motion learning for a redundant dual-arm robot | |
Neumann et al. | Neural learning of stable dynamical systems based on data-driven Lyapunov candidates | |
Field et al. | Learning trajectories for robot programing by demonstration using a coordinated mixture of factor analyzers | |
Skoglund et al. | Programming-by-Demonstration of reaching motions—A next-state-planner approach | |
Seleem et al. | Development and stability analysis of an imitation learning-based pose planning approach for multi-section continuum robot | |
Arsenic | Developmental learning on a humanoid robot | |
Gutzeit et al. | The besman learning platform for automated robot skill learning | |
Palm et al. | Recognition of human grasps by time-clustering and fuzzy modeling | |
Duan et al. | Sequential learning unification controller from human demonstrations for robotic compliant manipulation | |
Khadivar et al. | Adaptive fingers coordination for robust grasp and in-hand manipulation under disturbances and unknown dynamics | |
Kawaharazuka et al. | Adaptive robotic tool-tip control learning considering online changes in grasping state | |
Palm et al. | Learning of grasp behaviors for an artificial hand by time clustering and Takagi-Sugeno modeling | |
Saito et al. | Task-grasping from human demonstration | |
Beltran-Hernandez et al. | Learning to grasp with primitive shaped object policies | |
Malone et al. | Efficient motion-based task learning for a serial link manipulator | |
CN114952791A (zh) | 肌肉骨骼机器人控制方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |