CN114227688B - 一种基于曲线配准的示教轨迹学习方法 - Google Patents

一种基于曲线配准的示教轨迹学习方法 Download PDF

Info

Publication number
CN114227688B
CN114227688B CN202111638864.2A CN202111638864A CN114227688B CN 114227688 B CN114227688 B CN 114227688B CN 202111638864 A CN202111638864 A CN 202111638864A CN 114227688 B CN114227688 B CN 114227688B
Authority
CN
China
Prior art keywords
teaching
track
teaching track
curve
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111638864.2A
Other languages
English (en)
Other versions
CN114227688A (zh
Inventor
刘成菊
肖宏远
陈启军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tongji University
Original Assignee
Tongji University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tongji University filed Critical Tongji University
Priority to CN202111638864.2A priority Critical patent/CN114227688B/zh
Publication of CN114227688A publication Critical patent/CN114227688A/zh
Application granted granted Critical
Publication of CN114227688B publication Critical patent/CN114227688B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

本发明涉及一种基于曲线配准的示教轨迹学习方法,包括以下步骤:S1、通过动觉示教获取原始示教轨迹;S2、对动觉示教所记录的原始示教轨迹进行曲线配准;S3、经过曲线配准,将原始示教轨迹分解为时域特征和空域特征,由原始示教轨迹的空域特征构成规整示教轨迹;S4、使用规整示教轨迹作为示教学习算法的输入;S5、使用习得的模型对示教轨迹进行重现。与现有技术相比,本发明明确指出示教轨迹所具有的时‑空耦合数据特性,并使用曲线配准方法替代现有的示教轨迹规整方法,使得后续的示教学习算法能够从规整的示教轨迹中进行学习,提升了一类示教轨迹学习方法的性能。

Description

一种基于曲线配准的示教轨迹学习方法
技术领域
本发明涉及机器人轨迹规划领域,尤其是涉及一种基于曲线配准的示教轨迹学习方法。
背景技术
基于示教学习的轨迹学习方法能够使机器人能够利用施教者的先验知识快速学习较为复杂的轨迹,是实现机器人灵活运动的关键技术,对于推动机器人在动态环境下的快速轨迹规划应用有重要意义,现有示教轨迹学习方法主要有以下两种:
一是基于动态动作基元(DMP)的方法:该方法是一种单示教轨迹-单模型的示教轨迹学习方法,从单一示教轨迹中学习一个二阶非线性微分方程从而实现示教轨迹的学习,通过实时迭代上述微分方程对学习的示教轨迹进行重现,该类方法存在以下问题:
仅依赖于单一示教轨迹,不能学习一组示教轨迹的共通特征;所依赖的示教轨迹质量如果较低,将显著影响示教轨迹的学习效果。
二是基于高斯混合模型-高斯混合回归(GMM-GMR)的方法,该方法是一种多示教轨迹-单模型的示教轨迹学习方法,从多个示教轨迹中学习时间-状态的联合分布并使用高斯混合模型进行表示,在新时间输入下通过高斯混合回归对示教轨迹进行重现,但该类方法存在以下问题:
当依赖的一组示教轨迹具有非共通的时间特征时,将影响示教轨迹的学习效果;现有的预处理方法依赖于动态时间规整或其变种,是一种非对称的轨迹规整方法,不能正确地分离示教轨迹的时域、空域特征。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于曲线配准的示教轨迹学习方法。
本发明的目的可以通过以下技术方案来实现:
一种基于曲线配准的示教轨迹学习方法,包括以下步骤:
S1、通过动觉示教获取原始示教轨迹;
S2、对动觉示教所记录的原始示教轨迹进行曲线配准;
S3、经过曲线配准,将原始示教轨迹分解为时域特征和空域特征,由原始示教轨迹的空域特征构成规整示教轨迹;
S4、使用规整示教轨迹作为示教学习算法的输入;
S5、使用习得的模型对示教轨迹进行重现。
所述的步骤S1中,机器人通过各关节电流检测力矩并采用动力学模型获取工作空间所受外力并进行补偿,从而使自身处于零力拖动状态,由施教者自由拖动机器人运动,同时,机器人的关节空间轨迹由各关节的位置传感器获取并记录,机器人的工作空间轨迹由关节空间轨迹经过正运动学计算获得,则记录下来的轨迹即为示教轨迹。
步骤S2中,曲线配准采用规整函数描述示教轨迹的时域特征,并使用Fisher-Rao度量计算两个曲线之间的距离,所述的Fisher-Rao度量在规整函数的规整作用下保持不变,并且在平方根速度表示下成为标准的L2度量。
曲线配准具体过程为:
首先将原始示教轨迹的曲线fi变换至平方根速度空间的对应曲线并计算关于规整函数作用下各轨道空间[qi]的均值[μ],然后使用轨道空间[μ]的中心μ作为曲线规整的模板,对于每一个平方根速度空间曲线qi求取最优规整函数/>得到一系列最优规整函数/>
所述的步骤S3中,示教轨迹的时域特征具体为各最优规整函数示教轨迹的空域特征具体为示教轨迹在最优规整函数作用下的结果,即规整示教轨迹/>其中,代表规整函数对fi施加的右结合作用。
所述的步骤S4中,将规整示教轨迹的均值作为单示教轨迹-单模型算法的输入,将规整示教轨迹作为多示教轨迹-单模型算法的输入。
所述的规整示教轨迹的逐点均值/>直接作为单示教轨迹-单模型示教学习方法的输入,全体规整示教轨迹/>直接作为多示教轨迹-单模型示教学习方法的输入,其中,N为规整示教轨迹总数。
采用动态动作基元作为单示教轨迹-单模型示教学习方法。
采用高斯混合模型-高斯混合回归方法作为多示教轨迹-单模型示教学习方法。
所述的步骤S5中,通过动态动作基元或高斯混合模型-高斯混合回归方法进行轨迹重现。
与现有技术相比,本发明具有以下优点:
一、本发明利用了函数型数据分析中的曲线配准方法,能够对一组示教轨迹的时域、空域特征进行分离,得到规整示教轨迹,这一过程有效地克服了现有动态时间规整方法存在的非对称性问题,能够提升后续的示教轨迹学习方法对示教轨迹的刻画程度。
二、本发明基于一组示教轨迹得到一组规整示教轨迹,规整示教轨迹排除了不同示教轨迹之间不一致的时域特征,既能够进行空间上的平均后应用于基于单示教轨迹的示教学习方法,也能够直接应用于基于多示教轨迹的示教学习方法,能够有效提升一类示教学习方法的性能。
附图说明
图1为本发明方法的流程图。
图2为经过曲线配准后,规整示教轨迹的时域特征示意图,其中,图(2a)为x轴上的规整函数图(2b)为y轴上的规整函数/>
图3为原始示教轨迹及其逐时间均值的示意图,其中,图(3a)为全维度表示的示教轨迹,图(3b)为逐维度表示的示教轨迹。
图4为动态时间规整后的示教轨迹及其逐时间均值的示意图,其中,图(4a)为全维度表示的动态时间规整轨迹,图(4b)为逐维度表示的动态时间规整轨迹。
图5为本发明采用的曲线配准方法得到的规整示教轨迹及其逐时间均值的示意图,其中,图(5a)为全维度表示的曲线配准后的规整示教轨迹,图(5b)为逐维度表示的曲线配准后的规整示教轨迹。
图6为使用规整示教轨迹(或其逐时间均值)进行示教学习并利用学习结果进行示教轨迹再现的示意图,其中,图(6a)为全维度表示的再现轨迹,图(6b)为逐维度表示的再现轨迹。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。
实施例
下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
本实施例提供了一种基于曲线配准的示教轨迹学习方法,该方法的框架示意图如图1所示,具体包括以下步骤:
S1、通过动觉示教,获取示教轨迹;
S2、对于动觉示教所记录的示教轨迹,进行曲线配准;
S3、经过曲线配准,原始示教轨迹被分解为时域特征和空域特征,原始示教轨迹的空域特征构成规整示教轨迹;
S4、使用规整示教轨迹作为示教学习算法的输入,具体地:使用规整示教轨迹的均值作为单示教轨迹-单模型算法的输入,使用规整示教轨迹作为多示教轨迹-单模型算法的输入;
S5、使用习得的模型对示教轨迹进行重现。
在步骤S1实施过程中,机器人通过各关节电流检测其力矩并利用动力学模型推算工作空间所受外力并进行补偿,从而使自身处于零力拖动状态,由施教者自由拖动机器人运动。同时,机器人的关节空间轨迹由各关节的位置传感器记录,机器人的工作空间轨迹由关节空间轨迹经过正运动学推算获得,所记录下来的轨迹是示教轨迹。
在步骤S2实施过程中,曲线配准算法使用规整函数描述示教轨迹的时域特征,并使用Fisher-Rao度量计算两个曲线之间的距离。Fisher-Rao度量在规整函数的规整作用下保持不变,并且在平方根速度表示下成为标准的L2度量。曲线配准算法首先将曲线fi变换至平方根速度空间的对应曲线并计算关于规整函数作用下各轨道空间[qi]的均值[μ]。进一步地,使用轨道空间[μ]的中心μ作为曲线规整的模板,对于每一个平方根速度空间曲线qi求取最优规整函数/>得到一系列最优规整函数/>
在步骤S3实施过程中,各最优规整函数是示教轨迹的时域特征,示教轨迹在最优规整函数作用下的结果/>是示教轨迹的空域特征。
在步骤S4实施过程中,规整示教轨迹的逐点均值/>直接作为单示教轨迹-单模型示教学习方法的输入;全体规整示教轨迹/>直接作为多示教轨迹-单模型示教学习方法的输入。具体地,采用动态动作基元作为单示教轨迹-单模型示教学习方法,采用高斯混合模型-高斯混合回归方法作为多示教轨迹-单模型示教学习方法。
在步骤S5实施过程中,通过动态动作基元或者高斯混合模型-高斯混合回归方法,重现步骤S4所习得的示教轨迹。
本发明提供的示教轨迹学习方法,与现有技术中的位姿估计方法相比,最大的创新点有两点:一个是利用了函数型数据分析中的曲线配准方法,对一组示教轨迹的时域、空域特征进行分离;二是利用规整示教轨迹作为不同示教学习方法的输入,能够提升一类示教学习算法的性能。
以上详细描述了本发明的较佳具体实施例。应当理解,本领域的普通技术人员无需创造性劳动就可以根据本发明的构思作出诸多修改和变化。因此,凡本技术领域中技术人员依本发明的构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应在由权利要求书所确定的保护范围内。

Claims (7)

1.一种基于曲线配准的示教轨迹学习方法,其特征在于,包括以下步骤:
S1、通过动觉示教获取原始示教轨迹;
S2、对动觉示教所记录的原始示教轨迹进行曲线配准;
S3、经过曲线配准,将原始示教轨迹分解为时域特征和空域特征,由原始示教轨迹的空域特征构成规整示教轨迹;
S4、使用规整示教轨迹作为示教学习算法的输入;
S5、使用习得的模型对示教轨迹进行重现;
所述的步骤S2中,曲线配准采用规整函数描述示教轨迹的时域特征,并使用Fisher-Rao度量计算两个曲线之间的距离,所述的Fisher-Rao度量在规整函数的规整作用下保持不变,并且在平方根速度表示下成为标准的L2度量;
曲线配准具体过程为:
首先将原始示教轨迹的曲线变换至平方根速度空间的对应曲线,并计算关于规整函数作用下各轨道空间的均值,然后使用轨道空间的中心作为曲线规整的模板,对于每一个平方根速度空间曲线求取最优规整函数得到一系列最优规整函数;
所述的步骤S3中,示教轨迹的时域特征具体为各最优规整函数,示教轨迹的空域特征具体为示教轨迹在最优规整函数作用下的结果,即规整示教轨迹,其中,代表规整函数对施加的右结合作用。
2.根据权利要求1所述的一种基于曲线配准的示教轨迹学习方法,其特征在于,所述的步骤S1中,机器人通过各关节电流检测力矩并采用动力学模型获取工作空间所受外力并进行补偿,从而使自身处于零力拖动状态,由施教者自由拖动机器人运动,同时,机器人的关节空间轨迹由各关节的位置传感器获取并记录,机器人的工作空间轨迹由关节空间轨迹经过正运动学计算获得,则记录下来的轨迹即为示教轨迹。
3.根据权利要求1所述的一种基于曲线配准的示教轨迹学习方法,其特征在于,所述的步骤S4中,将规整示教轨迹的均值作为单示教轨迹-单模型算法的输入,将规整示教轨迹作为多示教轨迹-单模型算法的输入。
4.根据权利要求3所述的一种基于曲线配准的示教轨迹学习方法,其特征在于,所述的规整示教轨迹的逐点均值/>直接作为单示教轨迹-单模型示教学习方法的输入,全体规整示教轨迹/>直接作为多示教轨迹-单模型示教学习方法的输入,其中,N为规整示教轨迹总数。
5.根据权利要求4所述的一种基于曲线配准的示教轨迹学习方法,其特征在于,采用动态动作基元作为单示教轨迹-单模型示教学习方法。
6.根据权利要求4所述的一种基于曲线配准的示教轨迹学习方法,其特征在于,采用高斯混合模型-高斯混合回归方法作为多示教轨迹-单模型示教学习方法。
7.根据权利要求1所述的一种基于曲线配准的示教轨迹学习方法,其特征在于,所述的步骤S5中,通过动态动作基元或高斯混合模型-高斯混合回归方法进行轨迹重现。
CN202111638864.2A 2021-12-29 2021-12-29 一种基于曲线配准的示教轨迹学习方法 Active CN114227688B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111638864.2A CN114227688B (zh) 2021-12-29 2021-12-29 一种基于曲线配准的示教轨迹学习方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111638864.2A CN114227688B (zh) 2021-12-29 2021-12-29 一种基于曲线配准的示教轨迹学习方法

Publications (2)

Publication Number Publication Date
CN114227688A CN114227688A (zh) 2022-03-25
CN114227688B true CN114227688B (zh) 2023-08-04

Family

ID=80744128

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111638864.2A Active CN114227688B (zh) 2021-12-29 2021-12-29 一种基于曲线配准的示教轨迹学习方法

Country Status (1)

Country Link
CN (1) CN114227688B (zh)

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6385508B1 (en) * 2000-10-31 2002-05-07 Fanuc Robotics North America, Inc. Lead-through teach handle assembly and method of teaching a robot assembly
CN102794767A (zh) * 2012-08-31 2012-11-28 江南大学 视觉引导的机器人关节空间b样条轨迹规划方法
CN102955895A (zh) * 2012-06-21 2013-03-06 同济大学 一种基于面积的曲线亚像素配准方法
WO2013164470A1 (en) * 2012-05-04 2013-11-07 Leoni Cia Cable Systems Sas Imitation learning method for a multi-axis manipulator
CN103544496A (zh) * 2012-07-12 2014-01-29 同济大学 基于空间与时间信息融合的机器人场景识别方法
CN104635714A (zh) * 2014-12-12 2015-05-20 同济大学 一种基于时间-空间特征的机器人示教轨迹生成方法
CN107571261A (zh) * 2017-08-30 2018-01-12 中国科学院自动化研究所 示教机器人多空间轨迹规划的平滑过渡方法及装置
CN108453707A (zh) * 2018-04-12 2018-08-28 珞石(山东)智能科技有限公司 机器人拖动示教轨迹生成方法
WO2019055883A1 (en) * 2017-09-15 2019-03-21 Google Llc IMPROVEMENTS RELATING TO THE GENERATION OF A ROBOT CONTROL POLICY FROM DEMONSTRATIONS COLLECTED THROUGH KINESTHETIC TEACHING OF A ROBOT
CN109702744A (zh) * 2019-01-15 2019-05-03 北京工业大学 一种基于动态系统模型的机器人模仿学习的方法
CN110405730A (zh) * 2019-06-06 2019-11-05 大连理工大学 一种基于rgb-d图像的人机物交互机械臂示教系统
CN110561421A (zh) * 2019-08-09 2019-12-13 哈尔滨工业大学(深圳) 机械臂间接拖动示教方法及装置
CN110653824A (zh) * 2019-07-26 2020-01-07 同济人工智能研究院(苏州)有限公司 基于概率模型的机器人离散型轨迹的表征与泛化方法
CN111002302A (zh) * 2019-09-09 2020-04-14 浙江瀚镪自动化设备股份有限公司 结合高斯混合模型和动态系统的机械臂抓取轨迹规划方法
CN111618847A (zh) * 2020-04-22 2020-09-04 南通大学 基于深度强化学习与动态运动基元的机械臂自主抓取方法
CN111890353A (zh) * 2020-06-24 2020-11-06 深圳市越疆科技有限公司 机器人示教轨迹复现方法、装置及计算机可读存储介质
CN112847355A (zh) * 2020-12-31 2021-05-28 山东大学 一种基于dmp的机器人螺栓旋拧方法及系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10207404B2 (en) * 2017-02-09 2019-02-19 X Development Llc Generating a robot control policy from demonstrations collected via kinesthetic teaching of a robot
US11370120B2 (en) * 2017-06-12 2022-06-28 Siemens Industry Software Ltd. Method and system for teaching a robot in reaching a given target in robot manufacturing

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6385508B1 (en) * 2000-10-31 2002-05-07 Fanuc Robotics North America, Inc. Lead-through teach handle assembly and method of teaching a robot assembly
WO2013164470A1 (en) * 2012-05-04 2013-11-07 Leoni Cia Cable Systems Sas Imitation learning method for a multi-axis manipulator
CN102955895A (zh) * 2012-06-21 2013-03-06 同济大学 一种基于面积的曲线亚像素配准方法
CN103544496A (zh) * 2012-07-12 2014-01-29 同济大学 基于空间与时间信息融合的机器人场景识别方法
CN102794767A (zh) * 2012-08-31 2012-11-28 江南大学 视觉引导的机器人关节空间b样条轨迹规划方法
CN104635714A (zh) * 2014-12-12 2015-05-20 同济大学 一种基于时间-空间特征的机器人示教轨迹生成方法
CN107571261A (zh) * 2017-08-30 2018-01-12 中国科学院自动化研究所 示教机器人多空间轨迹规划的平滑过渡方法及装置
WO2019055883A1 (en) * 2017-09-15 2019-03-21 Google Llc IMPROVEMENTS RELATING TO THE GENERATION OF A ROBOT CONTROL POLICY FROM DEMONSTRATIONS COLLECTED THROUGH KINESTHETIC TEACHING OF A ROBOT
CN108453707A (zh) * 2018-04-12 2018-08-28 珞石(山东)智能科技有限公司 机器人拖动示教轨迹生成方法
CN109702744A (zh) * 2019-01-15 2019-05-03 北京工业大学 一种基于动态系统模型的机器人模仿学习的方法
CN110405730A (zh) * 2019-06-06 2019-11-05 大连理工大学 一种基于rgb-d图像的人机物交互机械臂示教系统
CN110653824A (zh) * 2019-07-26 2020-01-07 同济人工智能研究院(苏州)有限公司 基于概率模型的机器人离散型轨迹的表征与泛化方法
CN110561421A (zh) * 2019-08-09 2019-12-13 哈尔滨工业大学(深圳) 机械臂间接拖动示教方法及装置
CN111002302A (zh) * 2019-09-09 2020-04-14 浙江瀚镪自动化设备股份有限公司 结合高斯混合模型和动态系统的机械臂抓取轨迹规划方法
CN111618847A (zh) * 2020-04-22 2020-09-04 南通大学 基于深度强化学习与动态运动基元的机械臂自主抓取方法
CN111890353A (zh) * 2020-06-24 2020-11-06 深圳市越疆科技有限公司 机器人示教轨迹复现方法、装置及计算机可读存储介质
CN112847355A (zh) * 2020-12-31 2021-05-28 山东大学 一种基于dmp的机器人螺栓旋拧方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于线性规整的示教轨迹时间-空间特征学习方法;耿烷东等;《2018中国自动化大会(CAC2018)论文集》;第704-708页 *

Also Published As

Publication number Publication date
CN114227688A (zh) 2022-03-25

Similar Documents

Publication Publication Date Title
Lee et al. Pebble: Feedback-efficient interactive reinforcement learning via relabeling experience and unsupervised pre-training
Calinon et al. On improving the extrapolation capability of task-parameterized movement models
Grunewalder et al. Modelling transition dynamics in MDPs with RKHS embeddings
WO2020207219A1 (zh) 一种利用环境预测优化非模型机器人多轴孔装配控制方法
CN101968846B (zh) 一种人脸跟踪方法
Wang et al. A robot learning framework based on adaptive admittance control and generalizable motion modeling with neural network controller
Schroecker et al. Generative predecessor models for sample-efficient imitation learning
CN110561421B (zh) 机械臂间接拖动示教方法及装置
CN112207835B (zh) 一种基于示教学习实现双臂协同作业任务的方法
WO2018058419A1 (zh) 二维图像人体关节点定位模型的构建方法及定位方法
Makondo et al. Knowledge transfer for learning robot models via local procrustes analysis
CN111598914A (zh) 一种基于不确定性引导的自适应图像分割方法
WO2021128611A1 (zh) 一种基于深度神经网络的运动预测方法和智能终端
Zhang et al. A neural network based framework for variable impedance skills learning from demonstrations
CN114227688B (zh) 一种基于曲线配准的示教轨迹学习方法
Kalinowska et al. Ergodic imitation: Learning from what to do and what not to do
US20210166131A1 (en) Training spectral inference neural networks using bilevel optimization
Wu et al. Learning robot anomaly recovery skills from multiple time-driven demonstrations
Zhang et al. Learning Riemannian stable dynamical systems via diffeomorphisms
CN116079745A (zh) 基于几何感知与节律动态运动基元的人机技能迁移方法
WO2023206863A1 (zh) 一种基于生成对抗模仿学习的人机协作机器人技能识别方法
CN107133971B (zh) 一种基于网络节点能量传递的人物异常轨迹检测方法
Xia et al. Cooperative learning algorithms for data fusion using novel $ L_ {1} $ estimation
CN113057850A (zh) 基于概率运动原语和隐半马尔可夫的康复机器人控制方法
CN106570884A (zh) 基于在线更新字典模型的目标跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant