CN104635714B - 一种基于时间‑空间特征的机器人示教轨迹生成方法 - Google Patents

一种基于时间‑空间特征的机器人示教轨迹生成方法 Download PDF

Info

Publication number
CN104635714B
CN104635714B CN201410769110.4A CN201410769110A CN104635714B CN 104635714 B CN104635714 B CN 104635714B CN 201410769110 A CN201410769110 A CN 201410769110A CN 104635714 B CN104635714 B CN 104635714B
Authority
CN
China
Prior art keywords
track
mrow
msubsup
msub
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201410769110.4A
Other languages
English (en)
Other versions
CN104635714A (zh
Inventor
陈启军
尹晓川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tongji University
Original Assignee
Tongji University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tongji University filed Critical Tongji University
Priority to CN201410769110.4A priority Critical patent/CN104635714B/zh
Publication of CN104635714A publication Critical patent/CN104635714A/zh
Application granted granted Critical
Publication of CN104635714B publication Critical patent/CN104635714B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)

Abstract

本发明涉及一种基于时间‑空间特征的机器人示教轨迹生成方法,包括以下步骤:1)通过操作机器人,等采样时间间隔记录机器人末端各个自由度的示教轨迹,并多次对同类轨迹进行示教;2)对多条同种类型轨迹提取其共同的时间‑空间特征,生成轨迹模板;3)构建满足时间‑空间特征的目标方程,并通过协变梯度下降法求解机器人运动轨迹;4)将求得的运动轨迹作为参考轨迹,输入到机器人的执行机构,机器人通过自己控制器进行轨迹跟踪,使得生成的轨迹和参考轨迹相一致。与现有技术相比,本发明具有在满足原本约束的基础上增加了从示教轨迹学习得到的时间‑空间特征,通过增加这个约束条件,可以限制轨迹的搜索空间,加快求解速度。

Description

一种基于时间-空间特征的机器人示教轨迹生成方法
技术领域
本发明涉及一种应用于无人驾驶车辆和多关节机器人的轨迹生成技术,尤其是涉及一种基于时间-空间特征的机器人示教轨迹生成方法。
背景技术
机器人的轨迹规划,特别是对于高维多关节机器人的轨迹规划一直是机器人领域的重点和难点,传统机器人轨迹规划的方法可以分为基于采样的和基于优化的轨迹规划方法两种,这两种方法都需要定义一个合适的目标函数,用来优化所生成的轨迹。因此,目标函数实际上决定了生成轨迹的可行性。目标函数一般包含起始和目标状态,动力学与运动学模型,障碍物信息等。
示教学习,作为一种拟人的轨迹生成方法,通过学习示教轨迹,期望生成满足当前任务目标轨迹生成动态系统。对于示教学习来说,轨迹的适应性和泛化性决定了能否生成满足实际需要的轨迹。由于算法本身的限制,很多算法只能针对某种特定场合的应用,而且往往要求和示教轨迹在时间和空间上差别较小,否则并不能生成期望的轨迹。而且,对于自由度较多,需要多个关节自由度和示教轨迹组合时,一些经典算法往往无能为力。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于时间-空间特征的机器人示教轨迹生成方法。
本发明的目的可以通过以下技术方案来实现:
一种基于时间-空间特征的机器人示教轨迹生成方法,其特征在于,包括以下步骤:
1)通过操作机器人,等采样时间间隔记录机器人末端各个自由度的示教轨迹,并多次对同类轨迹进行示教;
2)对多条同种类型轨迹提取其共同的时间-空间特征,生成轨迹模板;
3)构建满足时间-空间特征的目标方程,并通过协变梯度下降法求解机器人运动轨迹;
4)将求得的运动轨迹作为参考轨迹,输入到机器人的执行机构,机器人通过自已控制器进行轨迹跟踪,使得生成的轨迹和参考轨迹相一致。
所述的生成轨迹模板具体为:
21)通过公式(1),生成M条示教轨迹的模板;
其中X为示教轨迹,V为空间规整的矩阵,当V的维数小于X的维数时,表示将多维轨迹进行降维,W为时间规整矩阵,负责将轨迹进行拉伸和缩短,同时保证轨迹的时间上的单调性,φ(Vi)和ψ(Wi)分别为空间和时间的正则化项,Jgctw用来衡量M条轨迹两两之间所提取特征差异的和,‖·‖F代表Frobenius范数;
通过求解上述方程,对于每条轨迹X可以求得与其对应的V和W;
通过求得M条示教轨迹的算术平均值,得到轨迹模板K。
所述的构建满足时间-空间特征的目标方程,并通过协变梯度下降法求解机器人运动轨迹具体为:
31)构建满足时间-空间特征的目标方程如下:
其中Vξ为空间规整矩阵、Xξ为轨迹矩阵、Wξ为时间规整矩阵、Fs-i用来比较所生成轨迹的时间空间特征与特征模板K的大小;
Vξ通过计算XζWξ和K的Pearson相关系数ρ最大得到
Va表示为XξWξ具有最大相关系数的典型变量矩阵,Vb表示为K具有最大相关系数的典型变量矩阵;
32)根据实际的应用,需要对初始和结束状态、轨迹的光滑性、环境的避障以及机器人的运动学约束建立相应的目标函数如下所示
其中Fprior[Xξ]代表轨迹的初始、终点状态约束和光滑约束,Fobstacles[Xξ]表示障碍物约束,a、b和c分别代表了各个约束的系数,其大小可以通过经验设定,也可以通过计算得出,通过采用协变梯度下降法求解目标方程,所得到的轨迹Xξ既能满足任务需要,又能保存原本的时间-空间特征。
与现有技术相比,本发明具有以下优点:
1、在满足原本约束的基础上增加了从示教轨迹学习得到的时间-空间特征,通过增加这个约束条件,可以限制轨迹的搜索空间,加快求解速度;
2、所生成的轨迹能够尽可能的保持示教轨迹的相似性,生成的轨迹更易于满足执行机构的物理结构,特别适用于编程规划复杂但人类示教容易的情况。
3、特别适用于无人驾驶汽车这种和人类进行交互的执行机构的轨迹生成。
附图说明
图1为本发明具体的流程图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。
实施例
如图1所示,本发明基于时间-空间特征的机器人示教轨迹生成方法,包括以下步骤:
1)通过操作机器人,等采样时间间隔记录机器人的末端各个自由度的示教轨迹,通过多次对同类轨迹进行示教,避免单个示教轨迹局部扰动所造成的影响。对于多关节自由度机器人来说,还可以记录关节点各个自由度的轨迹信息;
2)对多条同种类型轨迹提取其共同的时间-空间特征,生成轨迹的模板K
3)构建保持示教轨迹时间-空间特征的轨迹目标方程,同时需要满足
由于该方程非凸函数,需要求解三个未知量空间规整矩阵Vξ,时间规整矩阵Wξ,轨迹矩阵Xξ。首先输入一个与期望轨迹时间-空间特征类似的轨迹,可以采用一个示教轨迹作为初始轨迹Xξ,并求得所对相应的时间和空间规整矩阵。并通过协变梯度下降法求解机器人运动轨迹。
将所得到的轨迹带入(15)式,重新求得对应的空间规整矩阵Vξ和时间规整矩阵Wξ,并将其输入到(6)式。反复迭代,直到u[Xξ]满足事先预定的较小值ε或者超过最大迭代次数,此时得到的轨迹即为满足时间-空间特征以及起始、终点以及环境约束的轨迹;
4)将期望轨迹作为参考信号输入到图1的轨迹跟踪系统,轨迹跟踪系统负责输出控制信号给机器人的执行机构,调节机器人的运动,使得机器人能够时刻跟踪参考轨迹。

Claims (1)

1.一种基于时间-空间特征的机器人示教轨迹生成方法,其特征在于,包括以下步骤:
1)通过操作机器人,等采样时间间隔记录机器人末端各个自由度的示教轨迹,并多次对同类轨迹进行示教;
2)对多条同种类型轨迹提取其共同的时间-空间特征,生成轨迹模板;
3)构建满足时间-空间特征的目标方程,并通过协变梯度下降法求解机器人运动轨迹;
4)将求得的运动轨迹作为参考轨迹,输入到机器人的执行机构,机器人通过自己控制器进行轨迹跟踪,使得生成的轨迹和参考轨迹相一致;
所述的生成轨迹模板具体为:
21)通过公式(1),生成M条示教轨迹的模板;
其中X为示教轨迹,V为空间规整的矩阵,当V的维数小于X的维数时,表示将多维轨迹进行降维,W为时间规整矩阵,负责将轨迹进行拉伸和缩短,同时保证轨迹的时间上的单调性,φ(Vi)和ψ(Wi)分别为空间和时间的正则化项,用来衡量M条轨迹两两之间所提取特征差异的和,‖·‖F代表Frobenius范数;
通过求解上述方程,对于每条轨迹X可以求得与其对应的V和W;
<mrow> <mi>K</mi> <mo>=</mo> <mfrac> <mn>1</mn> <mi>M</mi> </mfrac> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>M</mi> </munderover> <msubsup> <mi>V</mi> <mi>i</mi> <mi>T</mi> </msubsup> <msub> <mi>X</mi> <mi>i</mi> </msub> <msub> <mi>W</mi> <mi>i</mi> </msub> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>2</mn> <mo>)</mo> </mrow> </mrow>
通过求得M条示教轨迹的算术平均值,得到轨迹模板K;
所述的构建满足时间-空间特征的目标方程,并通过协变梯度下降法求解机器人运动轨迹具体为:
31)构建满足时间-空间特征的目标方程如下:
其中Vξ为空间规整矩阵、Xξ为轨迹矩阵、Wξ为时间规整矩阵、用来比较所生成轨迹的时间空间特征与特征模板K的大小;
Vξ通过计算XξWξ和K的Pearson相关系数ρ最大得到
<mrow> <munder> <mrow> <mi>m</mi> <mi>a</mi> <mi>x</mi> </mrow> <mrow> <msubsup> <mi>V</mi> <mi>a</mi> <mi>T</mi> </msubsup> <mo>,</mo> <msubsup> <mi>V</mi> <mi>b</mi> <mi>T</mi> </msubsup> </mrow> </munder> <mi>&amp;rho;</mi> <mo>=</mo> <mfrac> <mrow> <mi>E</mi> <mo>&amp;lsqb;</mo> <msubsup> <mi>V</mi> <mi>a</mi> <mi>T</mi> </msubsup> <msub> <mi>X</mi> <mi>&amp;xi;</mi> </msub> <msub> <mi>W</mi> <mi>&amp;xi;</mi> </msub> <msup> <mi>K</mi> <mi>T</mi> </msup> <msub> <mi>V</mi> <mi>b</mi> </msub> <mo>&amp;rsqb;</mo> </mrow> <msqrt> <mrow> <mi>E</mi> <mo>&amp;lsqb;</mo> <msubsup> <mi>V</mi> <mi>a</mi> <mi>T</mi> </msubsup> <msub> <mi>X</mi> <mi>&amp;xi;</mi> </msub> <msub> <mi>W</mi> <mi>&amp;xi;</mi> </msub> <msubsup> <mi>W</mi> <mi>&amp;xi;</mi> <mi>T</mi> </msubsup> <msubsup> <mi>X</mi> <mi>&amp;xi;</mi> <mi>T</mi> </msubsup> <msub> <mi>V</mi> <mi>a</mi> </msub> <mo>&amp;rsqb;</mo> <mi>E</mi> <mo>&amp;lsqb;</mo> <msubsup> <mi>V</mi> <mi>b</mi> <mi>T</mi> </msubsup> <msup> <mi>KK</mi> <mi>T</mi> </msup> <msub> <mi>V</mi> <mi>b</mi> </msub> <mo>&amp;rsqb;</mo> </mrow> </msqrt> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>4</mn> <mo>)</mo> </mrow> </mrow>
<mrow> <msubsup> <mi>V</mi> <mi>&amp;xi;</mi> <mi>T</mi> </msubsup> <mo>=</mo> <msup> <mrow> <mo>(</mo> <msubsup> <mi>V</mi> <mi>b</mi> <mi>T</mi> </msubsup> <mo>)</mo> </mrow> <mrow> <mo>-</mo> <mn>1</mn> </mrow> </msup> <msubsup> <mi>V</mi> <mi>a</mi> <mi>T</mi> </msubsup> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>5</mn> <mo>)</mo> </mrow> </mrow>
其中Va表示为XξWξ具有最大相关系数的典型变量矩阵,Vb表示为K具有最大相关系数的典型变量矩阵;
32)根据实际的应用,需要对初始和结束状态、轨迹的光滑性、环境的避障以及机器人的运动学约束建立相应的目标函数如下所示
其中代表轨迹的初始、终点状态约束和光滑约束,表示障碍物约束,a、b和c分别代表了各个约束的系数,通过采用协变梯度下降法求解目标方程,所得到的轨迹Xξ既能满足任务需要,又能保存原本的时间-空间特征。
CN201410769110.4A 2014-12-12 2014-12-12 一种基于时间‑空间特征的机器人示教轨迹生成方法 Active CN104635714B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410769110.4A CN104635714B (zh) 2014-12-12 2014-12-12 一种基于时间‑空间特征的机器人示教轨迹生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410769110.4A CN104635714B (zh) 2014-12-12 2014-12-12 一种基于时间‑空间特征的机器人示教轨迹生成方法

Publications (2)

Publication Number Publication Date
CN104635714A CN104635714A (zh) 2015-05-20
CN104635714B true CN104635714B (zh) 2018-02-27

Family

ID=53214583

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410769110.4A Active CN104635714B (zh) 2014-12-12 2014-12-12 一种基于时间‑空间特征的机器人示教轨迹生成方法

Country Status (1)

Country Link
CN (1) CN104635714B (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016188409A1 (zh) * 2015-05-26 2016-12-01 苏州阿福机器人有限公司 手执示教机器人及机器人手执示教方法
CN104959983B (zh) * 2015-05-26 2017-01-18 南京阿福机器人有限公司 机器人手执示教方法
US10229363B2 (en) * 2015-10-19 2019-03-12 Ford Global Technologies, Llc Probabilistic inference using weighted-integrals-and-sums-by-hashing for object tracking
CN105415372B (zh) * 2015-12-09 2017-04-12 常州汉迪机器人科技有限公司 一种安全空间约束下的多关节机器人轨迹规划方法
CN108445750B (zh) * 2017-02-16 2022-04-08 法拉第未来公司 用于车辆运动规划的方法和系统
US10948919B2 (en) * 2017-09-11 2021-03-16 Baidu Usa Llc Dynamic programming and gradient descent based decision and planning for autonomous driving vehicles
CN109154821B (zh) * 2017-11-30 2022-07-15 深圳市大疆创新科技有限公司 轨迹生成方法、装置和无人驾驶地面车辆
CN108908298B (zh) * 2018-07-23 2021-08-10 合肥工业大学 一种融合虚拟现实技术的主从式喷涂机器人示教系统
US20200160210A1 (en) * 2018-11-20 2020-05-21 Siemens Industry Software Ltd. Method and system for predicting a motion trajectory of a robot moving between a given pair of robotic locations
CN111985151A (zh) * 2020-07-20 2020-11-24 上海交通大学 一种基于速度特征的上甑轨迹提取方法
CN114227688B (zh) * 2021-12-29 2023-08-04 同济大学 一种基于曲线配准的示教轨迹学习方法
CN114995466B (zh) * 2022-08-02 2022-11-15 北京理工大学 一种多无人驾驶车辆三维时空运动走廊生成方法和系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102681465A (zh) * 2012-05-23 2012-09-19 浙江大学 具备运动规划功能的工业机器人示教规划器及其控制方法
WO2013164470A1 (en) * 2012-05-04 2013-11-07 Leoni Cia Cable Systems Sas Imitation learning method for a multi-axis manipulator

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013164470A1 (en) * 2012-05-04 2013-11-07 Leoni Cia Cable Systems Sas Imitation learning method for a multi-axis manipulator
CN102681465A (zh) * 2012-05-23 2012-09-19 浙江大学 具备运动规划功能的工业机器人示教规划器及其控制方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
A robot learning from demonstration framework to perform force based manipulation tasks;Leonel Rozo,Pablo Jimenez,Carme Torras;《Intelligent service robotics》;20130106;第2页第2栏第29-31行,第8页第1栏第45-49行,第10页第2栏第9-19行,图1 *
A Robot Learning from Demonstration Framework to Perform Force-based Manipulation Tasks;leonel Rozo,Pablo Jimenez,Carme Torras;《Intelligent service robotics》;20130106;第2页第2栏第29-31行,第8页第1栏第45-49行,第10页第2栏第9-19行,图1 *
Generalized time warping for multi-modal alignment of human motion;Feng Zhou,Fernando De la Torre;《computer vision and pattern recognition》;20120630;第1页第2栏18-19行,第3页第1栏17-37行 *
Learning Spatio-temporal Feature Templates from Demonstrations for Optimization based Trajectory Generation;X.Yin,Q.Chen;《International Conference on Systems Man and Cybernetics》;20151231;全文 *

Also Published As

Publication number Publication date
CN104635714A (zh) 2015-05-20

Similar Documents

Publication Publication Date Title
CN104635714B (zh) 一种基于时间‑空间特征的机器人示教轨迹生成方法
US20220152817A1 (en) Neural network adaptive tracking control method for joint robots
Calinon et al. Learning collaborative manipulation tasks by demonstration using a haptic interface
Shojaei Neural adaptive robust control of underactuated marine surface vehicles with input saturation
US20170001309A1 (en) Robotic training apparatus and methods
Saveriano et al. Incremental kinesthetic teaching of end-effector and null-space motion primitives
Mueller et al. Iterative learning of feed-forward corrections for high-performance tracking
Wang et al. Adaptive preview control for piecewise discrete-time systems using multiple models
Seo et al. Non-certainty equivalent adaptive control for robot manipulator systems
Jiang et al. Indirect iterative learning control for a discrete visual servo without a camera-robot model
Mishra et al. Robust task-space motion control of a mobile manipulator using a nonlinear control with an uncertainty estimator
Rijnen et al. On optimal trajectory tracking for mechanical systems with unilateral constraints
Berger et al. Inferring guidance information in cooperative human-robot tasks
KR20210012672A (ko) 인공지능 기반 로봇 매니퓰레이터의 자동 제어 시스템 및 방법
Lober et al. Multiple task optimization using dynamical movement primitives for whole-body reactive control
Yin et al. Learning nonlinear dynamical system for movement primitives
Zeestraten et al. Variable duration movement encoding with minimal intervention control
Liu et al. Modeling and controller design of cooperative robots in workspace sharing human-robot assembly teams
Desaraju et al. Leveraging experience for computationally efficient adaptive nonlinear model predictive control
Mavsar et al. Intention recognition with recurrent neural networks for dynamic human-robot collaboration
Joukov et al. Gaussian process based model predictive controller for imitation learning
Luque et al. Model predictive control for dynamic cloth manipulation: Parameter learning and experimental validation
Sakai et al. Casimir based impedance control
Yel et al. Fast run-time monitoring, replanning, and recovery for safe autonomous system operations
Yin et al. Trajectory generation with spatio-temporal templates learned from demonstrations

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant