CN111002289B - 机器人在线示教方法、装置、终端设备及存储介质 - Google Patents
机器人在线示教方法、装置、终端设备及存储介质 Download PDFInfo
- Publication number
- CN111002289B CN111002289B CN201911165713.2A CN201911165713A CN111002289B CN 111002289 B CN111002289 B CN 111002289B CN 201911165713 A CN201911165713 A CN 201911165713A CN 111002289 B CN111002289 B CN 111002289B
- Authority
- CN
- China
- Prior art keywords
- current
- robot
- coordinate
- online
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0081—Programme-controlled manipulators with master teach-in means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Manipulator (AREA)
- Numerical Control (AREA)
Abstract
本发明公开了一种机器人在线示教方法、装置、终端设备及存储介质,属于机器人智能技术领域。本发明通过提取人类操作员的当前三维骨架中的目标特征点的当前位置坐标,再将所述当前位置坐标映射到机器人的坐标系中,获得当前位姿坐标,然后根据前一位姿坐标和所述当前位姿坐标确定当前移动轨迹,最后根据所述当前移动轨迹控制机器人的移动,以使机器人跟随所述人类操作员的移动相应的轨迹,实现在线示教,避免了任何动作都需要人类操作员拖动机器人完成示教,提高了示教的过程效率,经验迁移的过程直观,并且减少了人类操作员的劳动负担。
Description
技术领域
本发明涉及机器人智能技术领域,特别涉及一种机器人在线示教方法、装置、终端设备及存储介质。
背景技术
随着工业水平的不断提高,机器人由于其成本低、柔性好、效率高等特点,其被广泛应用在如风电叶片、高铁白车身等大型复杂曲面磨抛工作中。机器人离线编程精度较高,但其严重依赖于现有模型,对于小批量大型复杂曲面的机器人加工,往往依赖于示教器编程。
但是传统示教方法,需要机器人完成的任何动作,都要由人类操作员拖动机器人末端完成示教的过程,例如:若需要机器人完成泡茶的动作,则需要人类操作员拖动机器人完成全套泡茶过程;若需要机器人完成切菜的动作,则需要人类操作员拖动机器人完成全套切菜过程,导致示教的过程效率低下。
发明内容
本发明要解决的技术问题是:如何提高示教的过程效率。
为了解决上述技术问题,本发明提供了一种机器人在线示教方法,所述机器人在线示教方法包括:
获取人类操作员的当前三维骨架;
提取所述当前三维骨架中的目标特征点的当前位置坐标;
将所述当前位置坐标映射到机器人的坐标系中,获得当前位姿坐标;
根据前一位姿坐标和所述当前位姿坐标确定当前移动轨迹;
根据所述当前移动轨迹控制机器人的移动,以使机器人跟随所述人类操作员的移动相应的轨迹,实现在线示教。
可选地,所述根据所述当前移动轨迹控制机器人的移动,以使机器人跟随所述人类操作员的移动相应的轨迹,实现在线示教,具体包括:
通过预设动态系统生成与所述当前移动轨迹对应的控制指令,并将所述控制指令发送至所述机器人,以使所述机器人跟随所述人类操作员的移动相应的轨迹,实现在线示教。
可选地,所述通过预设动态系统生成与所述当前移动轨迹对应的控制指令,并将所述控制指令发送至所述机器人,以使所述机器人跟随所述人类操作员的移动相应的轨迹,实现在线示教之前,所述机器人在线示教方法还包括:
在对机器人进行牵引时,通过安装在机器人上的三维力传感器采集多个接触力向量;
将所述接触力向量转换为样本移动轨迹;
根据所述样本移动轨迹对原始动态系统进行训练,以获得预设动态系统。
可选地,所述根据所述样本移动轨迹对原始动态系统进行训练,以获得预设动态系统,具体包括:
对所述样本移动轨迹进行初始化;
基于初始化后的样本移动轨迹通过最大期望算法预估高斯混合模型参数;
通过最小化优化函数的均方差对所述动态系统参数进行优化,获得目标参数;
通过所述目标参数对原始动态系统的参数进行拟合,以获得预设动态系统。
可选地,所述根据前一位姿坐标和所述当前位姿坐标确定移动轨迹之前,所述机器人在线示教方法还包括:
对所述当前位姿坐标进行适应性转换,获得适应性转换后的当前位姿坐标。
可选地,所述获取人类操作员的当前三维骨架,具体包括:
通过RGB-D相机获取人类操作员的当前三维骨架。
可选地,所述当前三维骨架中的目标特征点对应所述当前三维骨架中的手部。
本发明还公开了一种机器人在线示教装置,所述机器人在线示教装置包括:
骨架获取模块,用于获取人类操作员的当前三维骨架;
坐标提取模块,用于提取所述当前三维骨架中的目标特征点的当前位置坐标;
坐标映射模块,用于将所述当前位置坐标映射到机器人的坐标系中,获得当前位姿坐标;
轨迹获取模块,用于根据前一位姿坐标和所述当前位姿坐标确定当前移动轨迹;
移动控制模块,用于根据所述当前移动轨迹控制机器人的移动,以使机器人跟随所述人类操作员的移动相应的轨迹,实现在线示教。
本发明还公开了一种终端设备,所述终端设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的机器人在线示教程序,所述机器人在线示教程序配置为实现如上所述的机器人在线示教方法的步骤。
本发明还公开了一种计算机可读存储介质,所述计算机可读存储介质上存储有机器人在线示教程序,所述机器人在线示教程序被处理器执行时实现如上所述的机器人在线示教方法的步骤。
本发明通过提取人类操作员的当前三维骨架中的目标特征点的当前位置坐标,再将所述当前位置坐标映射到机器人的坐标系中,获得当前位姿坐标,然后根据前一位姿坐标和所述当前位姿坐标确定当前移动轨迹,最后根据所述当前移动轨迹控制机器人的移动,以使机器人跟随所述人类操作员的移动相应的轨迹,实现在线示教,避免了任何动作都需要人类操作员拖动机器人完成示教,提高了示教的过程效率,经验迁移的过程直观,并且减少了人类操作员的劳动负担。
附图说明
图1是本发明的机器人在线示教方法第一实施例的流程示意图;
图2是本发明实施例中当前三维骨架的示意图;
图3是本发明实施例中机器人和人类操作员的示意图;
图4是本发明的机器人在线示教方法第二实施例的流程示意图;
图5是本发明的机器人在线示教方法第三实施例的流程示意图;
图6为本发明一种机器人在线示教装置第一实施例的结构框图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
参照图1,图1为本发明机器人在线示教方法第一实施例的流程示意图。
在第一实施例中,所述机器人在线示教方法包括以下步骤:
S10:获取人类操作员的当前三维骨架。
需要说明的是,为便于获取当前三维骨架,本实施例中,可通过RGB-D相机获取人类操作员的当前三维骨架,所述当前三维骨架可参照图2所示。
S20:提取所述当前三维骨架中的目标特征点的当前位置坐标。
可理解的是,图2中的黑点即为三维骨架中的特征点,通常来说,可根据实际情况来从特征点中选择需要进行控制的目标特征点,例如:在需要对所述机器人的手部进行控制时,所述当前三维骨架中的目标特征点即可对应所述当前三维骨架中的手部;在需要对所述机器人的腿部进行控制时,所述当前三维骨架中的目标特征点即可对应所述当前三维骨架中的腿部,当然,还可能会涉及到需要对所述机器人的多个部位均进行控制的情况,此时,所述当前三维骨架中的目标特征点即可对应所述当前三维骨架中需要控制的多个部位。
在具体实现中,由于所述当前三维骨架是通过RGB-D相机获得,而RGB-D相机所在的位置可以确定,因此,根据目标特征点在所述当前三维骨架中所处的位置即可确定所述目标特征点的当前位置坐标,故而,可提取所述当前三维骨架中的目标特征点的当前位置坐标。
S30:将所述当前位置坐标映射到机器人的坐标系中,获得当前位姿坐标。
需要说明的是,参照图3,人类操作员301和机器人302通常不处于同一坐标系,RGB-D相机303可安装于机器人上,故而,对于所述当前位置坐标而言,其与机器人302并不处于同一坐标系,无法直接采用,因此,本实施例中,需要将所述当前位置坐标映射到机器人的坐标系中,获得当前位姿坐标。
S40:根据前一位姿坐标和所述当前位姿坐标确定当前移动轨迹。
可理解的是,对于位姿坐标的获取而言,其属于一个持续的过程,当前位姿坐标即为当前时刻获得的位姿坐标,故而,在当前时刻之前也会存在位姿坐标,本实施例中,可根据前一位姿坐标和所述当前位姿坐标确定当前移动轨迹。
在具体实现中,由于人体与机器人的躯干大小可能存在差异,又或是与人类操作员之间的位置方向不同,故而,还需要对所述当前位姿坐标进行适应性转换,获得适应性转换后的当前位姿坐标。
在对所述当前位姿坐标进行适应性转换时,可通过下式:
PR=RpPM
其中,PR表示适应性转换后的当前位姿坐标,Rp表示适应性转换的转换矩PR阵=,RpPM表示适应性转换前的当前位姿坐标。
S50:根据所述当前移动轨迹控制机器人的移动,以使机器人跟随所述人类操作员的移动相应的轨迹,实现在线示教。
需要说明的是,为了便于对机器人进行控制,本实施例中,可通过预设动态系统生成与所述当前移动轨迹对应的控制指令,并将所述控制指令发送至所述机器人,以使所述机器人跟随所述人类操作员的移动相应的轨迹,实现在线示教。
可理解的是,所述动态系统,通俗来讲就是一个自动化系统,假设机器人要从A点运动到B点时,理论上有无穷条路径,正常情况下,人们规划路径时需要对其进行规划中间路点怎么走,但是动态系统不需要,对于动态系统只需要告诉机器人,它现在的位置和目标位置,他就会自动往下一时间时刻规划一个步长,不是规划到目标点位置,而是规划到下一个步长,通俗讲也就是下一个时刻机器人应该处于的位置,这样目标点在变化时,机器人也能快速响应,动态地进行下一步的规划。
本实施例通过提取人类操作员的当前三维骨架中的目标特征点的当前位置坐标,再将所述当前位置坐标映射到机器人的坐标系中,获得当前位姿坐标,然后根据前一位姿坐标和所述当前位姿坐标确定当前移动轨迹,最后根据所述当前移动轨迹控制机器人的移动,以使机器人跟随所述人类操作员的移动相应的轨迹,实现在线示教,避免了任何动作都需要人类操作员拖动机器人完成示教,提高了示教的过程效率,经验迁移的过程直观,并且减少了人类操作员的劳动负担。
参考图4,图4为本发明一种机器人在线示教方法第二实施例的流程示意图。
基于上述第一实施例,本实施例机器人在线示教方法中,步骤S50之前,所述机器人在线示教方法还包括:
S401:在对机器人进行牵引时,通过安装在机器人上的三维力传感器采集多个接触力向量。
可理解的是,对机器人进行牵引时,可由人类操作员对机器人进行自由牵引,当然,也可通过其他设备对其进行牵引,本实施例对此不加以限制。
在具体实现中,由于预设动态系统需要一些用于训练的样本移动轨迹,故而,本实施例中,可对机器人进行牵引,从而获得多个接触力向量,例如:可牵引机器人的左手部进行横向、纵向等方向的移动,本实施例中,可对机器人进行九次牵引。
S402:将所述接触力向量转换为样本移动轨迹。
需要说明的是,在对所述接触力向量转换为样本移动轨迹时,可通过空间阻抗控制方程来实现,所述空间阻抗控制方程为,
可理解的是,由于惯性矩阵、阻尼矩阵和刚度矩阵均为固定值,故而,在采集接触力向量后可通过空间阻抗控制方程将其转化为对应的位移向量,即样本移动轨迹。
S403:根据所述样本移动轨迹对原始动态系统进行训练,以获得预设动态系统。
可理解的是,在根据所述样本移动轨迹对原始动态系统进行训练,即可获得预设动态系统。
参考图5,图5为本发明一种机器人在线示教方法第三实施例的流程示意图。
基于上述第一实施例,本实施例机器人在线示教方法中,步骤S403具体包括:
S4031:对所述样本移动轨迹进行初始化。
需要说明的是,可对所有样本移动轨迹进行初始化,由于样本移动轨迹存在一定的噪声,所以需要对样本移动轨迹进行平滑化,并将样本移动轨迹进行平移,使得轨迹的终点都为原点。
S4032:基于初始化后的样本移动轨迹通过最大期望算法预估高斯混合模型参数。
其中,表示初始化后的样本移动轨迹,表示由EM算法得到的初始化的高斯混合模型的影响因子、均值和协方差矩阵,K表示高斯成分(Gaussian Component)的个数,Pk(k)是每个高斯成分的先验概率,P(ξ|k)是条件概率分布函数对应第k个高斯函数。
S4033:通过最小化优化函数的均方差对所述动态系统参数进行优化,获得目标参数。
在具体实现中,在通过最小化优化函数的均方差对所述高斯模型参数进行优化时,可参照下式:
其中:0<hk(ξ)≤1是连续且连续可微分的函数。P是对称正定矩阵,A(θ)状态空间矩阵对调度参数和状态向量的仿射依赖关系,D代表的是机器人末端状态的维度。
其中,Ak∈RD×D实际上是一个仿射变换矩阵,映射关系主要是从位置空间映射到速度空间,也可理解为当前状态到下一状态的转换关系,hk(ξ)∈R1×1则是分配系数,因为高斯混合模型对于空间中的点进行建模,有多个高斯成分存在,一个高斯成分对应一个仿射变换矩阵Ak∈RD×D,通俗理解:通过位置量计算分配系数hk(ξ)∈R1×1,相当于得到当前位置点哪个高斯成分起主要作用(因为进行了归一化,即这里的K表示高斯模型的总数),高斯成分又对应着对应的仿射变换矩阵,分配系数决定这些因子的仿射变换矩阵在最终的仿射变换矩阵中的所占的成分。
S4034:通过所述目标参数对原始动态系统的参数进行拟合,以获得预设动态系统。
需要说明的是,为便于实现,所述步骤S50可通过下式来确定
在具体实现中,所述控制指令即为包括所述待移动轨迹xR的指令。
参考图6,图6为本发明一种机器人在线示教装置第一实施例的结构框图。
所述机器人在线示教装置包括:
骨架获取模块601,用于获取人类操作员的当前三维骨架;
坐标提取模块602,用于提取所述当前三维骨架中的目标特征点的当前位置坐标;
坐标映射模块603,用于将所述当前位置坐标映射到机器人的坐标系中,获得当前位姿坐标;
轨迹获取模块604,用于根据前一位姿坐标和所述当前位姿坐标确定当前移动轨迹;
移动控制模块605,用于根据所述当前移动轨迹控制机器人的移动,以使机器人跟随所述人类操作员的移动相应的轨迹,实现在线示教。
本实施例中的机器人在线示教装置可实现上述方法的功能,在此不再赘述。
本实施例通过提取人类操作员的当前三维骨架中的目标特征点的当前位置坐标,再将所述当前位置坐标映射到机器人的坐标系中,获得当前位姿坐标,然后根据前一位姿坐标和所述当前位姿坐标确定当前移动轨迹,最后根据所述当前移动轨迹控制机器人的移动,以使机器人跟随所述人类操作员的移动相应的轨迹,实现在线示教,避免了任何动作都需要人类操作员拖动机器人完成示教,提高了示教的过程效率,经验迁移的过程直观,并且减少了人类操作员的劳动负担。
此外,本发明实施例还提出一种计算机可读存储介质,所述计算机可读存储介质上存储有机器人在线示教程序,所述机器人在线示教程序被处理器执行时实现如下操作:
获取人类操作员的当前三维骨架;
提取所述当前三维骨架中的目标特征点的当前位置坐标;
将所述当前位置坐标映射到机器人的坐标系中,获得当前位姿坐标;
根据前一位姿坐标和所述当前位姿坐标确定当前移动轨迹;
根据所述当前移动轨迹控制机器人的移动,以使机器人跟随所述人类操作员的移动相应的轨迹,实现在线示教。
本实施例中的机器人在线示教程序被处理器执行时,可实现上述方法的功能,在此不再赘述。
此外,本发明实施例还提出一种终端设备,所述终端设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的机器人在线示教程序,所述机器人在线示教程序配置为实现如下操作:
获取人类操作员的当前三维骨架;
提取所述当前三维骨架中的目标特征点的当前位置坐标;
将所述当前位置坐标映射到机器人的坐标系中,获得当前位姿坐标;
根据前一位姿坐标和所述当前位姿坐标确定当前移动轨迹;
根据所述当前移动轨迹控制机器人的移动,以使机器人跟随所述人类操作员的移动相应的轨迹,实现在线示教。
本实施例中的机器人在线示教程序被处理器执行时,可实现上述方法的功能,在此不再赘述。
以上实施方式仅用于说明本发明,而并非对本发明的限制,有关技术领域的普通技术人员,在不脱离本发明的精神和范围的情况下,还可以做出各种变化和变型,因此所有等同的技术方案也属于本发明的范畴,本发明的专利保护范围应由权利要求限定。
Claims (7)
1.一种机器人在线示教方法,其特征在于,所述机器人在线示教方法包括:
获取人类操作员的当前三维骨架;
提取所述当前三维骨架中的目标特征点的当前位置坐标;
将所述当前位置坐标映射到机器人的坐标系中,获得当前位姿坐标;
根据前一位姿坐标和所述当前位姿坐标确定当前移动轨迹;
根据所述当前移动轨迹控制机器人的移动,通过预设动态系统生成与所述当前移动轨迹对应的控制指令,并将所述控制指令发送至所述机器人,在对机器人进行牵引时,通过安装在机器人上的三维力传感器采集多个接触力向量;将所述接触力向量转换为样本移动轨迹;根据所述样本移动轨迹对原始动态系统进行训练,对所述样本移动轨迹进行初始化;基于初始化后的样本移动轨迹通过最大期望算法预估高斯混合模型参数;通过最小化优化函数的均方差对所述动态系统参数进行优化,获得目标参数;通过所述目标参数对原始动态系统的参数进行拟合以获得预设动态系统,以使机器人跟随所述人类操作员的移动相应的轨迹,实现在线示教。
2.如权利要求1所述的机器人在线示教方法,其特征在于,所述根据前一位姿坐标和所述当前位姿坐标确定移动轨迹之前,所述机器人在线示教方法还包括:
对所述当前位姿坐标进行适应性转换,获得适应性转换后的当前位姿坐标。
3.如权利要求1所述的机器人在线示教方法,其特征在于,所述获取人类操作员的当前三维骨架,具体包括:
通过RGB-D相机获取人类操作员的当前三维骨架。
4.如权利要求1~3中任一项所述的机器人在线示教方法,其特征在于,所述当前三维骨架中的目标特征点对应所述当前三维骨架中的手部。
5.一种机器人在线示教装置,其特征在于,用于实现如权利要求1-4中任一项所述机器人在线示教方法,包括:
骨架获取模块,用于获取人类操作员的当前三维骨架;
坐标提取模块,用于提取所述当前三维骨架中的目标特征点的当前位置坐标;
坐标映射模块,用于将所述当前位置坐标映射到机器人的坐标系中,获得当前位姿坐标;
轨迹获取模块,用于根据前一位姿坐标和所述当前位姿坐标确定当前移动轨迹;
移动控制模块,用于根据所述当前移动轨迹控制机器人的移动,以使机器人跟随所述人类操作员的移动相应的轨迹,实现在线示教。
6.一种终端设备,其特征在于,所述终端设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的机器人在线示教程序,所述机器人在线示教程序配置为实现如权利要求1至4中任一项所述的机器人在线示教方法的步骤。
7.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有机器人在线示教程序,所述机器人在线示教程序被处理器执行时实现如权利要求1至4任一项所述的机器人在线示教方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911165713.2A CN111002289B (zh) | 2019-11-25 | 2019-11-25 | 机器人在线示教方法、装置、终端设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911165713.2A CN111002289B (zh) | 2019-11-25 | 2019-11-25 | 机器人在线示教方法、装置、终端设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111002289A CN111002289A (zh) | 2020-04-14 |
CN111002289B true CN111002289B (zh) | 2021-08-17 |
Family
ID=70112695
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911165713.2A Active CN111002289B (zh) | 2019-11-25 | 2019-11-25 | 机器人在线示教方法、装置、终端设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111002289B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111823215A (zh) * | 2020-06-08 | 2020-10-27 | 深圳市越疆科技有限公司 | 一种工业机器人的同步控制方法及装置 |
CN113146634A (zh) * | 2021-04-25 | 2021-07-23 | 达闼机器人有限公司 | 机器人姿态的控制方法、机器人及存储介质 |
CN115781635A (zh) * | 2022-11-04 | 2023-03-14 | 北京镁伽机器人科技有限公司 | 机器人示教方法以及装置、电子设备以及存储介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04242401A (ja) * | 1991-01-17 | 1992-08-31 | Kobe Steel Ltd | 産業用ロボットの教示方式 |
JPH08314527A (ja) * | 1995-05-22 | 1996-11-29 | Ricoh Elemex Corp | ロボットの動作教示システム |
CN105500370A (zh) * | 2015-12-21 | 2016-04-20 | 华中科技大学 | 一种基于体感技术的机器人离线示教编程系统及方法 |
CN108115671A (zh) * | 2016-11-26 | 2018-06-05 | 沈阳新松机器人自动化股份有限公司 | 基于3d视觉传感器的双臂机器人控制方法及系统 |
CN108274448A (zh) * | 2018-01-31 | 2018-07-13 | 佛山智能装备技术研究院 | 一种人体交互的机器人示教方法及示教系统 |
CN108427282A (zh) * | 2018-03-30 | 2018-08-21 | 华中科技大学 | 一种基于示教学习的机器人逆运动学求解方法 |
CN109108970A (zh) * | 2018-08-22 | 2019-01-01 | 南通大学 | 一种基于骨骼节点信息的交互式机械臂控制方法 |
CN109108942A (zh) * | 2018-09-11 | 2019-01-01 | 武汉科技大学 | 基于视觉实时示教与自适应dmps的机械臂运动控制方法和系统 |
CN109571487A (zh) * | 2018-09-12 | 2019-04-05 | 河南工程学院 | 一种基于视觉的机器人演示学习方法 |
CN109848983A (zh) * | 2018-12-10 | 2019-06-07 | 华中科技大学 | 一种高顺应性人引导机器人协同作业的方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9626566B2 (en) * | 2014-03-19 | 2017-04-18 | Neurala, Inc. | Methods and apparatus for autonomous robotic control |
-
2019
- 2019-11-25 CN CN201911165713.2A patent/CN111002289B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04242401A (ja) * | 1991-01-17 | 1992-08-31 | Kobe Steel Ltd | 産業用ロボットの教示方式 |
JPH08314527A (ja) * | 1995-05-22 | 1996-11-29 | Ricoh Elemex Corp | ロボットの動作教示システム |
CN105500370A (zh) * | 2015-12-21 | 2016-04-20 | 华中科技大学 | 一种基于体感技术的机器人离线示教编程系统及方法 |
CN108115671A (zh) * | 2016-11-26 | 2018-06-05 | 沈阳新松机器人自动化股份有限公司 | 基于3d视觉传感器的双臂机器人控制方法及系统 |
CN108274448A (zh) * | 2018-01-31 | 2018-07-13 | 佛山智能装备技术研究院 | 一种人体交互的机器人示教方法及示教系统 |
CN108427282A (zh) * | 2018-03-30 | 2018-08-21 | 华中科技大学 | 一种基于示教学习的机器人逆运动学求解方法 |
CN109108970A (zh) * | 2018-08-22 | 2019-01-01 | 南通大学 | 一种基于骨骼节点信息的交互式机械臂控制方法 |
CN109108942A (zh) * | 2018-09-11 | 2019-01-01 | 武汉科技大学 | 基于视觉实时示教与自适应dmps的机械臂运动控制方法和系统 |
CN109571487A (zh) * | 2018-09-12 | 2019-04-05 | 河南工程学院 | 一种基于视觉的机器人演示学习方法 |
CN109848983A (zh) * | 2018-12-10 | 2019-06-07 | 华中科技大学 | 一种高顺应性人引导机器人协同作业的方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111002289A (zh) | 2020-04-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111002289B (zh) | 机器人在线示教方法、装置、终端设备及存储介质 | |
CN110026987B (zh) | 一种机械臂抓取轨迹的生成方法、装置、设备及存储介质 | |
CN109658413B (zh) | 一种机器人目标物体抓取位置检测的方法 | |
CN107886528B (zh) | 基于点云的配电线路作业场景三维重建方法 | |
CN110076772B (zh) | 一种机械臂的抓取方法及装置 | |
CN109240091B (zh) | 一种基于强化学习的水下机器人控制方法及其进行跟踪的控制方法 | |
CN105500370B (zh) | 一种基于体感技术的机器人离线示教编程系统及方法 | |
CN110000795A (zh) | 一种视觉伺服控制的方法、系统及设备 | |
CN110070565B (zh) | 一种基于图像叠加的船舶轨迹预测方法 | |
CN113392584B (zh) | 基于深度强化学习和方向估计的视觉导航方法 | |
US20130243331A1 (en) | Information processing device, information processing method, and program | |
CN108427282A (zh) | 一种基于示教学习的机器人逆运动学求解方法 | |
CN109508707B (zh) | 基于单目视觉的机器人稳定抓取物体的抓取点获取方法 | |
Kohn et al. | Towards a real-time environment reconstruction for VR-based teleoperation through model segmentation | |
CN111241940B (zh) | 一种机器人的远程控制方法、人体边界框确定方法及系统 | |
CN116249607A (zh) | 用于机器人抓取三维物体的方法和装置 | |
CN114851209A (zh) | 一种基于视觉的工业机器人工作路径规划优化方法及系统 | |
CN110470298B (zh) | 一种基于滚动时域的机器人视觉伺服位姿估计方法 | |
DE102020214300A1 (de) | Vorrichtung und verfahren zum trainieren eines maschinellen lernmodells zum erkennen einer objekttopologie eines objekts aus einem bild des objekts | |
CN111452039A (zh) | 动态系统下机器人姿态调整方法、装置、电子设备及介质 | |
CN115862074A (zh) | 人体指向确定、屏幕控制方法、装置及相关设备 | |
CN115958606A (zh) | 机械臂避障轨迹规划方法、装置和电子设备 | |
CN112428263B (zh) | 机械臂控制方法、装置及聚类模型训练方法 | |
CN111489440B (zh) | 对非标零件的三维扫描建模方法 | |
CN109934155B (zh) | 一种基于深度视觉的协作机器人手势识别方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |