CN109079787A - 基于神经网络的非刚性机器人自动手眼标定方法 - Google Patents
基于神经网络的非刚性机器人自动手眼标定方法 Download PDFInfo
- Publication number
- CN109079787A CN109079787A CN201810948979.3A CN201810948979A CN109079787A CN 109079787 A CN109079787 A CN 109079787A CN 201810948979 A CN201810948979 A CN 201810948979A CN 109079787 A CN109079787 A CN 109079787A
- Authority
- CN
- China
- Prior art keywords
- neural network
- robot
- matrix
- coordinate system
- ndi
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1692—Calibration of manipulator
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Feedback Control In General (AREA)
- Manipulator (AREA)
Abstract
本发明提供了一种基于神经网络的非刚性机器人自动手眼标定方法,包括坐标系标定步骤、NDI坐标标定步骤、点集获取步骤、非全连接神经网络构建步骤、非全连接神经网络求解步骤以及参数最小化步骤;本发明通过构建神经网络并求解最有权重的方法,简单、快速、高效的完成机器人手眼标定,无需多步分别标定不同的坐标系。
Description
技术领域
本发明涉及机器人手眼标定领域,具体地,涉及一种基于神经网络的非刚性机器人自动手眼标定方法。
背景技术
随着科技的不断进步,机器人的应用领域愈加广泛,一些特定领域中还开发了特殊应用的机械臂等。但不论是机械臂还是机器人,都面临着手眼标定的问题,即视觉系统的坐标与末端执行器的坐标基准不同,这就导致了机器人视觉系统采集到的坐标数据无法直接被末端执行器接收。
因此需要一种方法将末端执行器的坐标和运动参数转换为视觉系统能够读取的信号,通常称为手眼标定算法。现有的手眼标定算法通常较为复杂,如专利文献CN104354167A公开的一种机器人手眼标定方法及装置,机器人包含机械前臂,机械前臂上设置有第一旋转轴,且机械前臂上安装有第一相机,第一旋转轴上安装有第二相机,第二相机下放置有定位圆;其中,所述手眼标定方法通过第二相机采集定位圆图像拟合圆心,控制第一旋转轴的轴心对准拟合圆心,获取第一旋转轴的机械坐标,并控制第一旋转轴在预设空间范围内多次平移,获取第一相机在每一次平移后采集的定位圆图像,进而确定预设运动模型中模型参数的值,完成机器人的手眼标定。
类似的复杂手眼标定方法对机器人的性能上限、时间分辨率以及控制精度均有着不利的影响。
发明内容
针对现有技术中的缺陷,本发明的目的是提供一种基于神经网络的非刚性机器人自动手眼标定方法。
根据本发明提供的一种基于神经网络的非刚性机器人自动手眼标定方法,包括如下步骤:
坐标系标定步骤:以位于机器人主体的任一固定点作为原点建立空间直角坐标系并记为机器人坐标系,以位于红外定位装置NDI主体的任一固定点作为原点建立空间直角坐标系并记为NDI坐标系,以工具上的任一固定点作为原点建立空间直角坐标系并记为TCP坐标系;其中,所述工具设置在机器人上,TCP的位置和方向能够被机器人记录并输出;
NDI坐标标定步骤:标定NDI坐标系下工具尖端的位置;
点集获取步骤:采集m组点集,其中m为不小于8的整数;每组点集分别包括NDI坐标系下工具尖端的位置矩阵Pndi和获取时刻机器人坐标系下TCP的位置旋转矩阵Mrobot,并且:
将TCP坐标系下工具尖端的位置矩阵记为Probot,将机器人坐标系转换到NDI坐标系的转换矩阵记为Mrobot3ndi,并且:
则上述矩阵满足第一条件,所述第一条件为:
即:
非全连接神经网络构建步骤:根据第一条件构建非全连接神经网络。
优选地,本发明提供的的基于神经网络的非刚性机器人自动手眼标定方法,还包括如下步骤:
非全连接神经网络求解步骤:求解非全连接神经网络的前向传播;
参数最小化步骤:利用非全连接神经网络的反向传播最小化非全连接神经网络求解步骤的结果,得到最优解的权重即为机器人坐标系转换到NDI坐标系的转换矩阵。
优选地,所述非全连接神经网络构建步骤中,构建的非全连接神经网络包括输入层、第一权重层、第二权重层以及输出层;
所述输入层包括m组输入数据,每一组输入数据分别为对应的Mrobot矩阵列排列得到的16×1的矩阵,即输入层包括一个m×16的第一矩阵A1;
所述第一权重层的权重包括Probot,第一权重层为共享权重层;
所述第二权重层的权重包括4×4全联通神经网络,即Mrobot2ndi,第二权重层为隐藏层;
所述输出层包括Pndi。
优选地,所述非全连接神经网络求解步骤包括如下子步骤:
步骤41:以m为神经网络中的batchsize,将输入层的m×16的第一矩阵A1转换为m×4×4的第二矩阵A2;
步骤42:计算隐藏层m×4的第三矩阵A3:
A3=A2×Probot
即:
步骤43:计算第四矩阵A4:
A4=Mrobot2ndi×A3′
即:
步骤44:计算deltaY:
deltaY=(Mrobot2ndi′×A3′-y′)′
其中,上标′表示矩阵的转置,y为Pndi的集合,deltaY为m×4的矩阵;
步骤45:计算第五矩阵A5:
A5=deltaY×deltaY′
步骤46:计算代价函数costfunction:
其中,tr为第五矩阵A5的迹。
优选地,所述参数最小化步骤包括如下子步骤:
步骤51:计算delta3和deltaY:
delta3=deltaY=(Mrobot2ndi′×A3′-y′)′
其中,delta3为m×4的矩阵;
步骤52:计算第二权重层权重的偏导数grad2:
其中,grad2为4×4的矩阵;
步骤53:计算第二权重层的delta值delta2:
delta2=delta3×Mrobot2ndi′
步骤54:分别计算Px、Py以及Pz三个参数的偏导gradPx、gradPy以及gradPz;
步骤55:设置常数1的偏导grad1为0:
grad1=0
步骤56:根据以上计算结果,通过牛顿法/和或梯度下降法,解出非全连接神经网络的最优解,该最优解的权重即为机械臂末端坐标系下尖端的坐标和从机械臂到NDI坐标系的矩阵变换。
与现有技术相比,本发明具有如下的有益效果:
1、本发明提供的基于神经网络的非刚性机器人自动手眼标定方法具有信息采集简单快速的优点;
2、本发明提供的基于神经网络的非刚性机器人自动手眼标定方法计算过程简单快速,无需多步分别标定不同的坐标系。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为本发明提供的基于神经网络的非刚性机器人自动手眼标定方法中非全连接神经网络的示意图
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变化和改进。这些都属于本发明的保护范围。
根据本发明提供的一种基于神经网络的非刚性机器人自动手眼标定方法,包括如下步骤:
坐标系标定步骤:以位于机器人主体的任一固定点作为原点建立空间直角坐标系并记为机器人坐标系,以位于红外定位装置NDI主体的任一固定点作为原点建立空间直角坐标系并记为NDI坐标系,以工具上的任一固定点作为原点建立空间直角坐标系并记为TCP坐标系;其中,所述工具设置在机器人上,TCP的位置和方向能够被机器人记录并输出;
NDI坐标标定步骤:标定NDI坐标系下工具尖端的位置;
点集获取步骤:采集m组点集,其中m为不小于8的整数;每组点集分别包括NDI坐标系下工具尖端的位置矩阵Pndi和获取时刻机器人坐标系下TCP的位置旋转矩阵Mrobot,并且:
将TCP坐标系下工具尖端的位置矩阵记为Probot,将机器人坐标系转换到NDI坐标系的转换矩阵记为Mrobot2ndi,并且:
则上述矩阵满足第一条件,所述第一条件为:
Pndi=Mrobot2ndi×Mrobot×Probot
即:
非全连接神经网络构建步骤:根据第一条件构建非全连接神经网络。
优选地,本发明提供的的基于神经网络的非刚性机器人自动手眼标定方法,还包括如下步骤:
非全连接神经网络求解步骤:求解非全连接神经网络的前向传播;
参数最小化步骤:利用非全连接神经网络的反向传播最小化非全连接神经网络求解步骤的结果,得到最优解的权重即为机器人坐标系转换到NDI坐标系的转换矩阵。
所述非全连接神经网络构建步骤中,构建的非全连接神经网络包括输入层、第一权重层、第二权重层以及输出层;
所述输入层包括m组输入数据,每一组输入数据分别为对应的Mrobot矩阵列排列得到的16×1的矩阵,即输入层包括一个m×16的第一矩阵A1;
所述第一权重层的权重包括Probot,第一权重层为共享权重层;
所述第二权重层的权重包括4×4全联通神经网络,即Mrobot2ndi,第二权重层为隐藏层;
所述输出层包括Pndi。
具体地,所述非全连接神经网络求解步骤包括如下子步骤:
步骤41:以m为神经网络中的batchsize,将输入层的m×16的第一矩阵A1转换为m×4×4的第二矩阵A2;
步骤42:计算隐藏层m×4的第三矩阵A3:
A3=A2×Probot
即:
步骤43:计算第四矩阵A4:
A4=Mrobot2ndi×A3′
即:
步骤44:计算deltaY:
deltaY=(Mrobot2ndi′×A3′-y′)′
其中,上标′表示矩阵的转置,y为Pndi的集合,deltaY为m×4的矩阵;
步骤45:计算第五矩阵A5:
A5=deltaY×deltaY′
步骤46:计算代价函数costfunction:
其中,tr为第五矩阵A5的迹;且A1、A2、A3、A4以及A5本质上为三维数组。
所述参数最小化步骤包括如下子步骤:
步骤51:计算delta3和deltaY:
delta3=deltaY=(Mrobot2ndi′×A3′-y′)′
其中,delta3为m×4的矩阵;
步骤52:计算第二权重层权重的偏导数grad2:
其中,grad2为4×4的矩阵;
步骤53:计算第二权重层的delta值delta2:
delta2=delta3×Mrobot2ndi′
步骤54:分别计算Px、Py以及Pz三个参数的偏导gradPx、gradPy以及gradPz;
步骤55:设置常数1的偏导grad1为0:
grad1=0
步骤56:根据以上计算结果,通过牛顿法/和或梯度下降法,解出非全连接神经网络的最优解,该最优解的权重即为机械臂末端坐标系下尖端的坐标和从机械臂到NDI坐标系的矩阵变换。
更具体地,本发明提供的基于神经网络的非刚性机器人自动手眼标定方法,能够适用于包括红外定位装置(NDI)和机械臂(URRobot)的系统,其中红外定位装置可以根据反光球来定位工具在空间中的位置和方向,机械臂可以提供机器人TCP末端的位置和方向;
进一步地,点集获取步骤结束后,存在M11至M4416个未知数,加上Px、Py以及Pz3个未知数,共计19个未知数,其余均为有多组数据,如果展开后可知为二次非线性方程组,求解困难,故构建神经网络。非全连接神经网络构建步骤结束后,传统的手眼标定问题事实上就转变为了求解神经网络最优权重的问题。参数最小化步骤中,为了优化costfunction,要求解costfunction对每个变量的偏导数。由于第一权重层权重参数共享且非连通的关系,求解反向传播中略有不同。第二权重层权重的偏导求法则与传统算法没有不同。
更进一步地,对本申请中TCP相关信息和batchsize相关信息说明如下:
为了描述一个刚体在空间的位姿,需在物体上固连一个坐标系,然后确定该坐标系位姿(原点位置和三个坐标轴姿态),即需要6个自由度来完整描述该刚体的位姿。对于工业机器人,需要在末端法盘安装工具(Tool)来进行作业。为了确定该工具(Tool)的位姿,在Tool上绑定一个工具坐标系TCS(Tool Coordinate System),TCS的原点就是TCP(ToolCenter Point,工具中心点)。
batchsize代表在做随机梯度下降时,使用批梯度的数量,即每次使用batchsize个数据来更新参数。
本领域技术人员知道,除了以纯计算机可读程序代码方式实现本发明提供的系统、装置及其各个模块以外,完全可以通过将方法步骤进行逻辑编程来使得本发明提供的系统、装置及其各个模块以逻辑门、开关、专用集成电路、可编程逻辑控制器以及嵌入式微控制器等的形式来实现相同程序。所以,本发明提供的系统、装置及其各个模块可以被认为是一种硬件部件,而对其内包括的用于实现各种程序的模块也可以视为硬件部件内的结构;也可以将用于实现各种功能的模块视为既可以是实现方法的软件程序又可以是硬件部件内的结构。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变化或修改,这并不影响本发明的实质内容。在不冲突的情况下,本申请的实施例和实施例中的特征可以任意相互组合。
Claims (6)
1.一种基于神经网络的非刚性机器人自动手眼标定方法,其特征在于,包括如下步骤:
坐标系标定步骤:以位于机器人主体的任一固定点作为原点建立空间直角坐标系并记为机器人坐标系,以位于红外定位装置NDI主体的任一固定点作为原点建立空间直角坐标系并记为NDI坐标系,以工具上的任一固定点作为原点建立空间直角坐标系并记为TCP坐标系;其中,所述工具设置在机器人上,TCP的位置和方向能够被机器人记录并输出。
2.根据权利要求1所述的基于神经网络的非刚性机器人自动手眼标定方法,其特征在于,还包括:
NDI坐标标定步骤:标定NDI坐标系下工具尖端的位置;
点集获取步骤:采集m组点集,其中m为不小于8的整数;每组点集分别包括NDI坐标系下工具尖端的位置矩阵Pndi和获取时刻机器人坐标系下TCP的位置旋转矩阵Mrobot,并且:
将TCP坐标系下工具尖端的位置矩阵记为Probot,将机器人坐标系转换到NDI坐标系的转换矩阵记为Mrobot2ndi,并且:
则上述矩阵满足第一条件,所述第一条件为:
Pndi=Mrobot2ndi×Mrobot×Probot
即:
非全连接神经网络构建步骤:根据第一条件构建非全连接神经网络;
所述基于神经网络的非刚性机器人自动手眼标定方法,还包括如下步骤:
非全连接神经网络求解步骤:求解非全连接神经网络的前向传播;
参数最小化步骤:利用非全连接神经网络的反向传播最小化非全连接神经网络求解步骤的结果,得到最优解的权重即为机器人坐标系转换到NDI坐标系的转换矩阵。
3.根据权利要求1或2所述的基于神经网络的非刚性机器人自动手眼标定方法,其特征在于,所述非全连接神经网络构建步骤中,构建的非全连接神经网络包括输入层、第一权重层、第二权重层以及输出层;
所述输入层包括m组输入数据,每一组输入数据分别为对应的Mrobot矩阵列排列得到的16×1的矩阵,即输入层包括一个m×16的第一矩阵A1;
所述第一权重层的权重包括Probot,第一权重层为共享权重层;
所述第二权重层的权重包括4×4全联通神经网络,即Mrobot2ndi,第二权重层为隐藏层;
所述输出层包括Pndi。
4.根据权利要求2所述的基于神经网络的非刚性机器人自动手眼标定方法,其特征在于,所述非全连接神经网络求解步骤包括如下子步骤:
步骤41:以m为神经网络中的batchsize,将输入层的m×16的第一矩阵A1转换为m×4×4的第二矩阵A2;
步骤42:计算隐藏层m×4的第三矩阵A3:
A3=A2×Probot
即:
步骤43:计算第四矩阵A4:
A4=Mrobot2ndi×A3′
即:
步骤44:计算deltaY:
deltaY=(Mrobot2ndi′×A3′-y′)′
其中,上标′表示矩阵的转置,y为Pndi的集合,deltaY为m×4的矩阵;
步骤45:计算第五矩阵A5:
A5=deltaY×deltaY′
步骤46:计算代价函数costfunction:
其中,tr为第五矩阵A5的迹。
5.根据权利要求2所述的基于神经网络的非刚性机器人自动手眼标定方法,其特征在于,所述参数最小化步骤包括如下子步骤:
步骤51:计算delta3和deltaY:
delta3=deltaY=(Mrobot2ndi′×A3′-y′)′
其中,delta3为m×4的矩阵;
步骤52:计算第二权重层权重的偏导数grad2:
其中,grad2为4×4的矩阵;
步骤53:计算delta2:
delta2=delta3×Mrobot2ndi′
步骤54:分别计算Px、Py以及Pz三个参数的偏导gradPx、gradPy以及gradPz;
步骤55:设置常数1的偏导grad1为0:
grad1=0
步骤56:根据以上计算结果,通过牛顿法/和或梯度下降法,解出非全连接神经网络的最优解,该最优解的权重即为机械臂末端坐标系下尖端的坐标和从机械臂到NDI坐标系的矩阵变换。
6.一种存储有计算机程序的计算机可读存储介质,其特征在于,所述计算机程序被处理器执行时实现权利要求1至5中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810948979.3A CN109079787B (zh) | 2018-08-20 | 2018-08-20 | 基于神经网络的非刚性机器人自动手眼标定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810948979.3A CN109079787B (zh) | 2018-08-20 | 2018-08-20 | 基于神经网络的非刚性机器人自动手眼标定方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109079787A true CN109079787A (zh) | 2018-12-25 |
CN109079787B CN109079787B (zh) | 2020-10-16 |
Family
ID=64793802
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810948979.3A Active CN109079787B (zh) | 2018-08-20 | 2018-08-20 | 基于神经网络的非刚性机器人自动手眼标定方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109079787B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109772733A (zh) * | 2019-01-15 | 2019-05-21 | 西安交通大学 | 一种基于视觉的缺陷竹块检测分拣装置及方法 |
CN109910014A (zh) * | 2019-04-08 | 2019-06-21 | 上海嘉奥信息科技发展有限公司 | 基于神经网络的机器人手眼标定方法 |
CN110175680A (zh) * | 2019-04-03 | 2019-08-27 | 西安电子科技大学 | 利用分布式异步更新在线机器学习的物联网数据分析方法 |
CN110653823A (zh) * | 2019-10-12 | 2020-01-07 | 四川长虹电器股份有限公司 | 基于数据反演的手眼标定结果可视化方法 |
CN110695993A (zh) * | 2019-09-27 | 2020-01-17 | 哈尔滨工业大学(深圳) | 一种柔性机械臂同步测量方法、系统及装置 |
CN114589682A (zh) * | 2020-12-04 | 2022-06-07 | 长春理工大学 | 一种机器人手眼自动标定的迭代方法 |
CN117876379A (zh) * | 2024-03-13 | 2024-04-12 | 山东鑫国矿业技术开发有限公司 | 基于图像特征的锚杆缺陷智能化检测方法 |
CN117876379B (zh) * | 2024-03-13 | 2024-05-24 | 山东鑫国矿业技术开发有限公司 | 基于图像特征的锚杆缺陷智能化检测方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0780790A (ja) * | 1993-09-16 | 1995-03-28 | Fujitsu Ltd | 三次元物体把持システム |
CN104354167A (zh) * | 2014-08-29 | 2015-02-18 | 广东正业科技股份有限公司 | 一种机器人手眼标定方法及装置 |
CN108122257A (zh) * | 2016-11-28 | 2018-06-05 | 沈阳新松机器人自动化股份有限公司 | 一种机器人手眼标定方法及装置 |
CN108214495A (zh) * | 2018-03-21 | 2018-06-29 | 北京无远弗届科技有限公司 | 一种工业机器人示教系统和方法 |
CN108214476A (zh) * | 2017-12-28 | 2018-06-29 | 北京航空航天大学 | 基于改进型径向基神经网络的机械臂绝对定位精度标定方法 |
-
2018
- 2018-08-20 CN CN201810948979.3A patent/CN109079787B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0780790A (ja) * | 1993-09-16 | 1995-03-28 | Fujitsu Ltd | 三次元物体把持システム |
CN104354167A (zh) * | 2014-08-29 | 2015-02-18 | 广东正业科技股份有限公司 | 一种机器人手眼标定方法及装置 |
CN108122257A (zh) * | 2016-11-28 | 2018-06-05 | 沈阳新松机器人自动化股份有限公司 | 一种机器人手眼标定方法及装置 |
CN108214476A (zh) * | 2017-12-28 | 2018-06-29 | 北京航空航天大学 | 基于改进型径向基神经网络的机械臂绝对定位精度标定方法 |
CN108214495A (zh) * | 2018-03-21 | 2018-06-29 | 北京无远弗届科技有限公司 | 一种工业机器人示教系统和方法 |
Non-Patent Citations (1)
Title |
---|
丁卫: "基于知识引导的工业机器人泛化性视觉系统研究与实现", 《中国博士学位论文全文数据库 信息科技辑》 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109772733A (zh) * | 2019-01-15 | 2019-05-21 | 西安交通大学 | 一种基于视觉的缺陷竹块检测分拣装置及方法 |
CN110175680A (zh) * | 2019-04-03 | 2019-08-27 | 西安电子科技大学 | 利用分布式异步更新在线机器学习的物联网数据分析方法 |
CN110175680B (zh) * | 2019-04-03 | 2024-01-23 | 西安电子科技大学 | 利用分布式异步更新在线机器学习的物联网数据分析方法 |
CN109910014A (zh) * | 2019-04-08 | 2019-06-21 | 上海嘉奥信息科技发展有限公司 | 基于神经网络的机器人手眼标定方法 |
CN110695993A (zh) * | 2019-09-27 | 2020-01-17 | 哈尔滨工业大学(深圳) | 一种柔性机械臂同步测量方法、系统及装置 |
CN110695993B (zh) * | 2019-09-27 | 2021-02-02 | 哈尔滨工业大学(深圳) | 一种柔性机械臂同步测量方法、系统及装置 |
CN110653823A (zh) * | 2019-10-12 | 2020-01-07 | 四川长虹电器股份有限公司 | 基于数据反演的手眼标定结果可视化方法 |
CN114589682A (zh) * | 2020-12-04 | 2022-06-07 | 长春理工大学 | 一种机器人手眼自动标定的迭代方法 |
CN114589682B (zh) * | 2020-12-04 | 2023-08-18 | 长春理工大学 | 一种机器人手眼自动标定的迭代方法 |
CN117876379A (zh) * | 2024-03-13 | 2024-04-12 | 山东鑫国矿业技术开发有限公司 | 基于图像特征的锚杆缺陷智能化检测方法 |
CN117876379B (zh) * | 2024-03-13 | 2024-05-24 | 山东鑫国矿业技术开发有限公司 | 基于图像特征的锚杆缺陷智能化检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109079787B (zh) | 2020-10-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109079787A (zh) | 基于神经网络的非刚性机器人自动手眼标定方法 | |
CN103793936B (zh) | 用于增强现实的自动化参考框架校准 | |
CN106313049B (zh) | 一种仿人机械臂体感控制系统及控制方法 | |
CN107943283B (zh) | 基于手势识别的机械臂位姿控制系统 | |
CN110000787A (zh) | 一种超冗余机械臂的控制方法 | |
CN109910014B (zh) | 基于神经网络的机器人手眼标定方法 | |
CN109840508A (zh) | 一个基于深度网络架构自动搜索的机器人视觉控制方法,设备及存储介质 | |
CN107480356B (zh) | 基于catia和激光跟踪仪的部件设计检验一体化方法 | |
CN111482967B (zh) | 一种基于ros平台的智能检测与抓取方法 | |
CN106003034A (zh) | 一种主从式机器人控制系统及控制方法 | |
CN105234942B (zh) | 大持重液压小吊臂的控制系统及其控制方法 | |
CN113858217B (zh) | 多机器人交互的三维视觉位姿感知方法及系统 | |
WO2023020103A1 (zh) | 目标检测模型的更新方法及装置 | |
CN112959326A (zh) | 机器人正运动学求解方法、装置、可读存储介质及机器人 | |
CN106002910A (zh) | 一种手术机器人的主从控制系统及方法 | |
Platt et al. | Multi-priority cartesian impedance control | |
CN112629413B (zh) | 基于cad的线激光全自动扫描系统及扫描方法 | |
Deng et al. | A human–robot collaboration method using a pose estimation network for robot learning of assembly manipulation trajectories from demonstration videos | |
Yu et al. | A web-based telerobotic system for research and education at Essex | |
Ibrahim et al. | Analytical upper body human motion transfer to naohumanoid robot | |
JPS6386079A (ja) | 3次元陰影画像生成処理方法 | |
CN101996514A (zh) | 一种机械手臂位姿变换模拟教学装置 | |
CN107784132A (zh) | 基于体感技术的cad制图系统 | |
DePasquale et al. | Java interface for asserting interactive telerobotic control | |
CN117609673B (zh) | 基于物理信息神经网络的六自由度并联机构正解方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |