CN113799137B - 一种基于神经网络的移动加工机器人快速视觉定位方法 - Google Patents

一种基于神经网络的移动加工机器人快速视觉定位方法 Download PDF

Info

Publication number
CN113799137B
CN113799137B CN202111163998.3A CN202111163998A CN113799137B CN 113799137 B CN113799137 B CN 113799137B CN 202111163998 A CN202111163998 A CN 202111163998A CN 113799137 B CN113799137 B CN 113799137B
Authority
CN
China
Prior art keywords
robot
coordinate system
workpiece
pose
deviation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111163998.3A
Other languages
English (en)
Other versions
CN113799137A (zh
Inventor
刘海涛
贾悦婷
闫志彪
山显雷
肖聚亮
黄田
丁雅斌
付津昇
田文杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN202111163998.3A priority Critical patent/CN113799137B/zh
Publication of CN113799137A publication Critical patent/CN113799137A/zh
Application granted granted Critical
Publication of CN113799137B publication Critical patent/CN113799137B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Abstract

本发明公开了一种基于神经网络的移动加工机器人快速视觉定位方法,包括四个部分:(一)基于视觉测量建立工件坐标系‑机器人基坐标系的运动链传递模型;(二)建立机器人驱动关节变量与工件位姿偏差的映射模型;(三)基于映射模型,测量数据并计算工件位姿偏差;(四)基于神经网络模型完成机器人工件位姿偏差数据的拟合、预测及补偿工件位姿,实现移动加工机器人快速视觉定位。本发明采用神经网络来预测机器人测量位形与视觉测量的工件位姿偏差的映射关系,能够对任意位形下视觉测量确定的工件位姿进行校正,实现移动加工机器人快速视觉定位,进而有利于提高视觉测量系统的精度。

Description

一种基于神经网络的移动加工机器人快速视觉定位方法
技术领域
本发明涉及移动加工机器人快速视觉定位技术,尤其涉及一种基于神经网络的移动加工机器人快速视觉定位方法,属于机器人领域。
背景技术
以工业机器人为核心,配备测量系统辅助定位的移动加工机器人工作站是大型复杂构件加工的有效途径,要使移动加工机器人顺利完成复杂构建的加工,其中重要的一步就是机器人定位,即建立移动加工机器人基座-工件位姿关系。
目前,激光跟踪仪作为测量系统定位的方法最为常见,通过激光跟踪仪测量直接建立工件坐标系相对机器人基坐标系的齐次变换矩阵,得到工件位姿,实现移动加工机器人定位。这种方法存在局限性:激光跟踪仪测量大型复杂构件时容易出现光路遮挡问题,需要安置多台激光跟踪仪或采用单台多测站方式,总体而言成本较高,效率较低。相比于激光跟踪仪,三维视觉传感器测量精度适中,并采用非接触式测量,能够快速测量确定移动加工机器人基座-工件位姿关系。三维视觉传感器测量具备效率高、成本低、易于机器人集成等优势,能有效解决上述问题。
但是机器人在完成标定后仍存在残余误差,而在此基础上完成的手眼标定受此影响也会存在误差,最终可能导致三维视觉传感器测量工件上的靶点也存在误差。相比于使用激光跟踪仪直接测量的方式,基于视觉测量及运动链传递的方法需要经过多个运动链传递,受到多个环节的误差累计影响,造成最终的移动加工机器人基座-工件位姿关系存在偏差。因此,必须在运动链传递过程中设置偏差校正环节,使得最终视觉测量确定的移动加工机器人基座-工件位姿关系尽量接近激光跟踪仪直接测量的结果。
发明内容
本发明针对现有技术的不足,提供一种基于神经网络的移动加工机器人快速视觉定位方法,其特征在于:首先,基于视觉测量建立工件坐标系-机器人基坐标系的运动链传递模型;其次,以激光跟踪仪的测量结果为参考值,建立机器人驱动关节变量与工件位姿偏差的映射模型;然后,基于映射模型,测量数据并计算工件位姿偏差;最后,基于神经网络模型完成机器人工件位姿偏差的预测及补偿,完成移动加工机器人快速视觉定位。
为了解决上述技术问题,本发明提出的一种基于神经网络的移动加工机器人快速视觉定位方法,包括以下步骤:
步骤一、基于视觉测量建立工件坐标系-机器人基坐标系的运动链传递模型:
1-1)采用视觉测量确定机器人-工件位姿过程中,包含的四个坐标系是:机器人基坐标系{B},机器人末端坐标系{E},视觉传感器坐标系{S}和工件坐标系{W};
1-2)以表示工件坐标系到视觉传感器坐标系的坐标转换关系,通过三维视觉传感器测量特征点获得/>
1-3)以表示视觉传感器坐标系到机器人末端坐标系的坐标变换关系,通过手眼标定获得/>
1-4)以表示机器人末端坐标系到机器人基坐标系的坐标变换关系,通过机器人内部的控制器算法得到/>该/>用机器人驱动关节变量表示;
通过由工件坐标系{W}到视觉传感器坐标系{S}、视觉传感器坐标系{S}到机器人末端坐标系{E}及机器人末端坐标系{E}到机器人基坐标系{B}的依次传递,由视觉测量确定工件坐标系相对机器人基坐标系的齐次变换矩阵表示为:
式(1)即为基于视觉测量建立工件坐标系-机器人基坐标系的运动链传递模型;
步骤二、建立机器人驱动关节变量与工件位姿偏差的映射模型:
以激光跟踪仪确定的工件坐标系作为基准值,通过式(1)所述运动链传递模型视觉测量确定的工件位姿/>作为观测值,两者偏差表示为
式(2)中,表示相比于激光跟踪仪直接测量的方式,基于视觉测量确定的工件位姿的偏差,I表示四阶单位矩阵;
基于式(1),对于任意一个视觉测量位形,工件坐标系相对于机器人基坐标系的转换关系表示为
式(3)中,下标i表示第i个机器人位型;将式(3)代入式(2)整理可得:
进一步整理可得视觉测量下工件位姿的偏差与机器人驱动关节变量的关系:
式(5)即为机器人驱动关节变量与工件位姿偏差的映射模型,式(5)中,表示第i个机器人测量位形下基于视觉测量确定的工件坐标系的位姿偏差,q表示对应的机器人驱动关节向量;/>表示第i个测量位形的机器人驱动关节变量对应的机器人末端坐标系到机器人基坐标系的坐标变换;
步骤三、基于所述映射模型,测量和计算工件位姿偏差:
3-1)固定移动加工机器人,使用激光跟踪仪测量建立工件坐标系相对机器人基坐标系的齐次变换矩阵并作为参考值;
3-2)在第j个机器人视觉测量位形,采集视觉测量数据从机器人控制系统读取当前驱动关节变量qj=(q1 q2 … qn),通过机器人运动学得到机器人末端坐标系相对机器人基坐标系的齐次变换矩阵/>
3-3)代入手眼矩阵将上述计算结果代入式(5),从而确定当前测量位形对应的工件位姿偏差与机器人驱动关节变量的关系:
步骤四、基于神经网络模型完成机器人工件位姿偏差的预测及补偿:
4-1)将得到的每个测量位形的机器人驱动关节变量、对应的工件位姿的偏差作为一组样本数据,归一化处理样本数据,并划分为训练样本和测试样本;
4-2)建立与所述机器人工件位姿偏差拟合的神经网络模型,该神经网络模型包括输入层、隐含层和输出层;
4-3)在设定范围内遍历隐含层节点数,构造具有不同隐含层结构的网络模型,利用训练样本对各网络模型进行训练,选择预测精度最高的网络结构及网络参数作为机器人工件位姿偏差预测模型;
4-4)采用所述机器人工件位姿偏差预测模型对机器人非训练位形的工件位姿偏差值进行预测,并使用预测得到的工件位姿偏差值校正工件位姿。
与现有技术相比,本发明的有益效果是:
采用神经网络来预测机器人测量位形与视觉测量的工件位姿偏差的映射关系,能够对任意位形下视觉测量确定的工件位姿进行校正,实现移动加工机器人快速视觉定位,进而有利于提高视觉测量系统的精度。
附图说明
图1是本发明中基于视觉确定工件位姿的坐标系示意图;
图2是本发明中基于神经网络模型结构示意图。
具体实施方式
下面结合附图及具体实施例对本发明做进一步的说明,但下述实施例绝非对本发明有任何限制。
本发明提出的一种基于神经网络的移动加工机器人快速视觉定位方法,包括以下步骤:
步骤一、基于视觉测量建立工件坐标系-机器人基坐标系的运动链传递模型,具体步骤如下:
(1-1)如图1所示,采用视觉测量确定机器人-工件位姿过程中,包含的四个坐标系是:机器人基坐标系{B},机器人末端坐标系{E},视觉传感器坐标系{S}和工件坐标系{W}。
其中,坐标系之间转换定义如下:为工件坐标系相对视觉传感器坐标系的齐次变换矩阵;/>为视觉传感器坐标系相对机器人末端坐标系的齐次变换矩阵;/>为机器人末端坐标系相对机器人基坐标系的齐次变换矩阵;/>为基于视觉测量确定的工件坐标系相对机器人基坐标系的齐次变换矩阵。
(1-2)令表示工件坐标系相对视觉传感器坐标系的齐次变换矩阵,可以通过三维视觉传感器测量特征点坐标,并以此构造工件坐标系相对于视觉传感器坐标系的齐次变换矩阵,即以/>表示工件坐标系到视觉传感器坐标系的坐标转换关系,可以通过三维视觉传感器测量特征点坐标,并以此构造工件坐标系相对于视觉传感器坐标系的齐次变换矩阵
(1-3)令表示视觉传感器坐标系相对机器人末端坐标系的齐次变换矩阵,可通过机器人离线手眼标定来确定为常数矩阵,即以/>表示视觉传感器坐标系到机器人末端坐标系的坐标变换关系,通过手眼标定获得/>
(1-4)令表示机器人末端坐标系相对机器人基坐标系的齐次变换矩阵,通过机器人内部的控制器算法得到,可以用机器人驱动关节变量表示,以/>表示机器人末端坐标系到机器人基坐标系的坐标变换关系,通过机器人内部的控制器算法得到/>该/>可以用机器人驱动关节变量表示。
通过上述三个环节依次传递,即依次由工件坐标系{W}到视觉传感器坐标系{S}、视觉传感器坐标系{S}到机器人末端坐标系{E}及机器人末端坐标系{E}到机器人基坐标系{B}传递,由视觉测量确定工件坐标系相对机器人基坐标系的齐次变换矩阵可表示为
该式即为基于视觉测量建立工件坐标系-机器人基坐标系的运动链传递模型。
步骤二、建立机器人驱动关节变量与工件位姿偏差的映射模型
给定移动加工机器人固定位置,工件坐标系相对与机器人基坐标系的齐次变换矩阵固定,可以通过激光跟踪仪直接测量,或者通过步骤一所述的运动链传递确定。
注意到机器人在完成标定后仍存在残余误差,而在此基础上完成的手眼标定受此影响也会存在误差,最终可能导致三维视觉传感器测量工件上的靶点也存在误差。基于视觉测量及运动链传递的方法需要经过多个运动链传递,受到多个环节的误差累计影响,造成最终的机器人-工件的位姿关系存在偏差。因此,需要在运动链传递中设置偏差校正环节,使得最终工件位姿尽量接近激光跟踪仪测量所确定的工件位姿。
以激光跟踪仪确定的工件坐标系作为基准值,通过式(1)所述运动链传递模型视觉测量确定的工件位姿/>作为观测值,两者偏差表示为
式(2)中,表示相比于激光跟踪仪直接测量的方式,基于视觉测量确定的工件位姿的偏差,I表示四阶单位矩阵;
其具体形式为
式中,表示对应姿态偏差的反对称矩阵,/>为/>的姿态偏差向量,/>为/>的位置偏差向量。
基于式(1),对于任意一个视觉测量位形,工件坐标系相对于机器人基坐标系的转换关系的齐次变换矩阵可以表示为
式(3)中,下标i表示第i个机器人位型;将式(3)代入式(2)整理可得:
进一步整理可得视觉测量下工件位姿的偏差与机器人驱动关节变量的关系:
式(5)即为机器人驱动关节变量与工件位姿偏差的映射模型,式(5)中,表示第i个机器人测量位形下基于视觉测量确定的工件坐标系的位姿偏差,q表示对应的机器人驱动关节向量;/>表示第i个测量位形的机器人驱动关节变量对应的机器人末端坐标系到机器人基坐标系的坐标变换。
步骤三、基于所述映射模型,测量和计算工件位姿偏差,具体步骤如下:
(3-1)固定移动加工机器人,确保工件特征点在视觉传感器的可测量范围内,工件上需设置三个及以上的靶点,并确保靶点不在同一直线上,激光跟踪仪测量工件坐标系上的靶点坐标,并建立工件坐标系。使用激光跟踪仪测量拟合机器人基坐标,最终建立工件坐标系相对机器人基坐标系的齐次变换矩阵并作为参考值。
(3-2)在第j个机器人视觉测量位形,视觉传感器采集工件上靶点的坐标,建立工件坐标系相对视觉传感器的齐次变换矩阵采集视觉测量数据从机器人控制系统读取当前驱动关节变量qj=(q1 q2 … qn),通过机器人运动学得到机器人末端坐标系相对机器人基坐标系的齐次变换矩阵/>
(3-3)代入手眼矩阵将上述计算结果代入式(5),从而可确定当前测量位形对应的工件位姿偏差与机器人驱动关节变量的关系:
重复上述(3-2)和(3-3)步骤,可以获取多个视觉测量位形下,机器人驱动关节变量与工件位姿偏差的映射关系。
步骤四、基于神经网络模型完成机器人工件位姿偏差的预测及补偿,具体步骤如下:
(4-1)将得到的每个测量位形的机器人驱动关节变量、对应的工件位姿的偏差作为一组样本数据,归一化处理样本数据,并划分为训练样本和测试样本。
具体地,根据步骤三所述采集样本数据,得到当前机器人驱动关节变量q对应的工件位姿偏差并对数据预处理包括对采样点工件位姿偏差进行错误数据剔除操作及执行最大和最小值归一化处理
式中,xi表示某一维度的参考值,xmax和xmin分别代表此参数的最大值和最小值,xi为归一化后的值。
将错误数据剔除,并将归一化后样本数据按一定规则划分为训练样本和验证样本。从而得到训练集和测试集。
(4-2)建立与所述机器人工件位姿偏差拟合的神经网络模型,该神经网络模型包括输入层、隐含层和输出层,如图2所示。
具体地,神经网络相邻节点间采用全连接,通过误差反向传播算法进行网络参数调整。该神经网络的输入层表示所述机器人驱动关节变量qi=(q1 q2 … qn),输入层节点数量等于机器人关节参数的数量。该神经网络的输出层表示所述机器人工件位姿偏差输出层节点数量设置为6,其中前三项表示工件坐标系相对机器人基坐标系的位置偏差/>后三项表示姿态偏差/>
该神经网络隐含层节点数由问题及样本数据特性等因素决定。参考经验法来确定最佳隐含层节点数的范围
式中,n和m分别是输入层和输出层节点数;常数a={1,2,…,10}。在取值范围内,最佳隐含层节点数通过反复试验来确定。
(4-3)在设定范围内遍历隐含层节点数,构造具有不同隐含层结构的网络模型,利用训练样本对各网络模型进行训练,选择预测精度最高的网络结构及网络参数作为机器人工件位姿偏差预测模型,具体步骤如下:
网络隐含层采用Tan-sigmoid激活函数:f(x)=2/(1+e-2x)-1;输出层采用线性激活函数:f(x)=kx。根据网络训练要求设定网络初始权值、初始阈值、学习率、最大迭代次数等网络训练参数。
在网络训练中,以神经网络模型的输出值与样本实际值的均方根误差最小为目标,并采用基于梯度下降的BP训练算法迭代更新网络权值和阈值,直至达到最大迭代次数或者拟合效果不再提高(即上述的均方根误差不再减小),网络训练完成。
然后进行网络性能验证,将验证集的样本数据输入训练好的神经网络,计算神经网络模型的输出值与验证集样本实际值的均方根误差,作为网络预测精度的评价指标。依次完成各神经网络模型的训练与验证,选取验证样本输出均方根误差最小的网络结构及其训练参数作为机器人工件位姿偏差的预测模型。
(4-4)采用所述机器人工件位姿偏差预测模型对机器人非训练位形的工件位姿偏差值进行预测,并使用预测得到的工件位姿偏差值校正工件位姿。
当机器人运动至工作空间任一测量位形时,将机器人的关节量归一化后输入机器人工件位姿偏差预测模型,并对网络输出结果进行反归一化,即可得到该位形下工件位姿偏差预测值。
用神经网络模型预测的工件位姿偏差来校正目标测量点的工件位姿矩阵从而快速建立工件坐标系相对于机器人基坐标系的转换关系/>
基于神经网络模型,可实现在任意测量位形下,快速建立机器人工件坐标系与机器人基坐标系之间相对准确的齐次坐标变换。
尽管上面结合附图对本发明的功能及实施流程进行了描述,但本发明并不局限于上述的具体功能和过程,上述的具体实施方式仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可以采用形式多样的网络训练算法,这些均属于本发明的保护范围之内。

Claims (1)

1.一种基于神经网络的移动加工机器人快速视觉定位方法,其特征在于,包括以下步骤:
步骤一、基于视觉测量建立工件坐标系-机器人基坐标系的运动链传递模型:
1-1)采用视觉测量确定机器人-工件位姿过程中,包含的四个坐标系是:机器人基坐标系{B},机器人末端坐标系{E},视觉传感器坐标系{S}和工件坐标系{W};
1-2)以表示工件坐标系到视觉传感器坐标系的坐标转换关系,通过三维视觉传感器测量特征点获得/>
1-3)以表示视觉传感器坐标系到机器人末端坐标系的坐标变换关系,通过手眼标定获得/>
1-4)以表示机器人末端坐标系到机器人基坐标系的坐标变换关系,通过机器人内部的控制器算法得到/>该/>用机器人驱动关节变量表示;
通过由工件坐标系{W}到视觉传感器坐标系{S}、视觉传感器坐标系{S}到机器人末端坐标系{E}及机器人末端坐标系{E}到机器人基坐标系{B}的依次传递,由视觉测量确定工件坐标系相对机器人基坐标系的齐次变换矩阵表示为:
式(1)即为基于视觉测量建立工件坐标系-机器人基坐标系的运动链传递模型;
步骤二、建立机器人驱动关节变量与工件位姿偏差的映射模型:
以激光跟踪仪确定的工件坐标系作为基准值,通过式(1)所述运动链传递模型视觉测量确定的工件位姿/>作为观测值,两者偏差表示为
式(2)中,表示相比于激光跟踪仪直接测量的方式,基于视觉测量确定的工件位姿的偏差,I表示四阶单位矩阵;
基于式(1),对于任意一个视觉测量位形,工件坐标系相对于机器人基坐标系的转换关系表示为
式(3)中,下标i表示第i个机器人位型;将式(3)代入式(2)整理可得:
进一步整理可得视觉测量下工件位姿的偏差与机器人驱动关节变量的关系:
式(5)即为机器人驱动关节变量与工件位姿偏差的映射模型,式(5)中,表示第i个机器人测量位形下基于视觉测量确定的工件坐标系的位姿偏差,q表示对应的机器人驱动关节向量;/>表示第i个测量位形的机器人驱动关节变量对应的机器人末端坐标系到机器人基坐标系的坐标变换;
步骤三、基于所述映射模型,测量和计算工件位姿偏差:
3-1)固定移动加工机器人,使用激光跟踪仪测量建立工件坐标系相对机器人基坐标系的齐次变换矩阵并作为参考值;
3-2)在第j个机器人视觉测量位形,采集视觉测量数据从机器人控制系统读取当前驱动关节变量qj=(q1 q2 … qn),通过机器人运动学得到机器人末端坐标系相对机器人基坐标系的齐次变换矩阵/>
3-3)代入手眼矩阵将上述计算结果代入式(5),从而确定当前测量位形对应的工件位姿偏差与机器人驱动关节变量的关系:
步骤四、基于神经网络模型完成机器人工件位姿偏差的预测及补偿:
4-1)将得到的每个测量位形的机器人驱动关节变量、对应的工件位姿的偏差作为一组样本数据,归一化处理样本数据,并划分为训练样本和测试样本;
4-2)建立与所述机器人工件位姿偏差拟合的神经网络模型,该神经网络模型包括输入层、隐含层和输出层;
4-3)在设定范围内遍历隐含层节点数,构造具有不同隐含层结构的网络模型,利用训练样本对各网络模型进行训练,选择预测精度最高的网络结构及网络参数作为机器人工件位姿偏差预测模型;
4-4)采用所述机器人工件位姿偏差预测模型对机器人非训练位形的工件位姿偏差值进行预测,并使用预测得到的工件位姿偏差值校正工件位姿。
CN202111163998.3A 2021-09-30 2021-09-30 一种基于神经网络的移动加工机器人快速视觉定位方法 Active CN113799137B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111163998.3A CN113799137B (zh) 2021-09-30 2021-09-30 一种基于神经网络的移动加工机器人快速视觉定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111163998.3A CN113799137B (zh) 2021-09-30 2021-09-30 一种基于神经网络的移动加工机器人快速视觉定位方法

Publications (2)

Publication Number Publication Date
CN113799137A CN113799137A (zh) 2021-12-17
CN113799137B true CN113799137B (zh) 2023-09-22

Family

ID=78897290

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111163998.3A Active CN113799137B (zh) 2021-09-30 2021-09-30 一种基于神经网络的移动加工机器人快速视觉定位方法

Country Status (1)

Country Link
CN (1) CN113799137B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI793044B (zh) * 2022-07-07 2023-02-11 和碩聯合科技股份有限公司 機器手臂的手眼校正方法和手眼校正裝置
CN116276938B (zh) * 2023-04-11 2023-11-10 湖南大学 基于多零位视觉引导的机械臂定位误差补偿方法及装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010149267A (ja) * 2008-12-26 2010-07-08 Yaskawa Electric Corp ロボットのキャリブレーション方法および装置
CN103616851A (zh) * 2013-12-04 2014-03-05 天津大学 数控机床的几何误差旋量理论建模方法
CN109822577A (zh) * 2019-03-29 2019-05-31 北京卫星制造厂有限公司 一种基于视觉伺服的移动式机器人高精度加工方法
CN110385720A (zh) * 2019-07-26 2019-10-29 南京航空航天大学 一种基于深度神经网络的机器人定位误差补偿方法
CN111590594A (zh) * 2020-06-22 2020-08-28 南京航空航天大学 基于视觉引导的机器人轨迹跟踪控制方法
CN112536797A (zh) * 2020-12-01 2021-03-23 南京航空航天大学 一种工业机器人的位置与姿态误差综合补偿方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010149267A (ja) * 2008-12-26 2010-07-08 Yaskawa Electric Corp ロボットのキャリブレーション方法および装置
CN103616851A (zh) * 2013-12-04 2014-03-05 天津大学 数控机床的几何误差旋量理论建模方法
CN109822577A (zh) * 2019-03-29 2019-05-31 北京卫星制造厂有限公司 一种基于视觉伺服的移动式机器人高精度加工方法
CN110385720A (zh) * 2019-07-26 2019-10-29 南京航空航天大学 一种基于深度神经网络的机器人定位误差补偿方法
CN111590594A (zh) * 2020-06-22 2020-08-28 南京航空航天大学 基于视觉引导的机器人轨迹跟踪控制方法
CN112536797A (zh) * 2020-12-01 2021-03-23 南京航空航天大学 一种工业机器人的位置与姿态误差综合补偿方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于单目视觉的Delta机器人零点标定方法;孙月海;王兰;梅江平;张文昌;刘艺;;天津大学学报(第03期);全文 *
基于神经网络的机器人无标定视觉伺服系统仿真;张家驹;吴洪涛;;应用科技(第09期);全文 *

Also Published As

Publication number Publication date
CN113799137A (zh) 2021-12-17

Similar Documents

Publication Publication Date Title
CN113799137B (zh) 一种基于神经网络的移动加工机器人快速视觉定位方法
CN111590581B (zh) 机器人的定位补偿方法及装置
CN108908327B (zh) 一种机器人定位误差分级补偿方法
CN110815206B (zh) 一种Stewart型并联机器人运动学标定方法
CN109240204B (zh) 一种基于两步法的数控机床热误差建模方法
CN109352655B (zh) 一种基于多输出高斯过程回归的机器人变形补偿方法
Majarena et al. Analysis and evaluation of objective functions in kinematic calibration of parallel mechanisms
CN114260941A (zh) 一种基于激光位移计的机械臂参数标定方法
Mao et al. Separable nonlinear least squares algorithm for robust kinematic calibration of serial robots
Gao et al. Kinematic calibration of industrial robots based on distance information using a hybrid identification method
RU2719207C1 (ru) Способ калибровки кинематических параметров многостепенных манипуляторов
Akhmetzyanov et al. Deep Learning with Transfer Learning Method for Error Compensation of Cable-driven Robot.
CN115098978A (zh) 一种基于rbf神经网络改进牛顿迭代算法的正向运动学分析方法
CN112157654B (zh) 一种机器人加工系统定位误差的优化方法
CN113910218A (zh) 基于运动学与深度神经网络融合的机器人标定方法和装置
CN109656229B (zh) 基于ga-rbf网络的机器人末端性能预测模型的构建方法
CN114800529B (zh) 一种基于定长记忆窗增量学习的工业机器人误差补偿方法
CN114474004B (zh) 一种多因素耦合车载建筑机器人误差补偿规划控制策略
Song et al. An efficient calibration method for serial industrial robots based on kinematics decomposition and equivalent systems
CN115256397A (zh) 一种基于深度学习的机械臂力控制方法及系统
Rim et al. A calibration method of portable coordinate measuring arms by using artifacts
CN111754567B (zh) 飞机复材构件机器人磨抛加工静动态误差综合补偿方法
CN114248270A (zh) 基于人工智能的工业机器人精度补偿方法
Young et al. An automated robot calibration system based on a variable DH parameter model
Zhong et al. Neuro-accuracy compensator for industrial robots

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant