CN108818535B - 机器人3d视觉手眼标定方法 - Google Patents
机器人3d视觉手眼标定方法 Download PDFInfo
- Publication number
- CN108818535B CN108818535B CN201810730919.4A CN201810730919A CN108818535B CN 108818535 B CN108818535 B CN 108818535B CN 201810730919 A CN201810730919 A CN 201810730919A CN 108818535 B CN108818535 B CN 108818535B
- Authority
- CN
- China
- Prior art keywords
- coordinate system
- robot
- sensor
- cam
- calibration plate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种机器人3D视觉手眼标定方法,包括:S1.获取机器人法兰盘相对于机器人基坐标的姿态和标定板相对于3D传感器坐标系的姿态;S2.计算3D传感器坐标系相对于机器人基坐标系的旋转矩阵;S3.获取工件抓取点在3D传感器坐标系中的多组坐标数据,和在机器人底座基坐标系中对应的多组坐标数据;S4.计算3D传感器坐标系和机器人基坐标系的XYZ坐标轴的转换关系。与传统的手眼标定只用一个转换矩阵来描述3D传感器到机器人基坐标转换相比,本发明机器人3D视觉手眼标定方法分别得到了3D传感器到机器人基坐标位置和姿态的转换关系,相比现有技术而言更加灵活,更能满足实际工程应用中的精度要求,提高手眼标定精度。
Description
技术领域
本发明属于机器人3D视觉标定技术领域,具体涉及一种机器人3D视觉手眼标定方法。
背景技术
智能制造的快速推进使得多关节机器人获得了长足发展,工业机器人已经参与到工业制造及生产的各个领域,成为工厂自动化、智能化进程中不可或缺的角色。机器视觉赋予了机器人眼睛,融合先进的图像处理、三维数据分析算法,以及人工智能技术的应用,使机器人动作不再局限于通过示教获得的点对点运动或者既定轨迹,而是在视觉的引导下进行更为灵活而智能的动作,在高精度检测以及工件抓取定位等方面的应用方兴未艾。相对于传统的2D视觉无法提供深度和曲面信息,机器人3D视觉更加符合人类“眼睛”的定义,3D传感器可以给机器人提供产品的位置和姿态信息,因此在工业上的应用也更加的灵活,在物流分拣,上下料,汽车零部件抓取等领域有着非常广阔的应用前景,诚然,相比于传统的2D手眼标定,机器人3D视觉的手眼标定方法和算法更为复杂。
现有的3D视觉手眼标定分为两种情况:Eye-in-Hand和Eye-to-Hand。第一种情况,3D传感器安装在机器人末端,随着机械手的运动而跟着一起运动,又称为眼在手上手眼标定;第二种情况,3D传感器安装在固定支架上,传感器和机器人底座的位置相对固定,又称为眼在手外手眼标定。
机器人眼在手外的3D视觉手眼标定的核心是计算3D传感器坐标系相对于机器人基坐标系的转换关系,从而将3D传感器下获得的工件位置和姿态信息,转换成机器人基坐标下的位置和姿态。
现有的技术大都用一个4×4的齐次转换矩阵来描述3D传感器坐标系到机器人基坐标系的转换关系,这个齐次矩阵包含了一个3×3的旋转矩阵和一个3×1的平移向量。然而在实际的工业应用中,由于3D传感器本身坐标系标定存在误差,机器人存在系统误差,转换矩阵的计算误差和一些其他因素的影响,仅用一个矩阵来表达整个3D传感器坐标系和机器人基座标系的关系,得到的精度往往难以满足要求。例如文献[Tsai R Y,Lenz R K.Anew technique for fully autono mous and efficient 3D robotics hand/eyecalibration[J].IEEE Transactions on Roboti cs and Automation,1989,5(3):345-358]提出的3D机器人手眼标定办法中分两步来求解手眼转换矩阵,先求解旋转矩阵,再利用计算得到的旋转矩阵来求解平移向量,因此把旋转矩阵计算的误差也带入到了平移向量中,导致精度不够。再例如Halcon机器视觉软件中的机器人3D视觉手眼标定的模块,经实验测试得到的平移变换部分均方根误差为2mm左右,无法满足实际工业应用的精度要求。
此外,目前的一些手眼标定方法对于标定过程中的机械手以及标定板等其他辅助设施的物理精度要求很高,增加了标定成本。如申请号为201710856392.5的中国专利提出一种全自动手眼标定方法及装置,采用了实心圆和空心圆非对称式排列结构的高精度陶瓷相机标定板,对于标定板的精度要求很高。因此为了满足实际工业应用的手眼标定精度要求和降低标定成本,急需提出一种新的机器人3D视觉手眼标定方法。
发明内容
鉴于上述,本发明提供了一种机器人3D视觉手眼标定方法,能够提高机器人3D手眼标定的精度。
一种机器人3D视觉手眼标定方法,包括如下步骤:
(1)将标定板安装在机器人的法兰盘上,通过移动机器人手臂末端从而改变法兰盘的位置和姿态,获取法兰盘在机器人底座基坐标系中的n组姿态数据以及标定板在3D传感器坐标系中的n组姿态数据,n为大于3的自然数;
所述3D传感器用于采集机器人所要抓取工件的三维图像信息,所述标定板表面背景为黑色且表面上有三个白色的点p1~p3:p1点在标定板的中心位置,p2点在标定板沿中心的X轴方向上,p3点在标定板沿中心的Y轴方向上;
(2)将法兰盘在机器人底座基坐标系中的n组姿态数据转换成对应的旋转矩阵A1~An,同时将标定板在3D传感器坐标系中的n组姿态数据也转换成对应的旋转矩阵B1~Bn;
(3)根据步骤(2)中得到的旋转矩阵计算出3D传感器坐标系相对于机器人底座基坐标系的旋转变换矩阵baseRcam;
(4)利用机器人手爪抓取工件到3D传感器下方以采集三维图像,获取工件抓取点在3D传感器坐标系中的多组坐标数据,并从机器人示教器中读取工件抓取点在机器人底座基坐标系中的多组坐标数据;
(5)利用步骤(4)中得到的坐标数据拟合计算出3D传感器坐标系与机器人底座基坐标系之间的线性变换参数。
进一步地,所述步骤(2)中对于法兰盘在机器人底座基坐标系中的任一组姿态数据,通过以下关系式将其转换成对应法兰盘坐标系相对于机器人底座基坐标系的旋转矩阵Ai:
其中:(RXi,RYi,RZi)为法兰盘在机器人底座基坐标系中的第i组姿态数据,RXi、RYi、RZi分别为法兰盘在机器人底座基坐标系中相对X、Y、Z轴的欧拉角,c1=cos(RXi),s1=sin(RXi),c2=cos(RYi),s2=sin(RYi),c3=cos(RZi),s3=sin(RZi),i为自然数且1≤i≤n。
进一步地,所述步骤(2)中对于标定板在3D传感器坐标系中的任一组姿态数据,通过以下关系式将其转换成对应标定板坐标系相对于3D传感器坐标系的旋转矩阵Bi:
其中:建立以p1点为原点的标定板坐标系X'-Y'-Z',[x1,y1,z1]T为对应时刻3D传感器坐标系下标定板X'轴方向上的单位向量,[x2,y2,z2]T为对应时刻3D传感器坐标系下标定板Y'轴方向上的单位向量,[x3,y3,z3]T为对应时刻3D传感器坐标系下标定板Z'轴方向上的单位向量。
进一步地,所述步骤(3)中通过多组以下关系式计算出3D传感器坐标系相对于机器人底座基坐标系的旋转变换矩阵baseRcam:
Ai -1×baseRcam×Bi=Aj -1×baseRcam×Bj
其中:旋转变换矩阵baseRcam为3×3大小的矩阵,i和j均为自然数且1≤i≤n,1≤j≤n,i≠j。
进一步地,所述步骤(5)中通过多组以下关系式拟合计算出3D传感器坐标系与机器人底座基坐标系之间的线性变换参数:
Xrob=a1×Xcam+b1×Ycam+c1×Zcam+d1
Yrob=a2×Xcam+b2×Ycam+c2×Zcam+d2
Zrob=a3×Xcam+b3×Ycam+c3×Zcam+d3
其中:(Xcam,Ycam,Zcam)为抓取过程中的某一时刻工件抓取点在3D传感器坐标系中的坐标,(Xrob,Yrob,Zrob)为该时刻工件抓取点在机器人底座基坐标系中的坐标,a1~a3、b1~b3、c1~c3、d1~d3均为3D传感器坐标系与机器人底座基坐标系之间的线性变换参数。
与传统的手眼标定只用一个转换矩阵来描述3D传感器到机器人基坐标转换相比,本发明的机器人3D视觉手眼标定方法分别用两组参数模型来表述3D传感器到机器人基坐标系的位置和角度变换关系,相比现有技术而言更加灵活,更能满足实际工程应用中的精度要求,提高手眼标定精度。此外,本发明除了标定板外不需要额外的硬件设备辅助,通过再现示教机器人移动标定板和工件获取姿态,实现半自动手眼标定。
附图说明
图1为本发明3D手眼标定系统的示意图。
图2为标定板的示意图。
图3为标定板在3D传感器坐标系中的位姿示意图。
具体实施方式
为了更为具体地描述本发明,下面结合附图及具体实施方式对本发明的技术方案进行详细说明。
如图1所示,本实施方式中以3D结构光传感器和六自由度工业机器人为例来阐述机器人3D视觉手眼标定方法和基于该手眼标定方法将工件在3D传感器下的位置和姿态转换成在机器人基坐标系下的位置和姿态的具体实现。
本实施方式机器人3D视觉手眼标定方法的步骤如下:
步骤S1:将如图2所示的标定板安装在机器人法兰盘上,移动机器人执行器末端,改变法兰盘的位置和姿态,获取多组法兰盘相对于机器人基坐标的姿态和标定板相对于3D传感器的姿态数据。
已知法兰盘的工具坐标RX,RY,RZ和机器人欧拉角顺序XYZ,转换成法兰盘相对于机器人基坐标系的旋转矩阵具体公式如下:
其中:c1=cos(RX),s1=sin(RX),c2=cos(RY),s2=sin(RY),c3=cos(RZ),s3=sin(RZ)。
标定板在3D传感器下的的姿态计算步骤如下:
3D传感器的固定坐标系为X-Y-Z,建立以p1点为原点的标定板坐标系X'-Y'-Z',该时刻在3D传感器坐标系下,标定板X'轴方向上的单位向量为[x1,y1,z1]T,标定板Y'轴方向上的单位向量为[x2,y2,z2]T,标定板Z'轴方向上的单位向量为[x3,y3,z3]T,则标定板在3D传感器下的姿态为:
本实施例中的一组法兰盘相对于机器人基坐标系的姿态为:
对应的标定板在3D传感器下的姿态为:
步骤S2:计算3D传感器相对于机器人基坐标系的旋转矩阵baseRcam,计算的具体过程如下:
标定板相对于法兰盘的相对位置固定,标定板相对于法兰盘的旋转矩阵计算公式为:
toolRcal=Ak -1×baseRcam×Bk
其中:Ak为第k组法兰盘相对机器人基坐标系的旋转矩阵,Bk为第k组标定板相对于3D传感器坐标系的旋转矩阵;由于等式左边固定,等式右边取不同的k值可列出等式如下:
Aj×Ai -1×baseRcam=baseRcam×Bj×Bi -1
其中:1≤i≤n,1≤j≤n,i≠j,根据多组上述等式可求出baseRcam。
已知计算3D传感器相对于机器人基坐标系的旋转矩阵baseRcam,将工件在3D传感器下的姿态camRobj转换成在机器人基坐标系的的姿态baseRobj的公式如下:
baseRobj=baseRcam×camRobj
本实例计算出的3D传感器相对于机器人基坐标系的旋转矩阵为:
本实例中某时刻工件在3D传感器下的姿态为:
该时刻工件在机器人基坐标系下的姿态为:
步骤S3:利用机器人手爪抓取工件到3D传感器下方采集三维图像,获取工件抓取点在3D传感器坐标系中的多组坐标数据,对应工件抓取点在机器人底座基坐标系中的多组坐标数据可在机器人示教器中读取。
假设工件抓取点在3D传感器中的XYZ坐标分别为Xcam,Ycam,Zcam,在机器人基坐标系下的XYZ坐标为Xrob,Yrob,Zrob,对坐标数据进行线性数据拟合,本实例中得到的线性转换关系如下:
Xrob=0.081236×Xcam+1.0075×Ycam+0.010249×Zcam+814.47
Yrob=0.99192×Xcam-0.075336×Ycam+0.007673×Zcam+89.179
Zrob=-0.000871816×Xcam+0.012401×Ycam-0.97371×Zcam+1171.1
本实例中得到的平移变换部分均方根误差为0.25mm。本实例中得到的一组工件抓取点在3D传感器下的XYZ坐标为[9.09970856,-75.4557953,1095.07800],转换成机器人基坐标系下的XYZ坐标为[750.411,112.292,103.868],满足实际抓取要求。
上述对实施例的描述是为便于本技术领域的普通技术人员能理解和应用本发明。熟悉本领域技术的人员显然可以容易地对上述实施例做出各种修改,并把在此说明的一般原理应用到其他实施例中而不必经过创造性的劳动。因此,本发明不限于上述实施例,本领域技术人员根据本发明的揭示,对于本发明做出的改进和修改都应该在本发明的保护范围之内。
Claims (1)
1.一种机器人3D视觉手眼标定方法,包括如下步骤:
(1)将标定板安装在机器人的法兰盘上,通过移动机器人手臂末端从而改变法兰盘的位置和姿态,获取法兰盘在机器人底座基坐标系中的n组姿态数据以及标定板在3D传感器坐标系中的n组姿态数据,n为大于3的自然数;
所述3D传感器用于采集机器人所要抓取工件的三维图像信息,所述标定板表面背景为黑色且表面上有三个白色的点p1~p3:p1点在标定板的中心位置,p2点在标定板沿中心的X轴方向上,p3点在标定板沿中心的Y轴方向上;
(2)将法兰盘在机器人底座基坐标系中的n组姿态数据转换成对应的旋转矩阵A1~An;对于法兰盘在机器人底座基坐标系中的任一组姿态数据,通过以下关系式将其转换成对应法兰盘坐标系相对于机器人底座基坐标系的旋转矩阵Ai:
其中:(RXi,RYi,RZi)为法兰盘在机器人底座基坐标系中的第i组姿态数据,RXi、RYi、RZi分别为法兰盘在机器人底座基坐标系中相对X、Y、Z轴的欧拉角,c1=cos(RXi),s1=sin(RXi),c2=cos(RYi),s2=sin(RYi),c3=cos(RZi),s3=sin(RZi),i为自然数且1≤i≤n;
同时将标定板在3D传感器坐标系中的n组姿态数据也转换成对应的旋转矩阵B1~Bn;对于标定板在3D传感器坐标系中的任一组姿态数据,通过以下关系式将其转换成对应标定板坐标系相对于3D传感器坐标系的旋转矩阵Bi:
其中:建立以p1点为原点的标定板坐标系X'-Y'-Z',[x1,y1,z1]T为对应时刻3D传感器坐标系下标定板X'轴方向上的单位向量,[x2,y2,z2]T为对应时刻3D传感器坐标系下标定板Y'轴方向上的单位向量,[x3,y3,z3]T为对应时刻3D传感器坐标系下标定板Z'轴方向上的单位向量;
(3)根据步骤(2)中得到的旋转矩阵通过多组以下关系式计算出3D传感器坐标系相对于机器人底座基坐标系的旋转变换矩阵baseRcam;
Ai -1×baseRcam×Bi=Aj -1×baseRcam×Bj
其中:旋转变换矩阵baseRcam为3×3大小的矩阵,i和j均为自然数且1≤i≤n,1≤j≤n,i≠j;
(4)利用机器人手爪抓取工件到3D传感器下方以采集三维图像,获取工件抓取点在3D传感器坐标系中的多组坐标数据,并从机器人示教器中读取工件抓取点在机器人底座基坐标系中的多组坐标数据;
(5)利用步骤(4)中得到的坐标数据通过多组以下关系式拟合计算出3D传感器坐标系与机器人底座基坐标系之间的线性变换参数;
Xrob=a1×Xcam+b1×Ycam+c1×Zcam+d1
Yrob=a2×Xcam+b2×Ycam+c2×Zcam+d2
Zrob=a3×Xcam+b3×Ycam+c3×Zcam+d3
其中:(Xcam,Ycam,Zcam)为抓取过程中的某一时刻工件抓取点在3D传感器坐标系中的坐标,(Xrob,Yrob,Zrob)为该时刻工件抓取点在机器人底座基坐标系中的坐标,a1~a3、b1~b3、c1~c3、d1~d3均为3D传感器坐标系与机器人底座基坐标系之间的线性变换参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810730919.4A CN108818535B (zh) | 2018-07-05 | 2018-07-05 | 机器人3d视觉手眼标定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810730919.4A CN108818535B (zh) | 2018-07-05 | 2018-07-05 | 机器人3d视觉手眼标定方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108818535A CN108818535A (zh) | 2018-11-16 |
CN108818535B true CN108818535B (zh) | 2020-04-10 |
Family
ID=64135572
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810730919.4A Active CN108818535B (zh) | 2018-07-05 | 2018-07-05 | 机器人3d视觉手眼标定方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108818535B (zh) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109737871B (zh) * | 2018-12-29 | 2020-11-17 | 南方科技大学 | 一种三维传感器与机械手臂的相对位置的标定方法 |
CN110281231B (zh) * | 2019-03-01 | 2020-09-29 | 浙江大学 | 无人化fdm增材制造的移动机器人三维视觉抓取方法 |
CN110728657A (zh) * | 2019-09-10 | 2020-01-24 | 江苏理工学院 | 一种基于深度学习的环状轴承外表面缺陷检测方法 |
CN110640747B (zh) * | 2019-11-07 | 2023-03-24 | 上海电气集团股份有限公司 | 机器人的手眼标定方法、系统、电子设备和存储介质 |
CN110980276B (zh) * | 2019-12-30 | 2021-08-17 | 南京埃克里得视觉技术有限公司 | 一种三维视觉配合机器人实施铸件自动下料的方法 |
CN112123329B (zh) * | 2020-02-21 | 2024-09-13 | 深圳市三宝创新智能有限公司 | 一种机器人3d视觉手眼标定方法 |
CN111452048B (zh) * | 2020-04-09 | 2023-06-02 | 亚新科国际铸造(山西)有限公司 | 多机器人相对空间位置关系的标定方法和装置 |
CN111872922B (zh) * | 2020-07-29 | 2021-09-03 | 贵州电网有限责任公司 | 基于3d视觉传感器的三自由度并联机器人手眼标定方法 |
CN111958604A (zh) * | 2020-08-20 | 2020-11-20 | 扬州蓝邦数控制刷设备有限公司 | 一种高效的基于cad模型的异形毛刷单目视觉示教抓取方法 |
CN112589787B (zh) * | 2020-12-02 | 2022-09-16 | 上海纽钛测控技术有限公司 | 进料转盘机械臂上下样的视觉定位及手眼标定方法 |
CN113103238A (zh) * | 2021-04-26 | 2021-07-13 | 福建(泉州)哈工大工程技术研究院 | 一种基于数据优化的手眼标定方法 |
CN113211444B (zh) * | 2021-05-20 | 2022-04-29 | 菲烁易维(重庆)科技有限公司 | 一种用于机器人标定的系统及标定方法 |
CN113997059A (zh) * | 2021-11-02 | 2022-02-01 | 珠海格力智能装备有限公司 | 一种压缩机工件装配方法、装置、系统及存储介质 |
CN114474058B (zh) * | 2022-02-11 | 2023-12-05 | 中国科学院自动化研究所 | 视觉引导的工业机器人系统标定方法 |
CN115139283B (zh) * | 2022-07-18 | 2023-10-24 | 中船重工鹏力(南京)智能装备系统有限公司 | 基于随机标记点阵的机器人手眼标定方法 |
CN115609586B (zh) * | 2022-10-21 | 2024-06-04 | 华中科技大学 | 一种基于抓取位姿约束的机器人高精度装配方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60252913A (ja) * | 1984-05-30 | 1985-12-13 | Mitsubishi Electric Corp | ロボツトの制御装置 |
CN102294695A (zh) * | 2010-06-25 | 2011-12-28 | 鸿富锦精密工业(深圳)有限公司 | 机器人标定方法及标定系统 |
CN106767393B (zh) * | 2015-11-20 | 2020-01-03 | 沈阳新松机器人自动化股份有限公司 | 机器人的手眼标定装置与方法 |
CN107443377B (zh) * | 2017-08-10 | 2020-07-17 | 埃夫特智能装备股份有限公司 | 传感器-机器人坐标系转换方法及机器人手眼标定方法 |
CN107498558A (zh) * | 2017-09-19 | 2017-12-22 | 北京阿丘科技有限公司 | 全自动手眼标定方法及装置 |
CN108180834B (zh) * | 2018-02-05 | 2024-09-10 | 中铁二十二局集团有限公司 | 一种工业机器人同三维成像仪位姿关系现场实时标定方法 |
-
2018
- 2018-07-05 CN CN201810730919.4A patent/CN108818535B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN108818535A (zh) | 2018-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108818535B (zh) | 机器人3d视觉手眼标定方法 | |
CN108399639B (zh) | 基于深度学习的快速自动抓取与摆放方法 | |
CN107351084B (zh) | 一种面向维修任务的空间机械臂手系统误差修正方法 | |
CN113379849B (zh) | 基于深度相机的机器人自主识别智能抓取方法及系统 | |
CN111347411B (zh) | 基于深度学习的双臂协作机器人三维视觉识别抓取方法 | |
CN113146620B (zh) | 基于双目视觉的双臂协作机器人系统和控制方法 | |
CN113715016B (zh) | 一种基于3d视觉的机器人抓取方法、系统、装置及介质 | |
CN109048897B (zh) | 一种主从机器人遥操作的方法 | |
CN107253191B (zh) | 一种双机械臂系统及其协调控制方法 | |
Su et al. | A new insertion strategy for a peg in an unfixed hole of the piston rod assembly | |
CN111360821A (zh) | 一种采摘控制方法、装置、设备及计算机刻度存储介质 | |
CN109664317A (zh) | 机器人的物体抓取系统及方法 | |
Al-Shanoon et al. | Robotic manipulation based on 3-D visual servoing and deep neural networks | |
CN113160334A (zh) | 一种基于手眼相机的双机器人系统标定方法 | |
CN115139283B (zh) | 基于随机标记点阵的机器人手眼标定方法 | |
CN112454366A (zh) | 一种手眼标定方法 | |
CN111216136A (zh) | 多自由度机械手臂控制系统、方法、存储介质、计算机 | |
Hvilshøj et al. | Calibration techniques for industrial mobile manipulators: Theoretical configurations and best practices | |
Kansal et al. | Vision-based kinematic analysis of the Delta robot for object catching | |
Navarro-Alarcon et al. | A dynamic and uncalibrated method to visually servo-control elastic deformations by fully-constrained robotic grippers | |
Ranjan et al. | Identification and control of NAO humanoid robot to grasp an object using monocular vision | |
Kawasaki et al. | Virtual robot teaching for humanoid hand robot using muti-fingered haptic interface | |
CN112123329B (zh) | 一种机器人3d视觉手眼标定方法 | |
Wu et al. | Parallel PnP Robots | |
Shauri et al. | Sensor integration and fusion for autonomous screwing task by dual-manipulator hand robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20200312 Address after: Room 1601, No.77, South Tiancheng Road, high speed rail new town, Xiangcheng District, Suzhou, Jiangsu Province Applicant after: Suzhou Hanzhen Shenmu Intelligent Technology Co., Ltd Address before: Hangzhou City, Zhejiang province Xihu District 310030 three Dun Shang Kun ecological Creative Park C323 Applicant before: HANCHINE. TECHNOLOGY CO., LTD. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |