CN111482964A - 一种新的机器人手眼标定方法 - Google Patents

一种新的机器人手眼标定方法 Download PDF

Info

Publication number
CN111482964A
CN111482964A CN202010307432.2A CN202010307432A CN111482964A CN 111482964 A CN111482964 A CN 111482964A CN 202010307432 A CN202010307432 A CN 202010307432A CN 111482964 A CN111482964 A CN 111482964A
Authority
CN
China
Prior art keywords
robot
point
workpiece
image
center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010307432.2A
Other languages
English (en)
Inventor
田培运
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Gene Automation Technology Co ltd
Original Assignee
Shanghai Gene Automation Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Gene Automation Technology Co ltd filed Critical Shanghai Gene Automation Technology Co ltd
Priority to CN202010307432.2A priority Critical patent/CN111482964A/zh
Publication of CN111482964A publication Critical patent/CN111482964A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1653Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

本发明为一种新的机器人手眼标定方法,首先采用单一示教的九点法对机器人进行手眼标定;其次机器人根据设置好的九点拍图中心位置和移动步长,带动相机或目标工件自动运动九个位置;本发明提出了一种新的机器人手眼标定方法,该方法采用单一示教的九点法对机器人进行手眼标定,且该方法适用于眼在手中、手眼分离两种情况,机器人根据设置好的九点拍图中心位置和移动步长,带动相机或目标工件自动运动九个位置,并获取九张图像,根据图像定位算子对图像中的工件进行定位得到目标工件在图像坐标系中的像素坐标位置,求出像素坐标位置与机器人位置的对应关系,并通过相对位置关系换算得到目标工件的实际位置,该方法只需对目标工件进行一次示教。

Description

一种新的机器人手眼标定方法
技术领域
本发明涉及机器人定位领域,尤其涉及一种新的机器人手眼标定方法。
背景技术
实际应用中,常常将视觉传感器(如摄像机)固定在机器人的末端执行器上,即将“眼”安装在“手”上,形成手眼关系。这样做可以让机器人通过摄像机实时测量目标与摄像机的位姿关系,从而决定机器人下一步的运动,而在此之前,必须进行手眼标定。
随着工业自动化程度的提高,工业机器人凭借其精度高、易于自动化等优点应用也越来越广泛,为进一步提高工业机器人的自动化程度,机器视觉与工业机器人的结合也越来越普遍,如何快速的、高精度的完成机器人手眼标定也变得至关重要。传统的机器人手眼标定,需要进行多个点位示教,大大降低了标定的速度和精度,并且,传统的标定流程较为繁琐,大大降低了工业生产的效率。
发明内容
根据以上技术问题,本发明提供一种新的机器人手眼标定方法,其具体操作方法为:
首先采用单一示教的九点法对机器人进行手眼标定;
其次机器人根据设置好的九点拍图中心位置和移动步长,带动相机或目标工件自动运动九个位置,并获取九张图像;
然后机器人根据图像定位算子对图像中的工件进行定位得到目标工件在图像坐标系中的像素坐标位置,求出像素坐标位置与机器人位置的对应关系,并通过相对位置关系换算得到目标工件的实际位置,该方法只需对目标工件进行一次示教。
所述九点法适用于眼在手中、手眼分离两种情况。
所述手眼标定方法为:示教好的工具坐标系和工件坐标系下进行操作,拍摄的目标物记为工件,机器人姿态保持不变、机器人运动位于工件坐标系下相同高度,记为Z0。
一种新的机器人手眼标定方法,其具体操作方法为:
(1)移动机器人至Z0高度,保持机器人姿态固定不变,在X方向和Y方向移动机器人,确定机器人的移动步长L0,移动机器人使工件位于相机视场中心位置,读取机器人当前位置,记为机器人九点拍图的中心位置 Point_center(x,y)。
(2)根据机器人的九点中心位置Point_center和机器人的移动步长L0,规划机器人九点运动的轨迹,如图2所示,可以求出机器人运动的九点位置坐标,记为机器人九点位置Rob_point[9];
(3)机器人按规划的运动轨迹,依次运动到机器人九点位置,机器人运动至机器人九点位置的任何一个位置,相机获取一张图像,运动结束后相机共获取九张图像,记为九点图像Pic[9];
(4)进行图像定位,根据设置图像定位算法,对九点图像中的工件依次进行定位处理,得到九组工件在图像坐标系中的像素坐标位置,记为图像九点位置 Pic_point[9];
(5)九点机器人位置的坐标和九点图像位置的坐标是一一对应的,根据相对应的九对位置信息可以求出机器人位置坐标与图像位置坐标之间的变换关系H,
Figure RE-GDA0002524562140000031
(6)保持工件位置不变,机器人的姿态不变,对工件进行示教,将工具中心对准工件的中心,读取机器人当前位置,记为示教工件中心位置 Point_teach(x,y),由于在求解透视变换矩阵的过程中,所使用的机器人位置为九点拍图的中心位置,而非示教工件中心位置,中间存在位置偏差,位置偏差为(off_x,off_y);
(7)移动机器人至机器人九点位置的中心点进行图像采集,通过定位算法对相机拍摄的图像进行定位,得到工件在图像坐标系中的像素坐标 Pic_Point(x0,y0),通过矩阵H可以求得机器人的位置坐标 Rob_Point(wld_x0,wld_y0),如下式所示,
Figure RE-GDA0002524562140000032
在求取变换矩阵的过程中,工件保持位置不变,相机在不同的位置进行拍摄,在实际的定位过程中,相机在固定位置进行拍摄,工件会处于不同位置,在标定和实际应用的过程中机器人坐标位置相对于机器人九点拍图中心位置是相反的,通过位置坐标变换对工件的位置进行求解,转换后的坐标为
(wld_trans_x0,wld_trans_y0),其中,
wld_trans_x0=2*Point_center.x-wld_x0,
wld_trans_y0=2*Point_center.y-wld_y0;
此外,工件在工件坐标系下的实际位置与转换后的位置还存在位置偏差 (off_x,off_y),所以工件的实际位置Target_point(x,y)为:
Target_point.x=wld_trans_x0+off_x, Target_point.y=wld_trans_y0+off_y。
本发明的有益效果为:本发明提出了一种新的机器人手眼标定方法,该方法采用单一示教的九点法对机器人进行手眼标定,且该方法适用于眼在手中、手眼分离两种情况,机器人根据设置好的九点拍图中心位置和移动步长,带动相机或目标工件自动运动九个位置,并获取九张图像,根据图像定位算子对图像中的工件进行定位得到目标工件在图像坐标系中的像素坐标位置,求出像素坐标位置与机器人位置的对应关系,并通过相对位置关系换算得到目标工件的实际位置,该方法只需对目标工件进行一次示教。该标定方法标定速度快,标定精度高,在标定的过程中只需进行一次人工示教即可完成手眼标定,操作简便,实用性强。
附图说明
图1为本发明手眼标定流程图;
图2为本发明机器人九点运动轨迹图;
图3为本发明眼在手中标定示意图。
具体实施方式
根据图1所示,对本发明进行进一步说明:
实施例1
本发明在示教好的工具坐标系和工件坐标系下进行操作,机器人姿态保持不变、机器人运动位于工件坐标系下相同高度,记为Z0。以眼在手中为例,机器人末端装夹相机和示教针尖,如图3所示,配合视觉软件,标定及定位流程如下:
移动机器人至Z0高度,镜头聚焦并固定。在Z0高度内移动机器人,确保目标工件位于视场中,确定合适的机器人运动步长L0以及目标工件在机器人视场中间时的机器人位置Point_center(x,y)。
按照规划好的机器人九点路径进行运动,运动轨迹如图2所示,路径的九个点中,1点的位置为Point_center(x,y),任何两点之间的距离为步长L0,机器人运动的九个点坐标为Rob_point[9],机器人运动到九点位置的任何一点相机都获取一张图片,机器人运动结束,相机共获取九张图片。
系统通过建立的定位模板依次对九张图像的目标工件进行定位,得到九组像素坐标位置Pic_point[9],与机器人的九个点坐标Rob_point[9]相对应,计算九组对应点之间的变换,得到变换矩阵H,
Figure RE-GDA0002524562140000051
保持工件位置不变,机器人的姿态不变,将工具中心对准工件的中心,获取机器人当前位置,记为示教工件中心位置Point_teach(x,y)。计算中心位置偏差(off_x,off_y),其中,
off_x=Teach_center.x–Point_center.x;
off_y=Teach_center.y–Point_center.y;
移动机器人至机器人九点位置的中心点进行图像采集,对采集到的图像进行定位,得到工件在图像坐标系中的像素坐标Pic_Point(x0,y0),通过矩阵H 可以求出对应的机器人的位置坐标Rob_Point(wld_x0,wld_y0),如下式所示,
Figure RE-GDA0002524562140000052
对得到的机器人位置进行转换得到工件在工件坐标系下的实际位置Target_point(x,y),
Target_point.x=2*Point_center.x-wld_x0+off_x,
Target_point.y=2*Point_center.y-wld_y0+off_y。
实施例2
以眼在手中为例,机器人末端装夹相机和示教针尖。
1)移动机器人至Z0高度,保持机器人姿态固定不变,在X方向和Y方向移动机器人,确定机器人的移动步长L0,移动机器人使工件位于相机视场中心位置,读取机器人当前位置,记为机器人九点拍图的中心位置 Point_center(x,y)。
2)根据机器人的九点中心位置Point_center和机器人的移动步长L0,规划机器人九点运动的轨迹,如图2所示,可以求出机器人运动的九点位置坐标,记为机器人九点位置Rob_point[9],其中,
Rob_point[0].x=Point_center.x;
Rob_point[0].y=Point_center.y;
Rob_point[1].x=Point_center.x-L0
Rob_point[1].y=Point_center.y;
Rob_point[2].x=Point_center.x-L0
Rob_point[2].y=Point_center.y+L0
Rob_point[3].x=Point_center.x;
Rob_point[3].y=Point_center.y+L0
Rob_point[4].x=Point_center.x+L0
Rob_point[4].y=Point_center.y+L0
Rob_point[5].x=Point_center.x+L0
Rob_point[5].y=Point_center.y;
Rob_point[6].x=Point_center.x+L0
Rob_point[6].y=Point_center.y-L0
Rob_point[7].x=Point_center.x;
Rob_point[7].y=Point_center.y-L0
Rob_point[8].x=Point_center.x-L0
Rob_point[8].y=Point_center.y-L0
3)机器人按规划的运动轨迹,依次运动到机器人九点位置,机器人运动至机器人九点位置的任何一个位置,相机获取一张图像,运动结束后相机共获取九张图像,记为九点图像Pic[9];
4)图像定位。根据设置图像定位算法,对九点图像中的工件依次进行定位处理,得到九组工件在图像坐标系中的像素坐标位置,记为图像九点位置 Pic_point[9];
5)九点机器人位置的坐标和九点图像位置的坐标是一一对应的,根据相对应的九对位置信息可以求出机器人位置坐标与图像位置坐标之间的变换关系H,
Figure DA00024562354259282
6)保持工件位置不变,机器人的姿态不变,对工件进行示教,将工具中心对准工件的中心,读取机器人当前位置,记为示教工件中心位置 Point_teach(x,y)。由于在求解透视变换矩阵的过程中,所使用的机器人位置为九点拍图的中心位置,而非示教工件中心位置,中间存在位置偏差,位置偏差为(off_x,off_y),其中,
off_x=Teach_center.x–Point_center.x;
off_y=Teach_center.y–Point_center.y;
7)移动机器人至机器人九点位置的中心点进行图像采集,通过定位算法对相机拍摄的图像进行定位,得到工件在图像坐标系中的像素坐标 Pic_Point(x0,y0),通过矩阵H可以求得机器人的位置坐标 Rob_Point(wld_x0,wld_y0),如下式所示,
Figure DA00024562354259295
8)在求取变换矩阵的过程中,工件保持位置不变,相机在不同的位置进行拍摄,在实际的定位过程中,相机在固定位置进行拍摄,工件会处于不同位置,在标定和实际应用的过程中机器人坐标位置相对于机器人九点拍图中心位置是相反的,通过位置坐标变换对工件的位置进行求解,转换后的坐标为(wld_trans_x0,wld_trans_y0),其中,
wld_trans_x0=2*Point_center.x-wld_x0,
wld_trans_y0=2*Point_center.y-wld_y0
此外,工件在工件坐标系下的实际位置与转换后的位置还存在位置偏差 (off_x,off_y),所以工件的实际位置Target_point(x,y)为:
Target_point.x=wld_trans_x0+off_x,
Target_point.y=wld_trans_y0+off_y。
以上所述仅是本发明的优选实施方式,应当指出的是,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进,这些改进也应视为本发明的保护范围。

Claims (3)

1.一种新的机器人手眼标定方法,其具体操作方法为:
首先采用单一示教的九点法对机器人进行手眼标定;
其次机器人根据设置好的九点拍图中心位置和移动步长,带动相机或目标工件自动运动九个位置,并获取九张图像;
然后机器人根据图像定位算子对图像中的工件进行定位得到目标工件在图像坐标系中的像素坐标位置,求出像素坐标位置与机器人位置的对应关系,并通过相对位置关系换算得到目标工件的实际位置,该方法只需对目标工件进行一次示教。
所述九点法适用于眼在手中、手眼分离两种情况。
2.按照权利要求1所述的一种新的机器人手眼标定方法,其特征在于所述手眼标定方法为:示教好的工具坐标系和工件坐标系下进行操作,拍摄的目标物记为工件,机器人姿态保持不变、机器人运动位于工件坐标系下相同高度,记为Z0。
3.一种新的机器人手眼标定方法,其具体操作方法为:
(1)移动机器人至Z0高度,保持机器人姿态固定不变,在X方向和Y方向移动机器人,确定机器人的移动步长L0,移动机器人使工件位于相机视场中心位置,读取机器人当前位置,记为机器人九点拍图的中心位置Point_center(x,y)。
(2)根据机器人的九点中心位置Point_center和机器人的移动步长L0,规划机器人九点运动的轨迹,如图2所示,可以求出机器人运动的九点位置坐标,记为机器人九点位置Rob_point[9];
(3)机器人按规划的运动轨迹,依次运动到机器人九点位置,机器人运动至机器人九点位置的任何一个位置,相机获取一张图像,运动结束后相机共获取九张图像,记为九点图像Pic[9];
(4)进行图像定位,根据设置图像定位算法,对九点图像中的工件依次进行定位处理,得到九组工件在图像坐标系中的像素坐标位置,记为图像九点位置Pic_point[9];
(5)九点机器人位置的坐标和九点图像位置的坐标是一一对应的,根据相对应的九对位置信息可以求出机器人位置坐标与图像位置坐标之间的变换关系H,
Figure FDA0002456235410000021
(6)保持工件位置不变,机器人的姿态不变,对工件进行示教,将工具中心对准工件的中心,读取机器人当前位置,记为示教工件中心位置Point_teach(x,y),由于在求解透视变换矩阵的过程中,所使用的机器人位置为九点拍图的中心位置,而非示教工件中心位置,中间存在位置偏差,位置偏差为(off_x,off_y);
(7)移动机器人至机器人九点位置的中心点进行图像采集,通过定位算法对相机拍摄的图像进行定位,得到工件在图像坐标系中的像素坐标Pic_Point(x0,y0),通过矩阵H可以求得机器人的位置坐标Rob_Point(wld_x0,wld_y0),如下式所示,
Figure FDA0002456235410000022
在求取变换矩阵的过程中,工件保持位置不变,相机在不同的位置进行拍摄,在实际的定位过程中,相机在固定位置进行拍摄,工件会处于不同位置,在标定和实际应用的过程中机器人坐标位置相对于机器人九点拍图中心位置是相反的,通过位置坐标变换对工件的位置进行求解,转换后的坐标为(wld_trans_x0,wld_trans_y0),其中,
wld_trans_x0=2*Point_center.x-wld_x0,
wld_trans_y0=2*Point_center.y-wld_y0;
此外,工件在工件坐标系下的实际位置与转换后的位置还存在位置偏差(off_x,off_y),所以工件的实际位置Target_point(x,y)为:
Target_point.x=wld_trans_x0+off_x,
Target_point.y=wld_trans_y0+off_y。
CN202010307432.2A 2020-04-17 2020-04-17 一种新的机器人手眼标定方法 Pending CN111482964A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010307432.2A CN111482964A (zh) 2020-04-17 2020-04-17 一种新的机器人手眼标定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010307432.2A CN111482964A (zh) 2020-04-17 2020-04-17 一种新的机器人手眼标定方法

Publications (1)

Publication Number Publication Date
CN111482964A true CN111482964A (zh) 2020-08-04

Family

ID=71798004

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010307432.2A Pending CN111482964A (zh) 2020-04-17 2020-04-17 一种新的机器人手眼标定方法

Country Status (1)

Country Link
CN (1) CN111482964A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111958115A (zh) * 2020-08-10 2020-11-20 上海智殷自动化科技有限公司 一种用于激光焊缝跟踪的快速手眼标定方法
CN113400298A (zh) * 2021-05-10 2021-09-17 埃夫特智能装备股份有限公司 一种无公共视野的多相机定位大工件及工业机器人位置补偿方法
CN113689398A (zh) * 2021-08-23 2021-11-23 北京恒信凯博科技有限公司 一种机器人攻丝方法及装置
CN115582829A (zh) * 2021-07-05 2023-01-10 腾讯科技(深圳)有限公司 机械臂的位置确定方法、装置、电子设备及存储介质

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106780623A (zh) * 2016-12-14 2017-05-31 厦门理工学院 一种机器人视觉系统快速标定方法
CN107808401A (zh) * 2017-10-30 2018-03-16 大族激光科技产业集团股份有限公司 机械臂末端的单相机的手眼标定方法
US20180089831A1 (en) * 2016-09-28 2018-03-29 Cognex Corporation Simultaneous Kinematic and Hand-Eye Calibration
CN108436909A (zh) * 2018-03-13 2018-08-24 南京理工大学 一种基于ros的相机和机器人的手眼标定方法
CN109159114A (zh) * 2018-08-16 2019-01-08 郑州大学 Scara机械手固定相机视觉系统手眼标定的高精度方法
CN109671122A (zh) * 2018-12-14 2019-04-23 四川长虹电器股份有限公司 手眼相机标定方法及装置
CN110000790A (zh) * 2019-04-19 2019-07-12 深圳科瑞技术股份有限公司 一种SCARA机器人eye-to-hand手眼系统的标定方法
CN110202560A (zh) * 2019-07-12 2019-09-06 易思维(杭州)科技有限公司 一种基于单个特征点的手眼标定方法
CN110238849A (zh) * 2019-06-13 2019-09-17 深圳市汇川技术股份有限公司 机器人手眼标定方法及装置
CN110497386A (zh) * 2019-08-26 2019-11-26 中科新松有限公司 一种协作机器人手眼关系自动标定装置及方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180089831A1 (en) * 2016-09-28 2018-03-29 Cognex Corporation Simultaneous Kinematic and Hand-Eye Calibration
CN106780623A (zh) * 2016-12-14 2017-05-31 厦门理工学院 一种机器人视觉系统快速标定方法
CN107808401A (zh) * 2017-10-30 2018-03-16 大族激光科技产业集团股份有限公司 机械臂末端的单相机的手眼标定方法
CN108436909A (zh) * 2018-03-13 2018-08-24 南京理工大学 一种基于ros的相机和机器人的手眼标定方法
CN109159114A (zh) * 2018-08-16 2019-01-08 郑州大学 Scara机械手固定相机视觉系统手眼标定的高精度方法
CN109671122A (zh) * 2018-12-14 2019-04-23 四川长虹电器股份有限公司 手眼相机标定方法及装置
CN110000790A (zh) * 2019-04-19 2019-07-12 深圳科瑞技术股份有限公司 一种SCARA机器人eye-to-hand手眼系统的标定方法
CN110238849A (zh) * 2019-06-13 2019-09-17 深圳市汇川技术股份有限公司 机器人手眼标定方法及装置
CN110202560A (zh) * 2019-07-12 2019-09-06 易思维(杭州)科技有限公司 一种基于单个特征点的手眼标定方法
CN110497386A (zh) * 2019-08-26 2019-11-26 中科新松有限公司 一种协作机器人手眼关系自动标定装置及方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111958115A (zh) * 2020-08-10 2020-11-20 上海智殷自动化科技有限公司 一种用于激光焊缝跟踪的快速手眼标定方法
CN113400298A (zh) * 2021-05-10 2021-09-17 埃夫特智能装备股份有限公司 一种无公共视野的多相机定位大工件及工业机器人位置补偿方法
CN113400298B (zh) * 2021-05-10 2022-04-08 埃夫特智能装备股份有限公司 一种无公共视野的多相机定位大工件及工业机器人位置补偿方法
CN115582829A (zh) * 2021-07-05 2023-01-10 腾讯科技(深圳)有限公司 机械臂的位置确定方法、装置、电子设备及存储介质
CN113689398A (zh) * 2021-08-23 2021-11-23 北京恒信凯博科技有限公司 一种机器人攻丝方法及装置

Similar Documents

Publication Publication Date Title
CN111482964A (zh) 一种新的机器人手眼标定方法
CN111775146B (zh) 一种工业机械臂多工位作业下的视觉对准方法
TWI670153B (zh) 機器人及機器人系統
CN110238849B (zh) 机器人手眼标定方法及装置
CN111452040B (zh) 在引导装配环境中将机器视觉坐标空间关联的系统和方法
JP4021413B2 (ja) 計測装置
CN110276799B (zh) 一种坐标标定方法、标定系统及机械臂
CN112894823B (zh) 一种基于视觉伺服的机器人高精度装配方法
JP2015182144A (ja) ロボットシステムおよびロボットシステムの校正方法
CN113492393A (zh) 一种由人演示的机器人示教
CN110666798A (zh) 一种基于透视变换模型的机器人视觉标定方法
CN112958960B (zh) 一种基于光学靶标的机器人手眼标定装置
JP6565175B2 (ja) ロボットおよびロボットシステム
JP2016187846A (ja) ロボット、ロボット制御装置およびロボットシステム
CN114519738A (zh) 一种基于icp算法的手眼标定误差修正方法
CN112833792A (zh) 一种用于六自由度机械臂的精度标定和验证方法
CN114643578A (zh) 一种提高机器人视觉引导精度的标定装置及方法
CN114833832B (zh) 一种机器人手眼标定方法、装置、设备及可读存储介质
CN107756391B (zh) 机械手臂校正系统的校正方法
JPH0580842A (ja) 移動ロボツトの制御方法
CN112529856A (zh) 确定操作对象位置的方法、机器人和自动化系统
CN110533727B (zh) 一种基于单个工业相机的机器人自定位方法
CN110861076A (zh) 一种机械臂的手眼标定装置
CN108393676B (zh) 自动化彩妆装配的模型设定方法
US20230123629A1 (en) 3d computer-vision system with variable spatial resolution

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20200804