CN114193444A - 一种机器人手眼标定方法、系统、设备及介质 - Google Patents
一种机器人手眼标定方法、系统、设备及介质 Download PDFInfo
- Publication number
- CN114193444A CN114193444A CN202111334710.4A CN202111334710A CN114193444A CN 114193444 A CN114193444 A CN 114193444A CN 202111334710 A CN202111334710 A CN 202111334710A CN 114193444 A CN114193444 A CN 114193444A
- Authority
- CN
- China
- Prior art keywords
- robot
- end effector
- coordinate system
- image sensor
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Abstract
本申请涉及一种机器人手眼标定方法、系统、设备及介质,所述机器人末端执行器安装有图像传感器,该方法包括:获取机器人在多个位姿下拍摄的靶标图像;对每个靶标图像进行处理,得到对应的标定点坐标;根据多个靶标图像的标定点坐标以及对应拍摄时机器人末端执行器的位姿,确定机器人末端执行器相对于图像传感器的位姿关系。本申请能够实现机器人手眼标定,并且提高了标定效率和准确率。
Description
技术领域
本申请涉及工业机器人技术领域,尤其是涉及一种机器人手眼标定方法、系统、设备及介质。
背景技术
随着劳动力成本的上涨,工业机器人产业得到了快速的发展,广泛的应用于装配、抓取定位等作业过程中。而实现这些功能的前提是获取机器人的手眼关系。手眼关系分为眼在手上(eye-in-hand)和眼在手外(eye-to-hand),其中眼在手上是将视觉传感器固定在机器人末端执行器上,随着机器人末端运动而运动,而眼在手外是将视觉传感器固定在机器人关节之外的某一位置,在测量过程中视觉传感器保持固定。
目前针对手在眼上的手眼关系标定,常用的手眼标定方法是:以标准球作为靶标,使机械手带动视觉传感器对其进行扫描,从而进行标定。这种方法对标准球的精度以及大小有一定的要求,同时扫描得到的三维点云处理过程较为繁琐,点云处理的精度也直接影响最终的标定精度。
发明内容
有鉴于此,本申请提供一种机器人手眼标定方法、系统、设备及介质,用以解决现有的手眼标定方法存在过程繁琐或者标定精度低的技术问题。
为了解决上述问题,第一方面,本申请提供一种机器人手眼标定方法,所述机器人末端执行器安装有图像传感器,所述方法包括:
获取机器人在多个位姿下拍摄的靶标图像;
对每个靶标图像进行处理,得到对应的标定点坐标;
根据多个靶标图像的标定点坐标以及对应拍摄时机器人末端执行器的位姿,确定机器人末端执行器相对于图像传感器的位姿关系。
可选的,所述机器人末端执行器的位姿包括机器人基坐标系到机器人末端执行器坐标系的转换矩阵: 分别表示第i次拍摄时机器人末端执行器坐标在机器人基坐标系的x、y、z轴上的偏移量,分别表示第i次拍摄时机器人末端执行器坐标绕机器人基坐标系的z、y、x轴的旋转角度,下标t表示机器人末端执行器坐标系。
可选的,所述靶标包括平面圆形与多组经过其圆心的辅助线。
可选的,所述靶标图像通过机器人运动至所述图像传感器的激光线与任一组所述辅助线重合时拍摄确定。
可选的,所述标定点坐标为图像传感器坐标系下平面圆形的圆心坐标。
可选的,对每个靶标图像进行处理,得到对应的标定点坐标,包括:
对靶标图像进行特征提取,得到目标边缘;
对目标边缘进行椭圆拟合,得到所述平面圆形的圆心坐标。
可选的,所述确定机器人末端执行器相对于图像传感器的位姿关系,包括基于预设的单点多姿态模型,并结合多组靶标图像的标定点坐标和对应拍摄时机器人末端执行器的位姿确定所述机器人末端执行器相对于图像传感器的位姿关系,其中所述单点多姿态模型表示如下:
Pb=AXPc
其中,Pc表示图像传感器坐标系下的标定点坐标,下标c表示图像传感器坐标系;Pb表示机器人基坐标系下的标定点坐标,下标b表示机器人基坐标系;A表示机器人基坐标系到机器人末端执行器坐标系的转换矩阵;X表示机器人末端执行器相对于图像传感器的位姿关系。
第二方面,本申请提供一种机器人手眼标定系统,所述系统包括:
获取图像模块,用于获取机器人在多个位姿下拍摄的靶标图像;
图像处理模块,用于对每个靶标图像进行处理,得到对应的标定点坐标;
计算模块,用于根据多个靶标图像的标定点坐标以及对应拍摄时机器人末端执行器的位姿,确定机器人末端执行器相对于图像传感器的位姿关系。
第三方面,本申请提供的一种计算机设备,采用如下的技术方案:
一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现所述机器人手眼标定方法的步骤。
第四方面,本申请提供的一种计算机可读存储介质,采用如下的技术方案:
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现所述机器人手眼标定方法的步骤。
采用上述实施例的有益效果是:本实施例通过获取机器人在多个位姿下拍摄的靶标图像,对每个靶标图像进行处理,从而得到每个靶标图像对应的标定点坐标;根据多个靶标图像的标定点坐标以及对应拍摄时机器人末端执行器的位姿,确定机器人末端执行器相对于图像传感器的位姿关系,从而实现机器人手眼标定,并且提高了标定效率和准确率。
附图说明
图1为本申请提供的机器人手眼标定装置的应用场景示意图;
图2为本申请提供的机器人手眼标定方法一实施例的方法流程图;
图3为本申请提供的靶标一实施例的方法流程图;
图4为本申请提供的机器人手眼标定方法步骤S102一实施例的方法流程图;
图5为本申请提供的机器人手眼标定系统一实施例的原理框图;
图6为本申请提供的计算机设备一实施例的原理框图。
具体实施方式
下面结合附图来具体描述本申请的优选实施例,其中,附图构成本申请一部分,并与本申请的实施例一起用于阐释本申请的原理,并非用于限定本申请的范围。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
本实施例提供了一种机器人手眼标定方法,应用于机器人手眼标定装置,参照图1,该机器人手眼标定装置包括机器人101、图像传感器102以及靶标103,该装置中存在三个坐标系:机器人基坐标系Ob、机器人末端执行器坐标系Ot以及图像传感器坐标系Oc。
参照图2,本实施例提供的机器人手眼标定方法,包括下述步骤:
S201、获取机器人在多个位姿下拍摄的靶标图像;
S202、对每个靶标图像进行处理,得到对应的标定点坐标;
S203、根据多个靶标图像的标定点坐标以及对应拍摄时机器人末端执行器的位姿,确定机器人末端执行器相对于图像传感器的位姿关系。
在本实施例中,靶标采用平面圆形图案与多组经过其圆心的辅助线构成,如图3所示。在本实施例中,靶标图像的标定点坐标是指在图像传感器坐标系下的坐标,可以由图像传感器提供。拍摄时机器人末端执行器的位姿可以由机器人提供。在本实施例中图像传感器可以采用线结构光视觉传感器。本实施例获取机器人在至少四个位姿下拍摄的靶标图像。
本实施例通过获取机器人在多个位姿下拍摄的靶标图像,对每个靶标图像进行处理,从而得到每个靶标图像对应的标定点坐标;根据多个靶标图像的标定点坐标以及对应拍摄时机器人末端执行器的位姿,确定机器人末端执行器相对于图像传感器的位姿关系,从而实现机器人手眼标定,并且提高了标定效率和准确率。
在一实施例中,本实施例步骤S101中获取机器人在多个位姿下拍摄的靶标图像,具体地,机器人带动视觉传感器移动至合适位置对平面靶标进行拍照;需要说明的是,参照图1,本实施例的合适位置是指机器人带着线结构光视觉传感器运动到靶标的正对位置即上方,在激光线经过圆形靶标的圆心时,进行拍照,如图3所示。需要说明的是,记录此时机器人末端执行器的位姿。
在一实施例中,参照图4,步骤S102即对每个靶标图像进行处理,得到对应的标定点坐标,包括:
S401、对靶标图像进行特征提取,得到目标边缘;
S402、对目标边缘进行椭圆拟合,得到平面圆形的圆心坐标。
在本实施例中,可以通过训练完备的深度学习模型对靶标图像进行特征识别,提取得到目标边缘即靶标的圆形边缘;然后通过目标边缘椭圆拟合,从而得到平面圆形的圆心坐标,该圆心坐标是在图像传感器坐标系下的。
在一实施例中,步骤S103即根据多个靶标图像的标定点坐标以及对应拍摄时机器人末端执行器的位姿,确定机器人末端执行器相对于图像传感器的位姿关系。需要说明的是,通过改变机器人的位置与姿态,重复多次测量,以获取多组数据即多个靶标图像的标定点坐标以及对应拍摄时机器人末端执行器的位姿。进一步地,利用获取的多组数据,构建方程组并进行求解。
在一实施例中,多个靶标图像的标定点坐标表示为:其中表示第i次测量中靶标在图像传感器(视觉传感器)坐标系下的标定点坐标,分别表示第i次测量中标靶的标定点在图像传感器坐标系下的x、y、z坐标,下标c表示图像传感器坐标系。机器人末端执行器的位姿包括机器人基坐标系到机器人末端执行器坐标系的转换矩阵: 分别表示第i次拍摄时机器人末端执行器坐标在机器人基坐标系的x、y、z轴上的偏移量,分别表示第i次拍摄时机器人末端执行器坐标绕机器人基坐标系的z、y、x轴的旋转角度,下标t表示机器人末端执行器坐标系。
本实施例通过单点多姿态模型的标定方法,利用上述多组数据可以方便的求解出手眼关系矩阵,即机器人末端执行器相对于图像传感器的位姿关系。
进一步地,步骤S103中确定机器人末端执行器相对于图像传感器的位姿关系,包括基于预设的单点多姿态模型,并结合多组靶标图像的标定点坐标和对应拍摄时机器人末端执行器的位姿确定机器人末端执行器相对于图像传感器的位姿关系,其中单点多姿态模型表示如下:
Pb=AXPc (1)
其中,Pc表示图像传感器坐标系下的标定点坐标,下标c表示图像传感器坐标系;Pb表示机器人基坐标系下的标定点坐标,下标b表示机器人基坐标系;A表示机器人基坐标系到机器人末端执行器坐标系的转换矩阵;X表示机器人末端执行器相对于图像传感器的位姿关系,即待求的手眼标定矩阵。
在本实施例中,由于靶标是固定不动的,因此机器人基坐标系下的标定点坐标Pb是固定的,机器人带动视觉传感器以不同的姿态拍摄靶标时,根据式(1)可以列出以下方程组:
其中i表示机器人测量的次数,进一步可建立如下方程组:
对式(3)解方程即可得到手眼标定矩阵X,即机器人末端执行器相对于图像传感器的位姿关系。
本实施例中为保证测量结果的准确性,应进行多次测量,具体实施过程给出以下参考:机器人带动视觉传感器移动到合适的测量范围内,使激光线与其中一组过圆心的辅助线重合,进行拍摄,进一步地,机器人以不同的姿态对同一组过圆心的辅助线进行上述操作,重复三次,接着选取另一组过圆心的辅助线进行上述操作,共选取三组辅助线进行测量。
在本实施例中,将所得数据按照式(3)方程组,对该非线性方程组,采用最小二乘法进行求解,能有效的避免实验过程中产生的误差,提高测量的精度。
区别于现有技术,本实施例通过获取机器人在多个位姿下拍摄的靶标图像,对每个靶标图像进行处理,从而得到每个靶标图像对应的标定点坐标;根据多个靶标图像的标定点坐标以及对应拍摄时机器人末端执行器的位姿,确定机器人末端执行器相对于图像传感器的位姿关系,从而实现机器人手眼标定,并且提高了标定效率和准确率。此外,本实施例采用自制的平面靶标作为标定物,结合单点多姿态模型的思想求解机器人的手眼关系,与传统的手眼标定方法相比,本实施例具有标定物易制作、标定过程简单、标定精度高等优点。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
本实施例还提供一种机器人手眼标定系统,该机器人手眼标定系统与上述实施例中机器人手眼标定方法一一对应。如图5所示,该机器人手眼标定系统包括获取图像模块501、图像处理模块502以及计算模块503。各功能模块详细说明如下:
获取图像模块501,用于获取机器人在多个位姿下拍摄的靶标图像,位姿为机器人末端执行器的;
图像处理模块502,用于对每个靶标图像进行处理,得到对应的标定点坐标;
计算模块503,用于根据多个靶标图像的标定点坐标以及对应拍摄时机器人末端执行器的位姿,确定机器人末端执行器相对于图像传感器的位姿关系。
关于机器人手眼标定系统各个模块的具体限定可以参见上文中对于机器人手眼标定方法的限定,在此不再赘述。上述机器人手眼标定系统中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
参照图6,本实施例还提供了一种计算机设备,该计算机设备可以是移动终端、桌上型计算机、笔记本、掌上电脑及服务器等计算设备。该计算机设备包括处理器10、存储器20及显示器30。图6仅示出了计算机设备的部分组件,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。
存储器20在一些实施例中可以是计算机设备的内部存储单元,例如计算机设备的硬盘或内存。存储器20在另一些实施例中也可以是计算机设备的外部存储设备,例如计算机设备上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(SecureDigital,SD)卡,闪存卡(Flash Card)等。进一步地,存储器20还可以既包括计算机设备的内部存储单元也包括外部存储设备。存储器20用于存储安装于计算机设备的应用软件及各类数据,例如安装计算机设备的程序代码等。存储器20还可以用于暂时地存储已经输出或者将要输出的数据。在一实施例中,存储器20上存储有计算机程序40。
处理器10在一些实施例中可以是一中央处理器(Central Processing Unit,CPU),微处理器或其他数据处理芯片,用于运行存储器20中存储的程序代码或处理数据,例如执行机器人手眼标定方法等。
显示器30在一些实施例中可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。显示器30用于显示在计算机设备的信息以及用于显示可视化的用户界面。计算机设备的部件10-30通过系统总线相互通信。
在一实施例中,当处理器10执行存储器20中计算机程序40时实现以下步骤:
获取机器人在多个位姿下拍摄的靶标图像;
对每个靶标图像进行处理,得到对应的标定点坐标;
根据多个靶标图像的标定点坐标以及对应拍摄时机器人末端执行器的位姿,确定机器人末端执行器相对于图像传感器的位姿关系。
本实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
获取机器人在多个位姿下拍摄的靶标图像;
对每个靶标图像进行处理,得到对应的标定点坐标;
根据多个靶标图像的标定点坐标以及对应拍摄时机器人末端执行器的位姿,确定机器人末端执行器相对于图像传感器的位姿关系。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。
本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上所述,仅为本申请较佳的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本申请的保护范围之内。
Claims (10)
1.一种机器人手眼标定方法,所述机器人末端执行器安装有图像传感器,其特征在于,所述方法包括:
获取机器人在多个位姿下拍摄的靶标图像;
对每个靶标图像进行处理,得到对应的标定点坐标;
根据多个靶标图像的标定点坐标以及对应拍摄时机器人末端执行器的位姿,确定机器人末端执行器相对于所述图像传感器的位姿关系。
3.根据权利要求1所述的机器人手眼标定方法,其特征在于,所述靶标包括平面圆形与多组经过其圆心的辅助线。
4.根据权利要求3所述的机器人手眼标定方法,其特征在于,所述靶标图像通过机器人运动至所述图像传感器的激光线与任一组所述辅助线重合时拍摄确定。
5.根据权利要求3所述的机器人手眼标定方法,其特征在于,所述标定点坐标为图像传感器坐标系下平面圆形的圆心坐标。
6.根据权利要求5所述的机器人手眼标定方法,其特征在于,对每个靶标图像进行处理,得到对应的标定点坐标,包括:
对靶标图像进行特征提取,得到目标边缘;
对目标边缘进行椭圆拟合,得到所述平面圆形的圆心坐标。
7.根据权利要求5所述的机器人手眼标定方法,其特征在于,所述确定机器人末端执行器相对于图像传感器的位姿关系,包括基于预设的单点多姿态模型,并结合多组靶标图像的标定点坐标和对应拍摄时机器人末端执行器的位姿确定所述机器人末端执行器相对于图像传感器的位姿关系,其中所述单点多姿态模型表示如下:
Pb=AXPc
其中,Pc表示图像传感器坐标系下的标定点坐标,下标c表示图像传感器坐标系;Pb表示机器人基坐标系下的标定点坐标,下标b表示机器人基坐标系;A表示机器人基坐标系到机器人末端执行器坐标系的转换矩阵;X表示机器人末端执行器相对于图像传感器的位姿关系。
8.一种机器人手眼标定系统,其特征在于,所述系统包括:
获取图像模块,用于获取机器人在多个位姿下拍摄的靶标图像;
图像处理模块,用于对每个靶标图像进行处理,得到对应的标定点坐标;
计算模块,用于根据多个靶标图像的标定点坐标以及对应拍摄时机器人末端执行器的位姿,确定机器人末端执行器相对于图像传感器的位姿关系。
9.一种计算机设备,其特征在于,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述机器人手眼标定方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述机器人手眼标定方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111334710.4A CN114193444A (zh) | 2021-11-11 | 2021-11-11 | 一种机器人手眼标定方法、系统、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111334710.4A CN114193444A (zh) | 2021-11-11 | 2021-11-11 | 一种机器人手眼标定方法、系统、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114193444A true CN114193444A (zh) | 2022-03-18 |
Family
ID=80647381
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111334710.4A Pending CN114193444A (zh) | 2021-11-11 | 2021-11-11 | 一种机器人手眼标定方法、系统、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114193444A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116423498A (zh) * | 2023-03-08 | 2023-07-14 | 湖北普罗格科技股份有限公司 | 基于机械臂末端的标定方法、装置、介质及设备 |
CN117506919A (zh) * | 2023-12-01 | 2024-02-06 | 广州创之力智能科技有限公司 | 一种手眼标定方法、装置、终端设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108942934A (zh) * | 2018-07-23 | 2018-12-07 | 珠海格力电器股份有限公司 | 确定手眼标定的方法及装置 |
CN110009685A (zh) * | 2018-12-29 | 2019-07-12 | 南京衍构科技有限公司 | 一种应用于电弧增材的激光相机手眼标定方法 |
CN110695991A (zh) * | 2019-09-26 | 2020-01-17 | 南京理工大学 | 基于变异粒子群优化的自动手眼标定方法 |
CN111791227A (zh) * | 2019-12-31 | 2020-10-20 | 深圳市豪恩声学股份有限公司 | 机器人手眼标定方法、装置及机器人 |
CN113043268A (zh) * | 2019-12-27 | 2021-06-29 | 沈阳新松机器人自动化股份有限公司 | 机器人手眼标定方法、装置、终端、系统及存储介质 |
-
2021
- 2021-11-11 CN CN202111334710.4A patent/CN114193444A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108942934A (zh) * | 2018-07-23 | 2018-12-07 | 珠海格力电器股份有限公司 | 确定手眼标定的方法及装置 |
CN110009685A (zh) * | 2018-12-29 | 2019-07-12 | 南京衍构科技有限公司 | 一种应用于电弧增材的激光相机手眼标定方法 |
CN110695991A (zh) * | 2019-09-26 | 2020-01-17 | 南京理工大学 | 基于变异粒子群优化的自动手眼标定方法 |
CN113043268A (zh) * | 2019-12-27 | 2021-06-29 | 沈阳新松机器人自动化股份有限公司 | 机器人手眼标定方法、装置、终端、系统及存储介质 |
CN111791227A (zh) * | 2019-12-31 | 2020-10-20 | 深圳市豪恩声学股份有限公司 | 机器人手眼标定方法、装置及机器人 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116423498A (zh) * | 2023-03-08 | 2023-07-14 | 湖北普罗格科技股份有限公司 | 基于机械臂末端的标定方法、装置、介质及设备 |
CN117506919A (zh) * | 2023-12-01 | 2024-02-06 | 广州创之力智能科技有限公司 | 一种手眼标定方法、装置、终端设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109829953B (zh) | 图像采集装置标定方法、装置、计算机设备和存储介质 | |
US9199379B2 (en) | Robot system display device | |
US9529945B2 (en) | Robot simulation system which simulates takeout process of workpieces | |
CN114193444A (zh) | 一种机器人手眼标定方法、系统、设备及介质 | |
CN110640745B (zh) | 基于视觉的机器人自动标定方法、设备和存储介质 | |
CN110640747B (zh) | 机器人的手眼标定方法、系统、电子设备和存储介质 | |
CN110207710B (zh) | 机器人重定位方法及装置 | |
Qin et al. | Precise robotic assembly for large-scale objects based on automatic guidance and alignment | |
US11654571B2 (en) | Three-dimensional data generation device and robot control system | |
JP2012141962A (ja) | 位置姿勢計測装置及び位置姿勢計測方法 | |
CN111438688B (zh) | 机器人校正方法、装置、计算机设备及存储介质 | |
CN114474056B (zh) | 一种面向抓取操作的单目视觉高精度目标定位方法 | |
CN113379849A (zh) | 基于深度相机的机器人自主识别智能抓取方法及系统 | |
CN112927340B (zh) | 一种不依赖于机械摆放的三维重建加速方法、系统及设备 | |
CN113172636B (zh) | 一种自动手眼标定方法、装置及存储介质 | |
US20210299876A1 (en) | System, device and method for determining error in robotic manipulator-to-camera calibration | |
CN114677429B (zh) | 一种机械手的定位方法、装置、计算机设备和存储介质 | |
CN114505864B (zh) | 一种手眼标定方法、装置、设备及存储介质 | |
CN110842917B (zh) | 串并联机械的机械参数的标定方法、电子装置及存储介质 | |
CN115741666A (zh) | 机器人手眼标定方法、机器人及机器人作业方法 | |
CN115049744A (zh) | 机器人手眼坐标转换方法、装置、计算机设备和存储介质 | |
JP2014238687A (ja) | 画像処理装置、ロボット制御システム、ロボット、画像処理方法及び画像処理プログラム | |
CN116100564B (zh) | 一种标定机械手的高精度标定方法及装置 | |
CN115990890B (zh) | 一种机械手的标定方法、装置、计算机设备和存储介质 | |
CN213616713U (zh) | 适用于3d视觉与六轴机器人的标定模型 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |