CN114833832A - 一种机器人手眼标定方法、装置、设备及可读存储介质 - Google Patents
一种机器人手眼标定方法、装置、设备及可读存储介质 Download PDFInfo
- Publication number
- CN114833832A CN114833832A CN202210508569.3A CN202210508569A CN114833832A CN 114833832 A CN114833832 A CN 114833832A CN 202210508569 A CN202210508569 A CN 202210508569A CN 114833832 A CN114833832 A CN 114833832A
- Authority
- CN
- China
- Prior art keywords
- calibration
- robot
- information
- matrix
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1692—Calibration of manipulator
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Manipulator (AREA)
Abstract
本发明提供了一种机器人手眼标定方法、装置、设备及可读存储介质,涉及机器人控制技术领域,包括获取第一信息,所述第一信息为获取与待测对象相匹配的模板的中心像素坐标;根据标定矩阵算法和所述第一信息,计算得到第二信息,所述第二信息包括多个待测对象的坐标值;将多个待测对象的所述坐标值通过粗标定矩阵映射到世界坐标系中,得到三组世界坐标数据,并基于圆拟合法进行求解,得到旋转标定数据,最终得到标定矩阵。本发明的有益效果为通过对特征点自动微调,获取到九组精确的图像坐标值和机器人坐标值,从而求出标定矩阵,极大地避免光源干扰以及人为相机对焦不准所导致的标定误差,对整体的标定精度有显著的提高。
Description
技术领域
本发明涉及机器人控制技术领域,具体而言,涉及机器人手眼标定方法、装置、设备及可读存储介质。
背景技术
随着科学技术的发展,机器人在工业方面的运用越来越广泛,对生产力的提升扮演着核心角色。为了提升机器人的自动化程度,机器视觉与机器人结合的更加紧密,从而如何快速、高效完成标定作业就变得至关重要。在平面机器人视觉系统中,相机固定一处,通过相机拍照采图获取到目标点,从而引导机器人到指定位置进行作业。在这类场景中,相机获取到的像素信息转化为机器人运动信息,需要搭建相机坐标与机器人坐标(世界坐标)之间的对应关系,这也就是手眼标定的目的。
传统的机器人手眼标定,采用多点位示教,标定流程繁琐,且精度验证时,排查误差原因较为麻烦,生产效率也会由此受到影响。
发明内容
本发明的目的在于提供一种机器人手眼标定方法、装置、设备及可读存储介质,以改善上述问题。为了实现上述目的,本发明采取的技术方案如下:
第一方面,本申请提供了一种机器人手眼标定方法,包括:
获取第一信息,所述第一信息为获取与待测对象相匹配的模板的中心像素坐标;
根据标定矩阵算法和所述第一信息,计算得到第二信息,所述第二信息包括多个待测对象的坐标值;
将多个待测对象的所述坐标值通过粗标定矩阵映射到世界坐标系中,得到三组世界坐标数据,并基于圆拟合法进行求解,得到旋转标定数据;
将所述旋转标定数据进行计算处理,最终得到标定矩阵。
优选地,根据标定矩阵算法和所述第一信息,计算得到第二信息,所述第二信息包括多个待测对象的坐标值,其中包括:
获取机器人带动采集装置移动后得到的目标坐标数据集合,所述机器人带动采集装置移动包括所述机器人带动采集装置以初始注册位置为起点移动设定的步数,所述目标坐标数据集合包括每次移动后获取采集装置的机器人关节轴中心的基坐标组成的轴中心基坐标集合和每次移动后获取标志点在采集装置坐标系下的像素坐标组成的标志点像素坐标集合;
根据所述目标坐标数据集合对所述像素坐标系与所述目标坐标系进行粗标定计算,得到粗标定结果,所述粗标定结果包括移动后的最佳九组世界坐标和像素坐标数据;
根据转置矩阵对所述粗标定结果进行计算,得到与所述粗标定结果相对应的六个坐标值。
优选地,将多个待测对象的所述坐标值通过粗标定矩阵映射到世界坐标系中,得到三组世界坐标数据,并基于圆拟合法进行求解,得到旋转标定数据,其中包括:
获取三组像素坐标数据,所述三组像素坐标数据是通过机器人带动采集装置旋转三次角度后记录对应的三组像素坐标位置数据;
根据粗标定矩阵,将三组所述像素坐标数据映射至世界坐标系中,得到三组世界坐标数据;
基于三点求圆形法,将三组所述世界坐标数据进行变换矩阵,得到第三信息,所述第三信息包括一个圆心坐标和所述圆心对应圆的半径;
将所述第三信息和所述机器人的当前位置坐标进行差值计算,得到固定偏差值,从而得到旋转标定数据。
优选地,将所述旋转标定数据进行计算处理,最终得到标定矩阵,其中包括:
以机器人的法兰平面与基座平面平行的姿势,控制所述机器人的采集装置每次旋转预设角度后与标定板圆心对准,并记录对准时所述采集装置的位置信息和角度信息;
根据所述位置信息和所述角度信息,得到所述采集装置的偏移量;
根据所述偏移量,获取所述像素坐标系与所述目标坐标系之间的粗标定变换矩阵;
根据所述目标坐标数据集合和所述粗标定变换矩阵进行精标定计算,得到所述像素坐标系与所述目标坐标系之间的精标定变换矩阵,从而得到最终的标定矩阵。
第二方面,本申请还提供了一种机器人手眼标定装置,包括:
获取模块:用于获取第一信息,所述第一信息为获取与待测对象相匹配的模板的中心像素坐标;
第一计算模块:用于根据标定矩阵算法和所述第一信息,计算得到第二信息,所述第二信息包括多个待测对象的坐标值;
映射模块:用于将多个待测对象的所述坐标值通过粗标定矩阵映射到世界坐标系中,得到三组世界坐标数据,并基于圆拟合法进行求解,得到旋转标定数据;
第二计算模块:用于将所述旋转标定数据进行计算处理,最终得到标定矩阵。
第三方面,本申请还提供了一种机器人手眼标定设备,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现所述机器人手眼标定方法的步骤。
第四方面,本申请还提供了一种可读存储介质,所述可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现上述基于机器人手眼标定方法的步骤。
本发明的有益效果为:本发明适用于眼在手中和手眼分离场景,但与传统标定方法有所不同:采取平移标定和旋转标定分开进行,便于后期精度验证时,排查误差提供了更好的修正作用;本发明通过对特征点自动微调,获取到九组精确的图像坐标值和机器人坐标值,从而求出标定矩阵,极大地避免光源干扰以及人为相机对焦不准所导致的标定误差,对整体的标定精度有显著的提高;与传统标定不同,本发明最少可用一点坐标数据进行求解标定矩阵,在相机视野内畸变很小的情况下,获取到某一点的像素坐标和世界坐标,即可求出对应的标定矩阵。
本发明的其他特征和优点将在随后的说明书阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明实施例了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明实施例中所述的机器人手眼标定方法流程示意图;
图2为本发明实施例中所述的机器人手眼标定装置结构示意图;
图3为本发明实施例中所述的机器人手眼标定设备结构示意图。
图中:701、获取模块;702、第一计算模块;7021、第一获取单元;7022、第一计算单元;7023、第二计算单元;703、映射模块;7031、第二获取单元;7032、映射单元;7033、变换单元;7034、第三计算单元;704、第二计算模块;7041、控制单元;7042、第四计算单元;7043、第三获取单元;7044、第五计算单元;800、机器人手眼标定设备;801、处理器;802、存储器;803、多媒体组件;804、输入/输出(I/O)接口;805、通信组件。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本发明的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
实施例1:
现有技术中传统的机器人手眼标定,采用多点位示教,标定流程繁琐,且精度验证时,排查误差原因较为麻烦,生产效率也会由此受到影响。
根据上述的技术问题,本发明提供了一种平面内新的机器人手眼标定方法。此方法适用于眼在手中和手眼分离场景,但与传统标定方法有所不同:采取平移标定和旋转标定分开进行,便于后期精度验证时,排查误差提供了更好的修正作用。
本实施例提供了一种机器人手眼标定方法。
参见图1,图中示出了本方法包括步骤S100、步骤S200、步骤S300和步骤S400。
S100、获取第一信息,第一信息为获取与待测对象相匹配的模板的中心像素坐标。
可以理解的是,在本步骤之前包括选取一个待测对象,设置与待测对象所匹配的模板,并且获得模板上的特征的中心像素坐标。
S200、根据标定矩阵算法和第一信息,计算得到第二信息,第二信息包括多个待测对象的坐标值。
可以理解的是,在本步骤中,包括:
获取机器人带动采集装置移动后得到的目标坐标数据集合,机器人带动采集装置移动包括机器人带动采集装置以初始注册位置为起点移动设定的步数,目标坐标数据集合包括每次移动后获取采集装置的机器人关节轴中心的基坐标组成的轴中心基坐标集合和每次移动后获取标志点在采集装置坐标系下的像素坐标组成的标志点像素坐标集合;
根据目标坐标数据集合对像素坐标系与目标坐标系进行粗标定计算,得到粗标定结果,粗标定结果包括移动后的最佳九组世界坐标和像素坐标数据;
根据转置矩阵对粗标定结果进行计算,得到与粗标定结果相对应的六个坐标值。
需要说明的是,获取机器人带动采集装置移动后得到的目标坐标数据集合,机器人带动采集装置移动包括机器人带动采集装置以初始注册位置为起点移动设定的步数,目标坐标数据集合包括每次移动后获取采集装置的机器人关节轴中心的基坐标组成的轴中心基坐标集合和每次移动后获取标志点在采集装置坐标系下的像素坐标组成的标志点像素坐标集合;
根据目标坐标数据集合对像素坐标系与目标坐标系进行粗标定计算,得到粗标定结果,粗标定结果包括移动后的最佳九组世界坐标和像素坐标数据;
根据转置矩阵对粗标定结果进行计算,得到与粗标定结果相对应的六个坐标值。
需要说明的是,获取机器人带动相机/标志点移动后得到的目标坐标数据集合;机器人带动相机/标志点移动包括:机器人带动相机/标志点以初始注册位置为起点移动设定的步数。
目标坐标数据集合包括每次移动后获取的固定工具/相机的机器人关节轴中心的基坐标组成的轴中心基坐标集合和每次移动后获取的标志点在相机坐标系下的像素坐标
组成的标志点像素坐标集合,在机器人带动相机或标志点移动之前,需要调整机器人位置,使得标志点位于相机视野内,则该位置为初始注册位置。
通常初始注册位置可为标志点位于相机视野中央时的位置。当相机固定机器人外某一固定位姿下,即眼在手外状态下时,带有标志点的工具固定于机器人末端关节上,机器人带动标志点以初始注册位置为起点移动;当相机固定于机器人关节上,标志点为机器人外某一位置上的固定点,即眼在手中状态下时,机器人带动相机围绕标志点移动。
其中,机器人带动相机或标志点移动是以设定的步长和方向移动设定的步数,例如,以初始注册位置为起点按照九宫格方式移动等。在每次移动后,相机会进行拍摄获取标志点在相机坐标系下的像素坐标组成标志点像素坐标集合;机器人也会获取每次移动后机器人关节轴中心的基坐标组成的轴中心基坐标集合。上述基坐标系是指原点在机器人基座上的坐标系;上述像素坐标系是指原点位于相机内部的坐标系。
其中,机器人带动相机运动时,相机拍摄平面与标志点所在的工作平面平行;机器人带动标志点运动时,标志点移动平面与相机拍摄平面平行。
根据目标坐标数据集合对像素坐标系与目标坐标系进行粗标定计算,获取像素坐标系与目标坐标系之间的粗标定变换矩阵。当机器人带动相机移动时,目标坐标系为固定相机的机器人关节对应的关节坐标系;当机器人带动标志点移动时,目标坐标系为基坐标系。通过粗标定计算可获取像素坐标系与目标坐标系之间的粗标定变换矩阵。
当眼在手外状态下,通过粗标定计算获取的是像素坐标系与基坐标系之间的第一变换矩阵TBC;当眼在手中状态下,相机固定于机器人末端关节上时,通过粗标定获取的像素坐标系与末端关节坐标系之间的第二变换矩阵TEC;当眼在手中状态下,相机固定于机器人非末端关节上时,通过粗标定获取的像素坐标系与非末端关节坐标系之间的第三变换矩阵TCJ。
在本实施例中,操作方法为在标定区域安装标定对象,并大致设置好相机与标定对象之间的距离,便于后期缩短自动对焦时间。
S300、将多个待测对象的坐标值通过粗标定矩阵映射到世界坐标系中,得到三组世界坐标数据,并基于圆拟合法进行求解,得到旋转标定数据。
可以理解的是,在本步骤中包括:
获取三组像素坐标数据,三组像素坐标数据是通过机器人带动采集装置旋转三次角度后记录对应的三组像素坐标位置数据;
根据粗标定矩阵,将三组像素坐标数据映射至世界坐标系中,得到三组世界坐标数据;
基于三点求圆形法,将三组世界坐标数据进行变换矩阵,得到第三信息,第三信息包括一个圆心坐标和圆心对应圆的半径;
将第三信息和机器人的当前位置坐标进行差值计算,得到固定偏差值,从而得到旋转标定数据。
需要说明的是,通过模板匹配进行三次获取像素坐标值,极差在三个像素内为最优像素坐标,从而得出三次坐标的平均值作为第一点标定像素坐标,若极差较大,则考虑是否受光源影响或者未达到最佳焦距范围,对机器人或平台进行xy方向的平移或z方向的移动。在考虑相机视野内畸变影响下,本方法以此方法获取平移后最佳九点,记录九组世界坐标和像素坐标数据。
在本实施例中,不考虑机器人旋转情况下,求得粗标定矩阵。
仿射变换矩阵:
式中,m11、m12、m21、m22、dx、dy为变换矩阵对应的形参,x、y、为世界坐标值,u、v为图像坐标值。
展开并乘以转置矩阵为:
式中,x1、x2…xn为n组对应的世界坐标x方向的值,y1、y2…xn为n组对应的世界坐标y方向的值,u1、x2…un为n组对应的图像坐标u方向的值,v1、v2…vn为n组对应的图像坐标v方向的值。
将对应的九点坐标值带入,从而算出对应的m11、m21、m12、m22、dx、dy六个数值。
在本实施例中,旋转任意角度三次,记录下对应的三组像素坐标,通过粗标定矩阵映射到世界坐标,得到三组世界坐标,通过三点进行圆拟合求解;
根据
(x-A)2+(y-B)2=R2
x2+y2+ax+ny+c=0
式中,x、y表示对应世界坐标的值,A和B为对应的圆心坐标值,R表示圆的半径,a、b、c表示圆方程拆解后所对应的系数。
式中,x、y表示对应世界坐标的值,A和B为对应的圆心坐标值,R表示圆的半径,a、b、c表示圆方程拆解后所对应的系数。
矩阵形式:
式中,x、y表示对应世界坐标的值,A和B为对应的圆心坐标值,R表示圆的半径,a、b、c表示圆方程拆解后所对应的系数。
展开矩阵,并前乘转置矩阵:
式中,x1、x2…xn为n组对应的世界坐标x方向的值,y1、y2…xn为n组对应的世界坐标y方向的值。
确认一个圆心坐标,以及对应圆的半径。再与当前机器人坐标做差,得到固定的偏差,最终求得旋转标定工具。
S400、将旋转标定数据进行计算处理,最终得到标定矩阵。
可以理解的是,在本步骤中,包括:
以机器人的法兰平面与基座平面平行的姿势,控制机器人的采集装置每次旋转预设角度后与标定板圆心对准,并记录对准时采集装置的位置信息和角度信息;
根据位置信息和角度信息,得到采集装置的偏移量;
根据偏移量,获取像素坐标系与目标坐标系之间的粗标定变换矩阵;
根据目标坐标数据集合和粗标定变换矩阵进行精标定计算,得到像素坐标系与目标坐标系之间的精标定变换矩阵,从而得到最终的标定矩阵。
需要说明的是,将旋转标定工具带入,重复进行步骤103a、104a,控制标定对象走九点不同位置,但与之前不同的是其根据旋转标定矩阵换算而来的偏移量进行走九点位置,再次获取标定对象的像素坐标,从而求出精标定矩阵。从而精度验证,求出固定偏差,若误差较大,进行分析解决;最终求得最终标定矩阵。
可选的,眼在手的机器人可为六轴机器人。6轴机器人的坐标系包含X、Y、Z三个平移量以及分别绕这三个轴旋转的R(X)、R(Y)、R(Z)三个旋转量。
具体地,在对机器人进行手眼标定的整个过程中以机器人的法兰平面与基座平面平行的姿势进行时,机器人的法兰面与机器人基座平面平行。这时R(X)=180°,R(Y)=0°,Z轴是垂直于XY平面的,也就是垂直于基座平面的,所以调整机器人X、Y坐标,R(Z)角度不会发生改变。控制此姿势下机器人的末端执行器旋转即改变旋转轴角度,也就是改变Z轴的旋转角度R(Z),末端执行器的Z轴的旋转角度R(Z)在与机器人连接的示教器上就可获得。
取料基准点为机台的工作平面上的一点,当进行工件或物料抓取时工件或物料放置于取料基准点。且在控制机器人抓取物料时设置取料基准点为标定时放置于工作平面的标定板圆心所在的位置。
在一个实施示例中,机器人的末端执行器包括夹爪或吸嘴,末端执行器还可安装有针尖校准工具。当末端执行器安装有末端为尖端的针尖校准工具时,以机器人的法兰平面与基座平面平行的姿势,控制机器人的末端执行器移动以使校准工具尖端对准并接触设于取料基准点的位置的标定板圆心,记录此次对准时机器人的末端执行器的位置信息和角度信息。维持机器人的法兰平面与基座平面平行的姿势,完成一次对准后控制末端执行器旋转预设角度后再次与标定板圆心对准,并记录再次此次对准时机器人的末端执行器的位置信息和角度信息。上述过程可重复多次。
当末端执行器安装有夹爪或吸嘴时,控制机器人的末端执行器与标定板圆心对准可为控制机器人的末端执行器移动以使夹爪或吸嘴对准并接触设于取料基准点的位置的标定板圆心,记录此次对准时机器人的末端执行器的位置信息和角度信息。维持机器人的法兰平面与基座平面平行的姿势,完成一次对准后控制末端执行器旋转预设角度后再次与标定板圆心对准,并记录再次此次对准时机器人的末端执行器的位置信息和角度信息。上述过程可重复多次。
在以机器人的法兰平面与基座平面平行的姿势,控制机器人的末端执行器每次旋转预设角度后与标定板圆心对准,多次记录对准时末端执行器的位置信息和角度信息后,能够根据每次记录的位置信息和角度信息通过三角函数关系计算得到末端执行器的工具中心与法兰中心在平面上的偏移量。
在一个实施示例中,根据每次记录的位置信息和角度信息,得到末端执行器的工具中心与法兰中心在平面上的偏移量的具体过程可为:根据第一位置信息和第一角度以及第二位置信息和第二角度计算得到末端执行器的偏移半径和旋转角度;根据偏移半径和旋转角度得到末端执行器的工具中心与法兰中心在平面上的偏移量。
具体地,最终根据目标坐标数据集合和粗标定变换矩阵进行精标定计算,得到像素坐标系与目标坐标系之间的精标定变换矩阵,从而得到最终的标定矩阵。
实施例2:
如图2所示,本实施例提供了一种机器人手眼标定装置,参见图2装置包括获取模块701、第一计算模块702、映射模块703和第二计算模块704,其中:
获取模块701:用于获取第一信息,第一信息为获取与待测对象相匹配的模板的中心像素坐标;
第一计算模块702:用于根据标定矩阵算法和第一信息,计算得到第二信息,第二信息包括多个待测对象的坐标值;
映射模块703:用于将多个待测对象的坐标值通过粗标定矩阵映射到世界坐标系中,得到三组世界坐标数据,并基于圆拟合法进行求解,得到旋转标定数据;
第二计算模块704:用于将旋转标定数据进行计算处理,最终得到标定矩阵。
优选地,第一计算模块702包括第一获取单元7021、第一计算单元7022和第二计算单元7023,其中:
第一获取单元7021:用于获取机器人带动采集装置移动后得到的目标坐标数据集合,机器人带动采集装置移动包括机器人带动采集装置以初始注册位置为起点移动设定的步数,目标坐标数据集合包括每次移动后获取采集装置的机器人关节轴中心的基坐标组成的轴中心基坐标集合和每次移动后获取标志点在采集装置坐标系下的像素坐标组成的标志点像素坐标集合;
第一计算单元7022:用于根据目标坐标数据集合对像素坐标系与目标坐标系进行粗标定计算,得到粗标定结果,粗标定结果包括移动后的最佳九组世界坐标和像素坐标数据;
第二计算单元7023:用于根据转置矩阵对粗标定结果进行计算,得到与粗标定结果相对应的六个坐标值。
优选地,映射模块703,包括第二获取单元7031、映射单元7032、变换单元7033和第三计算单元7034,其中:
第二获取单元7031:用于获取三组像素坐标数据,三组像素坐标数据是通过机器人带动采集装置旋转三次角度后记录对应的三组像素坐标位置数据;
映射单元7032:用于根据粗标定矩阵,将三组像素坐标数据映射至世界坐标系中,得到三组世界坐标数据;
变换单元7033:用于基于三点求圆形法,将三组世界坐标数据进行变换矩阵,得到第三信息,第三信息包括一个圆心坐标和圆心对应圆的半径;
第三计算单元7034:用于将第三信息和机器人的当前位置坐标进行差值计算,得到固定偏差值,从而得到旋转标定数据。
优选地,第二计算模块704,包括控制单元7041、第四计算单元7042、第三获取单元7043和第五计算单元7044,其中:
控制单元7041:用于以机器人的法兰平面与基座平面平行的姿势,控制机器人的采集装置每次旋转预设角度后与标定板圆心对准,并记录对准时采集装置的位置信息和角度信息;
第四计算单元7042:用于根据位置信息和角度信息,计算得到采集装置的偏移量;
第三获取单元7043:用于根据偏移量,获取像素坐标系与目标坐标系之间的粗标定变换矩阵;
第五计算单元7044:用于根据目标坐标数据集合和粗标定变换矩阵进行精标定计算,得到像素坐标系与目标坐标系之间的精标定变换矩阵,从而得到最终的标定矩阵。
需要说明的是,关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
实施例3:
相应于上面的方法实施例,本实施例中还提供了一种机器人手眼标定设备,下文描述的一种机器人手眼标定设备与上文描述的一种机器人手眼标定方法可相互对应参照。
图3是根据示例性实施例示出的一种机器人手眼标定设备800的框图。如图3所示,该机器人手眼标定设备800可以包括:处理器801,存储器802。该机器人手眼标定设备800还可以包括多媒体组件803,I/O接口804,以及通信组件805中的一者或多者。
其中,处理器801用于控制该机器人手眼标定设备800的整体操作,以完成上述的机器人手眼标定方法中的全部或部分步骤。存储器802用于存储各种类型的数据以支持在该机器人手眼标定设备800的操作,这些数据例如可以包括用于在该机器人手眼标定设备800上操作的任何应用程序或方法的指令,以及应用程序相关的数据,例如联系人数据、收发的消息、图片、音频、视频等等。该存储器802可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,例如静态随机存取存储器(Static Random Access Memory,简称SRAM),电可擦除可编程只读存储器(Electrically Erasable Programmable Read-OnlyMemory,简称EEPROM),可擦除可编程只读存储器(Erasable Programmable Read-OnlyMemory,简称EPROM),可编程只读存储器(Programmable Read-Only Memory,简称PROM),只读存储器(Read-Only Memory,简称ROM),磁存储器,快闪存储器,磁盘或光盘。多媒体组件803可以包括屏幕和音频组件。其中屏幕例如可以是触摸屏,音频组件用于输出和/或输入音频信号。例如,音频组件可以包括一个麦克风,麦克风用于接收外部音频信号。所接收的音频信号可以被进一步存储在存储器802或通过通信组件805发送。音频组件还包括至少一个扬声器,用于输出音频信号。I/O接口804为处理器801和其他接口模块之间提供接口,上述其他接口模块可以是键盘,鼠标,按钮等。这些按钮可以是虚拟按钮或者实体按钮。通信组件805用于该机器人手眼标定设备800与其他设备之间进行有线或无线通信。无线通信,例如Wi-Fi,蓝牙,近场通信(Near FieldCommunication,简称NFC),2G、3G或4G,或它们中的一种或几种的组合,因此相应的该通信组件805可以包括:Wi-Fi模块,蓝牙模块,NFC模块。
在一示例性实施例中,机器人手眼标定设备800可以被一个或多个应用专用集成电路(Application Specific Integrated Circuit,简称ASIC)、数字信号处理器(DigitalSignal Processor,简称DSP)、数字信号处理设备(Digital Signal ProcessingDevice,简称DSPD)、可编程逻辑器件(Programmable Logic Device,简称PLD)、现场可编程门阵列(Field Programmable Gate Array,简称FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述的机器人手眼标定方法。
在另一示例性实施例中,还提供了一种包括程序指令的计算机可读存储介质,该程序指令被处理器执行时实现上述的机器人手眼标定方法的步骤。例如,该计算机可读存储介质可以为上述包括程序指令的存储器802,上述程序指令可由机器人手眼标定设备800的处理器801执行以完成上述的机器人手眼标定方法。
实施例4:
相应于上面的方法实施例,本实施例中还提供了一种可读存储介质,下文描述的一种可读存储介质与上文描述的一种机器人手眼标定方法可相互对应参照。
一种可读存储介质,可读存储介质上存储有计算机程序,计算机程序被处理器执行时实现上述方法实施例的机器人手眼标定方法的步骤。
该可读存储介质具体可以为U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可存储程序代码的可读存储介质。
综上所述,标定时,通过模板匹配进行三次获取像素坐标值,极差在三个像素内为最优像素坐标,从而得出三次坐标的平均值作为第一点标定像素坐标,若极差较大,则考虑是否受光源影响或者未达到最佳焦距范围,对机器人或平台进行xy方向的平移或z方向的移动,以此获取平移后最佳九点坐标数据。本说明的标定矩阵的求解过程,最少需要一组坐标数据即可完成标定。标定过程无需特定的标定板,只需标定物特征明显,并标定前准备好匹配模板即可用于标定。
本发明通过对特征点自动微调,获取到九组精确的图像坐标值和机器人坐标值,从而求出标定矩阵,极大地避免光源干扰以及人为相机对焦不准所导致的标定误差,对整体的标定精度有显著的提高;与传统标定不同,本发明最少可用一点坐标数据进行求解标定矩阵,在相机视野内畸变很小的情况下,获取到某一点的像素坐标和世界坐标,即可求出对应的标定矩阵。
在不考虑相机畸变或者相机视野内畸变较小,以及要求精度不高的情况下,可选择获取一点坐标进行标定,获取到最佳一点的像素坐标和世界坐标进行计算,求出标定矩阵,避免了繁琐的九点标定,极大提高了标定效率。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (10)
1.一种机器人手眼标定方法,其特征在于,包括:
获取第一信息,所述第一信息为获取与待测对象相匹配的模板的中心像素坐标;
根据标定矩阵算法和所述第一信息,计算得到第二信息,所述第二信息包括多个待测对象的坐标值;
将多个待测对象的所述坐标值通过粗标定矩阵映射到世界坐标系中,得到三组世界坐标数据,并基于圆拟合法进行求解,得到旋转标定数据;
将所述旋转标定数据进行计算处理,最终得到标定矩阵。
2.根据权利要求1所述的机器人手眼标定方法,其特征在于,所述根据标定矩阵算法和所述第一信息,计算得到第二信息,所述第二信息包括多个待测对象的坐标值,其中包括:
获取机器人带动采集装置移动后得到的目标坐标数据集合,所述机器人带动采集装置移动包括所述机器人带动采集装置以初始注册位置为起点移动设定的步数,所述目标坐标数据集合包括每次移动后获取采集装置的机器人关节轴中心的基坐标组成的轴中心基坐标集合和每次移动后获取标志点在采集装置坐标系下的像素坐标组成的标志点像素坐标集合;
根据所述目标坐标数据集合对所述像素坐标系与所述目标坐标系进行粗标定计算,得到粗标定结果,所述粗标定结果包括移动后的最佳九组世界坐标和像素坐标数据;
根据转置矩阵对所述粗标定结果进行计算,得到与所述粗标定结果相对应的六个坐标值。
3.根据权利要求1所述的机器人手眼标定方法,其特征在于,所述将多个待测对象的所述坐标值通过粗标定矩阵映射到世界坐标系中,得到三组世界坐标数据,并基于圆拟合法进行求解,得到旋转标定数据,其中包括:
获取三组像素坐标数据,所述三组像素坐标数据是通过机器人带动采集装置旋转三次角度后记录对应的三组像素坐标位置数据;
根据粗标定矩阵,将三组所述像素坐标数据映射至世界坐标系中,得到三组世界坐标数据;
基于三点求圆形法,将三组所述世界坐标数据进行变换矩阵,得到第三信息,所述第三信息包括一个圆心坐标和所述圆心对应圆的半径;
将所述第三信息和所述机器人的当前位置坐标进行差值计算,得到固定偏差值,从而得到旋转标定数据。
4.根据权利要求1所述的机器人手眼标定方法,其特征在于,所述将所述旋转标定数据进行计算处理,最终得到标定矩阵,其中包括:
以机器人的法兰平面与基座平面平行的姿势,控制所述机器人的采集装置每次旋转预设角度后与标定板圆心对准,并记录对准时所述采集装置的位置信息和角度信息;
根据所述位置信息和所述角度信息,得到所述采集装置的偏移量;
根据所述偏移量,获取所述像素坐标系与所述目标坐标系之间的粗标定变换矩阵;
根据所述目标坐标数据集合和所述粗标定变换矩阵进行精标定计算,得到所述像素坐标系与所述目标坐标系之间的精标定变换矩阵,从而得到最终的标定矩阵。
5.一种机器人手眼标定装置,其特征在于,包括:
获取模块:用于获取第一信息,所述第一信息为获取与待测对象相匹配的模板的中心像素坐标;
第一计算模块:用于根据标定矩阵算法和所述第一信息,计算得到第二信息,所述第二信息包括多个待测对象的坐标值;
映射模块:用于将多个待测对象的所述坐标值通过粗标定矩阵映射到世界坐标系中,得到三组世界坐标数据,并基于圆拟合法进行求解,得到旋转标定数据;
第二计算模块:用于将所述旋转标定数据进行计算处理,最终得到标定矩阵。
6.根据权利要求5所述的机器人手眼标定装置,其特征在于,所述第一计算模块,其中包括:
第一获取单元:用于获取机器人带动采集装置移动后得到的目标坐标数据集合,所述机器人带动采集装置移动包括所述机器人带动采集装置以初始注册位置为起点移动设定的步数,所述目标坐标数据集合包括每次移动后获取采集装置的机器人关节轴中心的基坐标组成的轴中心基坐标集合和每次移动后获取标志点在采集装置坐标系下的像素坐标组成的标志点像素坐标集合;
第一计算单元:用于根据所述目标坐标数据集合对所述像素坐标系与所述目标坐标系进行粗标定计算,得到粗标定结果,所述粗标定结果包括移动后的最佳九组世界坐标和像素坐标数据;
第二计算单元:用于根据转置矩阵对所述粗标定结果进行计算,得到与所述粗标定结果相对应的六个坐标值。
7.根据权利要求5所述的机器人手眼标定装置,其特征在于,所述映射模块,其中包括:
第二获取单元:用于获取三组像素坐标数据,所述三组像素坐标数据是通过机器人带动采集装置旋转三次角度后记录对应的三组像素坐标位置数据;
映射单元:用于根据粗标定矩阵,将三组所述像素坐标数据映射至世界坐标系中,得到三组世界坐标数据;
变换单元:用于基于三点求圆形法,将三组所述世界坐标数据进行变换矩阵,得到第三信息,所述第三信息包括一个圆心坐标和所述圆心对应圆的半径;
第三计算单元:用于将所述第三信息和所述机器人的当前位置坐标进行差值计算,得到固定偏差值,从而得到旋转标定数据。
8.根据权利要求5所述的机器人手眼标定装置,其特征在于,所述第二计算模块,其中包括:
控制单元:用于以机器人的法兰平面与基座平面平行的姿势,控制所述机器人的采集装置每次旋转预设角度后与标定板圆心对准,并记录对准时所述采集装置的位置信息和角度信息;
第四计算单元:用于根据所述位置信息和所述角度信息,计算得到所述采集装置的偏移量;
第三获取单元:用于根据所述偏移量,获取所述像素坐标系与所述目标坐标系之间的粗标定变换矩阵;
第五计算单元:用于根据所述目标坐标数据集合和所述粗标定变换矩阵进行精标定计算,得到所述像素坐标系与所述目标坐标系之间的精标定变换矩阵,从而得到最终的标定矩阵。
9.一种机器人手眼标定设备,其特征在于,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如权利要求1至4任一项所述机器人手眼标定方法的步骤。
10.一种可读存储介质,其特征在于:所述可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至4任一项所述机器人手眼标定方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210508569.3A CN114833832B (zh) | 2022-05-11 | 2022-05-11 | 一种机器人手眼标定方法、装置、设备及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210508569.3A CN114833832B (zh) | 2022-05-11 | 2022-05-11 | 一种机器人手眼标定方法、装置、设备及可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114833832A true CN114833832A (zh) | 2022-08-02 |
CN114833832B CN114833832B (zh) | 2023-06-20 |
Family
ID=82568908
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210508569.3A Active CN114833832B (zh) | 2022-05-11 | 2022-05-11 | 一种机器人手眼标定方法、装置、设备及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114833832B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117506919A (zh) * | 2023-12-01 | 2024-02-06 | 广州创之力智能科技有限公司 | 一种手眼标定方法、装置、终端设备及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110238849A (zh) * | 2019-06-13 | 2019-09-17 | 深圳市汇川技术股份有限公司 | 机器人手眼标定方法及装置 |
CN111791227A (zh) * | 2019-12-31 | 2020-10-20 | 深圳市豪恩声学股份有限公司 | 机器人手眼标定方法、装置及机器人 |
CN112621743A (zh) * | 2020-11-19 | 2021-04-09 | 深圳众为兴技术股份有限公司 | 机器人及其相机固定于末端的手眼标定方法及存储介质 |
CN112692840A (zh) * | 2020-12-10 | 2021-04-23 | 安徽巨一科技股份有限公司 | 一种基于机器视觉配合机械手定位引导和标定方法 |
CN113296395A (zh) * | 2021-05-14 | 2021-08-24 | 珞石(山东)智能科技有限公司 | 一种特定平面内的机器人手眼标定方法 |
EP3967459A1 (en) * | 2019-06-17 | 2022-03-16 | Siemens Ltd., China | Coordinate system calibration method, device, and computer readable medium |
CN114310901A (zh) * | 2022-01-14 | 2022-04-12 | 北京京东乾石科技有限公司 | 用于机器人的坐标系标定方法、装置、系统以及介质 |
-
2022
- 2022-05-11 CN CN202210508569.3A patent/CN114833832B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110238849A (zh) * | 2019-06-13 | 2019-09-17 | 深圳市汇川技术股份有限公司 | 机器人手眼标定方法及装置 |
EP3967459A1 (en) * | 2019-06-17 | 2022-03-16 | Siemens Ltd., China | Coordinate system calibration method, device, and computer readable medium |
CN111791227A (zh) * | 2019-12-31 | 2020-10-20 | 深圳市豪恩声学股份有限公司 | 机器人手眼标定方法、装置及机器人 |
CN112621743A (zh) * | 2020-11-19 | 2021-04-09 | 深圳众为兴技术股份有限公司 | 机器人及其相机固定于末端的手眼标定方法及存储介质 |
CN112692840A (zh) * | 2020-12-10 | 2021-04-23 | 安徽巨一科技股份有限公司 | 一种基于机器视觉配合机械手定位引导和标定方法 |
CN113296395A (zh) * | 2021-05-14 | 2021-08-24 | 珞石(山东)智能科技有限公司 | 一种特定平面内的机器人手眼标定方法 |
CN114310901A (zh) * | 2022-01-14 | 2022-04-12 | 北京京东乾石科技有限公司 | 用于机器人的坐标系标定方法、装置、系统以及介质 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117506919A (zh) * | 2023-12-01 | 2024-02-06 | 广州创之力智能科技有限公司 | 一种手眼标定方法、装置、终端设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN114833832B (zh) | 2023-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107073719B (zh) | 机器人和机器人系统 | |
EP3705239B1 (en) | Calibration system and method for robotic cells | |
US11247340B2 (en) | Method and apparatus of non-contact tool center point calibration for a mechanical arm, and a mechanical arm system with said calibration function | |
CN107942949B (zh) | 一种机床视觉定位方法及系统、机床 | |
US20200061837A1 (en) | Method for industrial robot commissioning, industrial robot system and control system using the same | |
CN111801198B (zh) | 一种手眼标定方法、系统及计算机存储介质 | |
JP2016221645A (ja) | ロボット、ロボット制御装置およびロボットシステム | |
CN111515944B (zh) | 非固定路径机器人自动标定方法 | |
JP2016187846A (ja) | ロボット、ロボット制御装置およびロボットシステム | |
CN106733525A (zh) | 一种基于双摄像头的自动点胶的方法及装置 | |
JP2009269110A (ja) | 組立装置 | |
JP6565175B2 (ja) | ロボットおよびロボットシステム | |
CN111791226B (zh) | 通过机器人实现组装的方法、装置及机器人 | |
CN114833832B (zh) | 一种机器人手眼标定方法、装置、设备及可读存储介质 | |
CN116026252A (zh) | 一种点云测量方法及系统 | |
CN107756391A (zh) | 机械手臂校正系统的校正方法 | |
CN112907682B (zh) | 一种五轴运动平台的手眼标定方法、装置及相关设备 | |
CN110421565B (zh) | 一种用于实训的机器人全局定位与测量系统和方法 | |
CN110861076A (zh) | 一种机械臂的手眼标定装置 | |
CN111482964A (zh) | 一种新的机器人手眼标定方法 | |
JP6507792B2 (ja) | ロボットおよびロボットシステム | |
CN116619350A (zh) | 一种基于双目视觉测量的机器人误差标定方法 | |
CN112184819A (zh) | 机器人的引导方法、装置、计算机设备和存储介质 | |
CN210072704U (zh) | 摄像头标定系统 | |
TWI834495B (zh) | 物件姿態辨識方法及系統 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP01 | Change in the name or title of a patent holder |
Address after: Room 201a, Jinfeng Building, information optoelectronic Park, torch high tech Zone, Xiamen, Fujian Province Patentee after: Xiamen Weiya Intelligent Technology Co.,Ltd. Address before: Room 201a, Jinfeng Building, information optoelectronic Park, torch high tech Zone, Xiamen, Fujian Province Patentee before: XIAMEN WEIYA INTELLIGENCE TECHNOLOGY Co.,Ltd. |
|
CP01 | Change in the name or title of a patent holder |