CN115781698A - 分层式手眼标定机器人运动位姿自动生成方法、系统、设备和介质 - Google Patents
分层式手眼标定机器人运动位姿自动生成方法、系统、设备和介质 Download PDFInfo
- Publication number
- CN115781698A CN115781698A CN202310064212.5A CN202310064212A CN115781698A CN 115781698 A CN115781698 A CN 115781698A CN 202310064212 A CN202310064212 A CN 202310064212A CN 115781698 A CN115781698 A CN 115781698A
- Authority
- CN
- China
- Prior art keywords
- robot
- calibration
- calibration plate
- pose
- hand
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
本发明公开了分层式手眼标定机器人运动位姿自动生成方法、系统、设备和介质,涉及机器视觉领域,该方法包括:识别和提取标定板的尺寸像素长宽,并根据标定板实际加工参数获得当前物理像素转换系数;获得当前机器人能够移动的最大距离;根据预设的层数、层高、层长宽、长度方向点数、宽度方向点数和当前机器人能够移动的最大距离,获得机器人的相对运动笛卡尔点位集合;控制机器人移动到目标点位,拍摄标定板照片;检测棋盘格角点且重投影误差小于预设值,若在预设范围内,则执行手眼标定任务;否则调整预设的参数,并重新计算机器人点位数据,然后重新执行运动‑拍照‑校验任务;根据记录的机器人位姿和相机‑标定板位姿执行手眼标定解算。
Description
技术领域
本发明涉及机器视觉领域,特别是涉及一种分层式手眼标定机器人运动位姿自动生成方法、系统、设备和介质。
背景技术
目前,为了提高传统的工业机器人的操作柔性与自动化水平,加入视觉传感系统,通过对测量目标的实时视觉反馈信息,能够引导、修正和改变机器人的运动路径,实现更加智能化的工业应用。为了保证机器人准确移动到目标位置,需要确定出视觉系统坐标系与机械手坐标系之间的转换关系。
求解这个转换关系常规做法是先取得相机固有参数去除镜头畸变影响,再结合一系列人工特征(黑白棋盘格标定板、标准靶球、Aruco二维码等)的姿态信息求解相对关系。相机标定分为相机内参标定和外参标定。通过内参标定可以得到相机本身的成像参数和镜头畸变等属性,相机和人工特征的姿态和位置可以通过外参标定得到。手眼标定通常指在一个系统中有一个或者多个机械臂,一个或者多个相机,求解相机和机械臂之间的姿态关系的过程。由视觉传感器与工业机器人机械手的位置关系可将视觉传感器系统分为“眼在手上(Eye-in-Hand)”和“眼在手外(Eye-to-Hand)”两种形式,相机挂载在机器人本体上称为眼在手上;相机不与机器人直接相连,布置在机器人外部称为眼在手外。这两种形式都是通过选取一系列采样点,每一个采样点中人工特征和相机之间的姿态关系不同,再通过这些采样点来计算出手眼之间的位姿关系。
然而,目前手眼标定采样点的选取主要是通过人工控制或者预定点位实现。标定姿态的选取会在很大程度上影响标定的效果,标定板的位置发生变化的时候需要机器人工程师预先设定好点位或直接拖拽,视觉工程师人为拍摄多组照片,有时候多人协作经验不足(如旋转角度过小、标定板超出视野等)或者对标定采样点位姿的选择不准确(如某些位置光照条件较差,需要额外补光等),都要从头标定,这样就不可避免地增加标定时间和引入人工误差。无论是人工操作还是预先定义位置,在新场景新环境下部署的时候选点等操作都需要重新进行,由于选点的差异会导致标定结果波动较大,标定精准性高度依赖于人工的经验,效率较低,结果的一致性较差。
发明内容
针对现有技术中的不足,本发明提供一种分层式手眼标定机器人运动位姿自动生成方法、系统、设备和介质,其通过生成轨迹点发送给机器人移动,从而提高标定效率,降低人为因素的影响,提高总体手眼标定精度。
为实现上述目的,本发明可以采用以下技术方案进行:
第一方面,本发明提供一种分层式手眼标定机器人运动位姿自动生成方法,其可以包括以下步骤:
步骤1:识别和提取所拍摄的图片中标定板的尺寸像素长宽,并根据标定板实际加工参数获得当前物理像素转换系数;
步骤2:根据图片的分辨率和物理像素转换系数,获得当前机器人能够移动的最大距离;
步骤3:根据预设的层数、层高、层长宽、长度方向点数、宽度方向点数和当前机器人能够移动的最大距离,获得机器人的相对运动笛卡尔点位集合;
步骤4:控制机器人移动到目标点位,拍摄标定板照片;
步骤5:检测出棋盘格角点且重投影误差小于预设值,若在预设范围内,则执行步骤6;否则调整预设的参数,并重新计算机器人点位数据,然后重新执行步骤3至步骤5;
步骤6:根据记录的机器人位姿和相机-标定板位姿执行手眼标定解算。
如上所述的分层式手眼标定机器人运动位姿自动生成方法,进一步的,所述物理像素转换系数的获取方法,包括:
如上所述的分层式手眼标定机器人运动位姿自动生成方法,进一步的,所述获得当前机器人能够移动的最大距离,包括:
如上所述的分层式手眼标定机器人运动位姿自动生成方法,进一步的,获得机器人的相对运动笛卡尔点位集合,包括:
则移动到标定板1的相对移动距离为(x–水平间距,y–竖直间距),其中,BL、BW分别为底层长宽,为长度方向点数,为宽度方向点数,移动到标定板2的相对移动距离为(x,y -竖直间距),移动到标定板3的相对移动距离为(x +水平间距,y -竖直间距),移动到标定板4的相对移动距离为(x -水平间距,y);
设当前为中轴位置,中轴左右两个标定点位位姿间增加正负旋转角度差异,即;;和分别为中轴左右的位置4和位置6的姿态旋转角度坐标,θ为随机旋转角度;运动的层高方向在机器人的z方向,则上一层的Z坐标值为下一层加上层高H。
如上所述的分层式手眼标定机器人运动位姿自动生成方法,进一步的,识别和提取所拍摄的图片之前,还包括如下步骤:
调整标定板或相机的位置使标定板处于相机的拍摄视野范围内;
拍摄标定板的图片并对图片进行图像预处理。
如上所述的分层式手眼标定机器人运动位姿自动生成方法,进一步的,执行手眼标定解算之后,还包括如下步骤:
执行标定任务结束后,机器人回到初始位置。
第二方面,本发明提供一种分层式手眼标定机器人运动位姿自动生成系统,其包括:
第一处理器,其用于识别和提取所拍摄的图片中标定板的尺寸像素长宽,并根据标定板实际加工参数获得当前物理像素转换系数;
第二处理器,其用于根据图片的分辨率和物理像素转换系数,获得当前机器人能够移动的最大距离;
第三处理器,其用于根据预设的层数、层高、层长宽、长度方向点数、宽度方向点数和当前机器人能够移动的最大距离,获得机器人的相对运动笛卡尔点位集合;
控制机器人移动到目标点位,拍摄标定板照片;
检测出棋盘格角点且重投影误差小于预设值,若在预设范围内,则执行下一步骤;否则调整预设的参数,并重新计算机器人点位数据,然后重新执行上述步骤;以及,
运动执行器,其用于根据所述第三处理器记录的机器人位姿和相机-标定板位姿执行手眼标定解算。
第三方面,本发明提供一种电子设备,所述电子设备包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行,以实现如上所述的分层式手眼标定机器人运动位姿自动生成方法。
第四方面,本发明提供一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如上所述的分层式手眼标定机器人运动位姿自动生成方法。
本发明与现有技术相比,其有益效果在于:手眼标定是计算从机器人坐标空间到相机坐标空间的转换,本发明实施例提供一种手眼标定机器人运动位姿的自动生成方法,并且在最小的人为干预下执行标定过程的实施方案,因此避免了通过一组空间位置来手动移动机器人,增加标定时间同时降低了精度。本发明自动计算手眼标定机器人运动参数和空间位置,使标定图案可以始终保持在相机的整个视场内,从而实现全自动手眼标定,提高了机器人和相机空间位姿的标定效率,增加视觉引导作业成功率。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例中所需要使用的附图进行简单的介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一种实施例的分层式手眼标定机器人运动位姿自动生成方法的流程图;
图2为本发明实施例的分层式手眼标定机器人运动位姿自动生成系统的结构示意图;
图3为本发明另一种实施例的分层式手眼标定机器人运动位姿自动生成方法的流程图;
图4为本发明实施例的分层式手眼标定机器人运动位姿自动生成方法的结构示意图;
图5为本发明实施例的当前姿态生成其他姿态差异的示意图;
图6为本发明实施例的手眼标定的应用测试示意图;
图7为本发明实施例的系统的结构示意图;
图8为本发明实施例的电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整的描述,显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
实施例:
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,本发明实施例的术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
在本发明的描述中,“多个”的含义是至少两个,例如两个、三个等,除非另有明确具体的限定。此外,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
下文中所用的词语“示例性”的意思为“用作例子、实施例或说明性”。作为“示例性”所说明的任何实施例不必解释为优于或好于其它实施例。
为更好地理解本申请实施例提供的技术方案,下面对本申请实施例提供的技术方案适用的应用场景做一些简单介绍,需要说明的是,以下介绍的应用场景仅用于说明本申请实施例而非限定。在具体实施时,可以根据实际需要灵活地应用本申请实施例提供的技术方案。
参见图2,图2展示了本发明实施例相机布置在机器人外部的应用场景,具体地说,本发明实施例的分层式手眼标定机器人运动位姿自动生成方法,通过生成轨迹点发送给机器人移动,可以提高标定效率,降低人为因素的影响,从而提高总体手眼标定精度。
需要说明的是,本发明实施例的方法不局限于眼在手和眼在外的情况,适用于标定轨迹生成;其次,所使用的人工特征(标定板不局限于ChArUco),选择此标定板是它兼顾棋盘格标定板和二维码标定板的优势,避免相机必须看到整个棋盘区域。标定板超出视野即相机只拍摄到ChArUco标定板局部信息也可以根据其中含有的二维码唯一ID标签信息获取得到整个标定板相对于相机的位置和姿态信息。示例性的,相机可以安装在机械臂末端,也可以安装在外部支架上。场景示意如图2所示,以眼在外情况布置做说明,相机布置在机器人外部,机器人末端连着标定板在视野范围内运动。
参见图1至图6,本发明提供一种分层式手眼标定机器人运动位姿自动生成方法,其可以包括以下步骤:
步骤101:识别和提取所拍摄的图片中标定板的尺寸像素长宽,并根据标定板实际加工参数获得当前物理像素转换系数。
具体的,标定板通常配置为平面的“板”,可以采用铝制或玻璃基板,其表面具有明显的图案,通常是黑白棋盘图案。示例性的,标定板的图案可以包括但不限于点网格、线网格、十字或蜂窝图案等。通过精心且精确的设计,这种独特的图案可以使用户轻松地识别出通过相机获取的板上图像的每个可见特征,甚至加上补光灯等。
所述物理像素转换系数获取方法包括:设标定板的棋盘格单个格子的加工长度为,利用视觉检测算法提取标定板图像,因为不能保证相机与标定板拍照位竖直,首先进行逆透视变换,对拍摄照片矫正使之平行于相机成像平面,接着计算得到标定板的棋盘格单个格子的像素长,则物理像素转换系数 。
步骤102:根据图片的分辨率和物理像素转换系数,获得当前机器人能够移动的最大距离。
步骤103:根据预设的层数、层高、层长宽、长度方向点数、宽度方向点数和当前机器人能够移动的最大距离,获得机器人的相对运动笛卡尔点位集合。
具体的,参见图4,图4为本发明实施例的分层式手眼标定机器人运动位姿自动生成方法各个模块细分的主要模块及流程,从数据处理的图像采集标注到运动规划的路径搜索和执行等。根据层数n、层高H、底层长宽(BL、BW)、顶层长宽(TL、TW)及长度方向点数i,宽度方向点数j等参数计算机器人移动点位,当前点位为层数中间位置。这里让底层长宽分别等于XY,即BL=X,BW=Y。设标定板位于视野中心的像素位置,机器人起始点位为,则移动到标定板1的相对移动距离为(x–水平间距,y–竖直间距),其中,移动到标定板2的相对移动距离为(x,y -竖直间距),移动到标定板3的相对移动距离为(x +水平间距,y -竖直间距),移动到标定板4的相对移动距离为(x -水平间距,y);也即机器人手眼标定的新的移动位置可以确定。
接着,为了保证手眼标定效果,在手眼标定姿态部分添加图5,图5为当前姿态生成其他姿态差异示意图。机器人基坐标对应轴上一个阈值范围内的随机旋转角度,设当前为中轴位置,中轴左右两个标定点位位姿间增加正负旋转角度差异,即;,位置4的设定位姿为中轴姿态加上随机旋转角度θ;位置6的设定位姿为中轴处的姿态减去随机旋转角度θ,原则是尽量偏向相机方向,如图5所示,至此机器人的新的坐标位置和姿态都可以确定。最后,针对于多层的机器人位置点,不同层之间的高度会有差别,在生成的机器人的位姿高度方向,如运动的层高方向在机器人的z方向,则上一层的Z坐标值为下一层加上层高H。
步骤104:控制机器人移动到目标点位,拍摄标定板照片。
步骤105:检测出棋盘格角点且重投影误差小于预设值,若在预设范围内,则执行步骤106;否则调整预设的参数,并重新计算机器人点位数据,然后重新执行步骤103至步骤105。
步骤106:根据记录的机器人位姿和相机-标定板位姿执行手眼标定解算。
作为一个可选的实施例,其可以包括以下步骤:
步骤201:调整标定板或相机的位置使标定板处于相机的拍摄视野范围内。
步骤202:拍摄标定板的图片并对图片进行图像预处理。
步骤203:识别和提取所拍摄的图片中标定板的尺寸像素长宽,并根据标定板实际加工参数获得当前物理像素转换系数。
具体的,标定板通常配置为平面的“板”,可以采用铝制或玻璃基板,其表面具有明显的图案,通常是黑白棋盘图案。示例性的,标定板的图案可以包括但不限于点网格、线网格、十字或蜂窝图案等。通过精心且精确的设计,这种独特的图案可以使用户轻松地识别出通过相机获取的板上图像的每个可见特征,甚至加上补光灯等。
所述物理像素转换系数获取方法包括:设标定板的棋盘格单个格子的加工长度为,利用视觉检测算法提取标定板图像,因为不能保证相机与标定板拍照位竖直,首先进行逆透视变换,对拍摄照片矫正使之平行于相机成像平面,接着计算得到标定板的棋盘格单个格子的像素长,则物理像素转换系数。
步骤204:根据图片的分辨率和物理像素转换系数,获得当前机器人能够移动的最大距离。
示例性的,机器人的移动方式可以包括正方体角点、圆柱圆周点、棱锥点等参数化点位,及附加的偏转角度等。
步骤205:根据预设的层数、层高、层长宽、长度方向点数、宽度方向点数和当前机器人能够移动的最大距离,获得机器人的相对运动笛卡尔点位集合。
具体的,参见图4,图4为本发明实施例的分层式手眼标定机器人运动位姿自动生成方法各个模块细分的主要模块及流程,从数据处理的图像采集标注到运动规划的路径搜索和执行等。根据层数n、层高H、底层长宽(BL、BW)、顶层长宽(TL、TW)及长度方向点数i,宽度方向点数j等参数计算机器人移动点位,当前点位为层数中间位置。这里让底层长宽分别等于XY,即BL=X,BW=Y。设标定板位于视野中心的像素位置,机器人起始点位为,则移动到标定板1的相对移动距离为(x–水平间距,y–竖直间距),其中,移动到标定板2的相对移动距离为(x,y -竖直间距),移动到标定板3的相对移动距离为(x +水平间距,y -竖直间距),移动到标定板4的相对移动距离为(x -水平间距,y);也即机器人手眼标定的新的移动位置可以确定。
接着,为了保证手眼标定效果,在手眼标定姿态部分添加图5,图5为当前姿态生成其他姿态差异示意图。机器人基坐标对应轴上一个阈值范围内的随机旋转角度,设当前为中轴位置,中轴左右两个标定点位位姿间增加正负旋转角度差异,即;,如图5所示,至此机器人的新的坐标位置和姿态都可以确定。最后,针对于多层的机器人位置点,不同层之间的高度会有差别,在生成的机器人的位姿高度方向,如运动的层高方向在机器人的z方向,则上一层的Z坐标值为下一层加上层高H。
步骤206:控制机器人移动到目标点位,拍摄标定板照片。
步骤207:检测出棋盘格角点且重投影误差小于预设值,若在预设范围内,则执行步骤208;否则调整预设的参数,并重新计算机器人点位数据,然后重新执行步骤205至步骤207。
步骤208:根据记录的机器人位姿和相机-标定板位姿执行手眼标定解算。
作为一个可选的实施例,其可以包括以下步骤:
步骤301:调整标定板或相机的位置使标定板处于相机的拍摄视野范围内。
步骤302:拍摄标定板的图片并对图片进行图像预处理。
步骤303:识别和提取所拍摄的图片中标定板的尺寸像素长宽,并根据标定板实际加工参数获得当前物理像素转换系数。
具体的,标定板通常配置为平面的“板”,可以采用铝制或玻璃基板,其表面具有明显的图案,通常是黑白棋盘图案。示例性的,标定板的图案可以包括但不限于点网格、线网格、十字或蜂窝图案等。通过精心且精确的设计,这种独特的图案可以使用户轻松地识别出通过相机获取的板上图像的每个可见特征,甚至加上补光灯等。
所述物理像素转换系数获取方法包括:设标定板的棋盘格单个格子的加工长度为,利用视觉检测算法提取标定板图像,因为不能保证相机与标定板拍照位竖直,首先进行逆透视变换,对拍摄照片矫正使之平行于相机成像平面,接着计算得到标定板的棋盘格单个格子的像素长,则物理像素转换系数。
步骤304:根据图片的分辨率和物理像素转换系数,获得当前机器人能够移动的最大距离。
示例性的,机器人的移动方式可以包括正方体角点、圆柱圆周点、棱锥点等参数化点位,及附加的偏转角度等。
步骤305:根据预设的层数、层高、层长宽、长度方向点数、宽度方向点数和当前机器人能够移动的最大距离,获得机器人的相对运动笛卡尔点位集合。
具体的,参见图4,图4为本发明实施例的分层式手眼标定机器人运动位姿自动生成方法各个模块细分的主要模块及流程,从数据处理的图像采集标注到运动规划的路径搜索和执行等。根据层数n、层高H、底层长宽(BL、BW)、顶层长宽(TL、TW)及长度方向点数i,宽度方向点数j等参数计算机器人移动点位,当前点位为层数中间位置。这里让底层长宽分别等于XY,即BL=X,BW=Y。设标定板位于视野中心的像素位置,机器人起始点位为,则移动到标定板1的相对移动距离为(x–水平间距,y–竖直间距),其中,移动到标定板2的相对移动距离为(x,y -竖直间距),移动到标定板3的相对移动距离为(x +水平间距,y -竖直间距),移动到标定板4的相对移动距离为(x -水平间距,y);也即机器人手眼标定的新的移动位置可以确定。
接着,为了保证手眼标定效果,在手眼标定姿态部分添加图5,图5为当前姿态生成其他姿态差异示意图。机器人基坐标对应轴上一个阈值范围内的随机旋转角度,设当前为中轴位置,中轴左右两个标定点位位姿间增加正负旋转角度差异,即;,如图5所示,至此机器人的新的坐标位置和姿态都可以确定。最后,针对于多层的机器人位置点,不同层之间的高度会有差别,在生成的机器人的位姿高度方向,如运动的层高方向在机器人的z方向,则上一层的Z坐标值为下一层加上层高H。
步骤306:控制机器人移动到目标点位,拍摄标定板照片。
步骤307:检测出棋盘格角点且重投影误差小于预设值,若在预设范围内,则执行步骤308;否则调整预设的参数,并重新计算机器人点位数据,然后重新执行步骤305至步骤307。
步骤308:根据记录的机器人位姿和相机-标定板位姿执行手眼标定解算。
步骤309:行标定任务结束后,机器人回到初始位置。
参见图7,基于同一发明构思,本发明实施例还提供一种分层式手眼标定机器人运动位姿自动生成系统,所述系统包括:第一处理器、第二处理器、第三处理器以及运动执行器,其中,第一处理器用于识别和提取所拍摄的图片中标定板的尺寸像素长宽,并根据标定板实际加工参数获得当前物理像素转换系数;第二处理器用于根据图片的分辨率和物理像素转换系数,获得当前机器人能够移动的最大距离;第三处理器用于根据预设的层数、层高、层长宽、长度方向点数、宽度方向点数和当前机器人能够移动的最大距离,获得机器人的相对运动笛卡尔点位集合;控制机器人移动到目标点位,拍摄标定板照片;检测出棋盘格角点且重投影误差小于预设值,若在预设范围内,则执行下一步骤;否则调整预设的参数,并重新计算机器人点位数据,然后重新执行上述步骤;运动执行器用于根据所述第三处理器记录的机器人位姿和相机-标定板位姿执行手眼标定解算。
由于该系统是本发明实施例的分层式手眼标定机器人运动位姿自动生成方法对应的系统,并且该系统解决问题的原理与该方法相似,因此该系统的实施可以参见上述方法实施例的实施过程,重复之处不再赘述。
参见图8,基于同一发明构思,本发明实施例还提供一种电子设备,所述电子设备包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行,以实现如上所述的分层式手眼标定机器人运动位姿自动生成方法。
可以理解的是,存储器可以包括随机存储器(Random Access Memory,RAM),也可以包括只读存储器(Read-Only Memory)。可选地,该存储器包括非瞬时性计算机可读介质(non-transitory computer-readable storage medium)。存储器可用于存储指令、程序、代码、代码集或指令集。存储器可包括存储程序区和存储数据区,其中,存储程序区可存储用于实现操作系统的指令、用于至少一个功能的指令、用于实现上述各个方法实施例的指令等;存储数据区可存储根据服务器的使用所创建的数据等。
处理器可以包括一个或者多个处理核心。处理器利用各种接口和线路连接整个服务器内的各个部分,通过运行或执行存储在存储器内的指令、程序、代码集或指令集,以及调用存储在存储器内的数据,执行服务器的各种功能和处理数据。可选地,处理器可以采用数字信号处理(Digital Signal Processing,DSP)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)、可编程逻辑阵列(Programmable Logic Array,PLA)中的至少一种硬件形式来实现。处理器可集成中央处理器(Central Processing Unit,CPU)和调制解调器等中的一种或几种的组合。其中,CPU主要处理操作系统和应用程序等;调制解调器用于处理无线通信。可以理解的是,上述调制解调器也可以不集成到处理器中,单独通过一块芯片进行实现。
由于该电子设备是本发明实施例的分层式手眼标定机器人运动位姿自动生成方法对应的电子设备,并且该电子设备解决问题的原理与该方法相似,因此该电子设备的实施可以参见上述方法实施例的实施过程,重复之处不再赘述。
基于同一发明构思,本发明实施例还提供一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如上所述的分层式手眼标定机器人运动位姿自动生成方法。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质包括只读存储器(Read-Only Memory,ROM)、随机存储器(Random Access Memory,RAM)、可编程只读存储器(Programmable Read-only Memory,PROM)、可擦除可编程只读存储器(Erasable Programmable Read Only Memory,EPROM)、一次可编程只读存储器(One-time Programmable Read-Only Memory,OTPROM)、电子抹除式可复写只读存储器(Electrically-Erasable Programmable Read-Only Memory,EEPROM)、只读光盘(CompactDisc Read-Only Memory,CD-ROM)或其他光盘存储器、磁盘存储器、磁带存储器、或者能够用于携带或存储数据的计算机可读的任何其他介质。
由于该存储介质是本发明实施例的分层式手眼标定机器人运动位姿自动生成方法对应的存储介质,并且该存储介质解决问题的原理与该方法相似,因此该存储介质的实施可以参见上述方法实施例的实施过程,重复之处不再赘述。
在一些可能的实施方式中,本发明实施例的方法的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在计算机设备上运行时,程序代码用于使计算机设备执行本说明书上述描述的根据本申请各种示例性实施方式的分层式手眼标定机器人运动位姿自动生成方法的步骤。其中,用于执行各个实施例的可执行的计算机程序代码或“ 代码”可以用诸如C、C++、C#、Smalltalk、Java、JavaScript、Visual Basic、结构化查询语言(例如,Transact-SQL)、Perl之类的高级编程语言或者用各种其它编程语言编写。
综上所述,本发明实施例的分层式手眼标定机器人运动位姿自动生成方法,可以在最小的人为干预下执行标定过程。这避免了通过一组空间位置来手动移动机器人,增加标定时间同时降低了精度。该系统和方法自动计算手眼标定机器人运动参数和空间位置,使标定图案可以始终保持在相机的整个视场内,从而实现全自动手眼标定。提高了机器人和相机空间位姿的标定效率,增加视觉引导作业成功率。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
上述实施例只是为了说明本发明的技术构思及特点,其目的是在于让本领域内的普通技术人员能够了解本发明的内容并据以实施,并不能以此限制本发明的保护范围。凡是根据本发明内容的实质所做出的等效的变化或修饰,都应涵盖在本发明的保护范围内。
Claims (9)
1.一种分层式手眼标定机器人运动位姿自动生成方法,其特征在于,包括以下步骤:
步骤1:识别和提取所拍摄的图片中标定板的尺寸像素长宽,并根据标定板实际加工参数获得当前物理像素转换系数;
步骤2:根据图片的分辨率和物理像素转换系数,获得当前机器人能够移动的最大距离;
步骤3:根据预设的层数、层高、层长宽、长度方向点数、宽度方向点数和当前机器人能够移动的最大距离,获得机器人的相对运动笛卡尔点位集合;
步骤4:控制机器人移动到目标点位,拍摄标定板照片;
步骤5:检测出棋盘格角点且重投影误差小于预设值,若在预设范围内,则执行步骤6;否则调整预设的参数,并重新计算机器人点位数据,然后重新执行步骤3至步骤5;
步骤6:根据记录的机器人位姿和相机-标定板位姿执行手眼标定解算。
4.根据权利要求1所述的分层式手眼标定机器人运动位姿自动生成方法,其特征在于,获得机器人的相对运动笛卡尔点位集合,包括:
则移动到标定板1的相对移动距离为(x–水平间距,y–竖直间距),其中,BL、BW分别为底层长宽,为长度方向点数,为宽度方向点数,移动到标定板2的相对移动距离为(x,y -竖直间距),移动到标定板3的相对移动距离为(x+水平间距,y-竖直间距),移动到标定板4的相对移动距离为(x -水平间距,y);
5.根据权利要求1所述的分层式手眼标定机器人运动位姿自动生成方法,其特征在于,识别和提取所拍摄的图片之前,还包括如下步骤:
调整标定板或相机的位置使标定板处于相机的拍摄视野范围内;
拍摄标定板的图片并对图片进行图像预处理。
6.根据权利要求1所述的分层式手眼标定机器人运动位姿自动生成方法,其特征在于,执行手眼标定解算之后,还包括如下步骤:
执行标定任务结束后,机器人回到初始位置。
7.一种分层式手眼标定机器人运动位姿自动生成系统,其特征在于,包括:
第一处理器,其用于识别和提取所拍摄的图片中标定板的尺寸像素长宽,并根据标定板实际加工参数获得当前物理像素转换系数;
第二处理器,其用于根据图片的分辨率和物理像素转换系数,获得当前机器人能够移动的最大距离;
第三处理器,其用于根据预设的层数、层高、层长宽、长度方向点数、宽度方向点数和当前机器人能够移动的最大距离,获得机器人的相对运动笛卡尔点位集合;
控制机器人移动到目标点位,拍摄标定板照片;
检测出棋盘格角点且重投影误差小于预设值,若在预设范围内,则执行下一步骤;否则调整预设的参数,并重新计算机器人点位数据,然后重新执行上述步骤;以及,
运动执行器,其用于根据所述第三处理器记录的机器人位姿和相机-标定板位姿执行手眼标定解算。
8.一种电子设备,其特征在于,所述电子设备包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行,以实现如权利要求1至4任一所述的分层式手眼标定机器人运动位姿自动生成方法。
9.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如权利要求1至4任一所述的分层式手眼标定机器人运动位姿自动生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310064212.5A CN115781698B (zh) | 2023-02-06 | 2023-02-06 | 分层式手眼标定机器人运动位姿自动生成方法、系统、设备和介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310064212.5A CN115781698B (zh) | 2023-02-06 | 2023-02-06 | 分层式手眼标定机器人运动位姿自动生成方法、系统、设备和介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115781698A true CN115781698A (zh) | 2023-03-14 |
CN115781698B CN115781698B (zh) | 2023-04-04 |
Family
ID=85429841
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310064212.5A Active CN115781698B (zh) | 2023-02-06 | 2023-02-06 | 分层式手眼标定机器人运动位姿自动生成方法、系统、设备和介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115781698B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019177450A (ja) * | 2018-03-30 | 2019-10-17 | 日本電産株式会社 | キャリブレーション精度の評価方法及び評価装置 |
CN110695996A (zh) * | 2019-10-14 | 2020-01-17 | 扬州大学 | 一种工业机器人自动手眼标定方法 |
CN112454332A (zh) * | 2020-11-25 | 2021-03-09 | 中科新松有限公司 | 一种用于手眼标定的机器人轨迹点生成方法 |
CN113696188A (zh) * | 2021-10-27 | 2021-11-26 | 季华实验室 | 手眼标定数据采集方法、装置、电子设备及存储介质 |
CN113997295A (zh) * | 2021-12-30 | 2022-02-01 | 湖南视比特机器人有限公司 | 机械臂的手眼标定方法、装置、电子设备及存储介质 |
CN114227700A (zh) * | 2022-02-23 | 2022-03-25 | 杭州灵西机器人智能科技有限公司 | 机器人的手眼标定方法和系统 |
CN114952856A (zh) * | 2022-06-16 | 2022-08-30 | 江西省智能产业技术创新研究院 | 机械臂手眼标定方法、系统、计算机及可读存储介质 |
-
2023
- 2023-02-06 CN CN202310064212.5A patent/CN115781698B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019177450A (ja) * | 2018-03-30 | 2019-10-17 | 日本電産株式会社 | キャリブレーション精度の評価方法及び評価装置 |
CN110695996A (zh) * | 2019-10-14 | 2020-01-17 | 扬州大学 | 一种工业机器人自动手眼标定方法 |
CN112454332A (zh) * | 2020-11-25 | 2021-03-09 | 中科新松有限公司 | 一种用于手眼标定的机器人轨迹点生成方法 |
CN113696188A (zh) * | 2021-10-27 | 2021-11-26 | 季华实验室 | 手眼标定数据采集方法、装置、电子设备及存储介质 |
CN113997295A (zh) * | 2021-12-30 | 2022-02-01 | 湖南视比特机器人有限公司 | 机械臂的手眼标定方法、装置、电子设备及存储介质 |
CN114227700A (zh) * | 2022-02-23 | 2022-03-25 | 杭州灵西机器人智能科技有限公司 | 机器人的手眼标定方法和系统 |
CN114952856A (zh) * | 2022-06-16 | 2022-08-30 | 江西省智能产业技术创新研究院 | 机械臂手眼标定方法、系统、计算机及可读存储介质 |
Non-Patent Citations (1)
Title |
---|
孙东等: "基于机器视觉的机器人视觉系统与标定研究" * |
Also Published As
Publication number | Publication date |
---|---|
CN115781698B (zh) | 2023-04-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112476434B (zh) | 一种基于协作机器人的视觉3d取放方法及系统 | |
CN108399639A (zh) | 基于深度学习的快速自动抓取与摆放方法 | |
US9118823B2 (en) | Image generation apparatus, image generation method and storage medium for generating a target image based on a difference between a grip-state image and a non-grip-state image | |
CN110599541A (zh) | 一种对多传感器进行标定的方法、装置和存储介质 | |
CN108555908A (zh) | 一种基于rgbd相机的堆叠工件姿态识别及拾取方法 | |
KR20180120647A (ko) | 가이드된 어셈블리 환경에서 머신비전 좌표공간과 함께 묶기 위한 시스템 및 방법 | |
JPWO2019189661A1 (ja) | 学習データセット作製方法及び装置 | |
CN109559371B (zh) | 一种用于三维重建的方法和装置 | |
US20160214255A1 (en) | Method for calibrating an articulated end effector employing a remote digital camera | |
JP2018111165A (ja) | 視覚センサのキャリブレーション装置、方法及びプログラム | |
CN111627072A (zh) | 一种对多传感器进行标定的方法、装置和存储介质 | |
CN109648568B (zh) | 机器人控制方法、系统及存储介质 | |
CN114310901B (zh) | 用于机器人的坐标系标定方法、装置、系统以及介质 | |
CN113696188B (zh) | 手眼标定数据采集方法、装置、电子设备及存储介质 | |
CN110293552A (zh) | 机械臂控制方法、装置、控制设备及存储介质 | |
CN113643380A (zh) | 一种基于单目相机视觉标靶定位的机械臂引导方法 | |
CN113741495B (zh) | 无人机姿态调整方法、装置、计算机设备和存储介质 | |
CN115781698B (zh) | 分层式手眼标定机器人运动位姿自动生成方法、系统、设备和介质 | |
CN112809668A (zh) | 一种机械臂自动手眼标定的方法及系统、终端 | |
US11577400B2 (en) | Method and apparatus for managing robot system | |
CN116206189A (zh) | 一种曲面图形标识码及其识别方法 | |
CN109615658B (zh) | 机器人的物品拿取方法、装置、计算机设备及存储介质 | |
DE102021202570A1 (de) | Vorrichtung und verfahren zum lokalisieren von stellen von objekten aus kamerabildern der objekte | |
KR20220067719A (ko) | 딥러닝과 마커를 이용한 비전인식을 통한 로봇 제어장치 및 그 방법 | |
CN110271001A (zh) | 机器人识别方法、控制方法、装置、存储介质及主控设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |