CN111993422B - 基于无标定视觉的机器人轴孔对准控制方法 - Google Patents

基于无标定视觉的机器人轴孔对准控制方法 Download PDF

Info

Publication number
CN111993422B
CN111993422B CN202010801900.1A CN202010801900A CN111993422B CN 111993422 B CN111993422 B CN 111993422B CN 202010801900 A CN202010801900 A CN 202010801900A CN 111993422 B CN111993422 B CN 111993422B
Authority
CN
China
Prior art keywords
image
point
robot
characteristic
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010801900.1A
Other languages
English (en)
Other versions
CN111993422A (zh
Inventor
陈卫东
周坤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Jiaotong University
Original Assignee
Shanghai Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Jiaotong University filed Critical Shanghai Jiaotong University
Priority to CN202010801900.1A priority Critical patent/CN111993422B/zh
Publication of CN111993422A publication Critical patent/CN111993422A/zh
Application granted granted Critical
Publication of CN111993422B publication Critical patent/CN111993422B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1687Assembly, peg and hole, palletising, straight line, weaving pattern movement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于无标定视觉的机器人轴孔对准控制方法,包括步骤S1:图像处理,采集目标轴孔的图像,并提取相应的图像特征;步骤S2:无标定视觉伺服控制对准,使用通过步骤S1获得的所述图像特征用于控制反馈,控制机器人运动到轴孔对准位置,完成轴孔对准任务。本发明提供的基于无标定视觉的机器人轴孔对准控制方法采用无标定视觉的方法进行轴孔对准,无需估计图像雅克比矩阵,计算简单高效;采用消失点特征和端面圆心特征点完成旋转和平移运动解耦控制,能够控制机器人快速而平滑地运动,并且能够有效克服工具形变带来的对准困难,提高轴孔接插装配的质量和可靠性。

Description

基于无标定视觉的机器人轴孔对准控制方法
技术领域
本发明涉及机器人接插装配作业领域,具体地,涉及基于无标定视觉的机器人轴孔对准控制方法。
背景技术
轴孔接插装配任务是工业中很常见的一种任务类型,它具有重复且繁琐的特性,使用机器人来替代人工是很合适的,这样既可以降低生产成本又可以提高效率。接插装配可以分为两个阶段,轴孔对准和轴孔接插。轴孔接插前需要先完成轴孔对准任务,其对准精度决定后续接插过程是否能够安全无卡阻的顺利进行。目前大部分方法是利用视觉或/和力觉或/和专用的执行机构来完成轴孔对准及后续位姿调整。
专利文献CN110977373A公开了一种机器人用手眼力协调控制末端执行机构,包括六维力传感器、连接件、工业相机、电动气爪及电路板结构,使用视觉和力觉混合控制技术,能够有效保证轴孔装配时的同轴度。其技术方案的不足之处在于需要制作专用的相机连接件,且对相机垂直方向安装精度要求高,同时需要标定相机的内外参数来调整对齐位姿,步骤较为繁琐。
专利文献CN106204610A公开了一种基于图像处理的轴孔装配自动对中系统,该方法通过图像处理的方式获取目标轴承孔的圆心特征,标定相机的像素单位与实际尺寸之间的对应关系,然后计算与期望位置的位置偏移量去控制机器人完成对齐。其技术方案的不足之处在于只能调整位置,无法完成姿态修正,使用场景受限且可靠性较差,而且需要标定相机相关参数,长期使用会发生相机参数漂移等情况。
发明内容
针对现有技术中的缺陷,本发明的目的是提供一种基于无标定视觉的机器人轴孔对准控制方法。
根据本发明提供的基于无标定视觉的机器人轴孔对准控制方法,包括:
步骤S1:图像处理,采集目标轴孔的图像,并提取相应的图像特征;
步骤S2:无标定视觉伺服控制对准,使用通过步骤S1获得的图像特征控制反馈,控制机器人运动到轴孔对准位置,完成轴孔对准任务。
优选地,步骤S1包括:
步骤S10:图像采集,工业相机获取目标轴孔图像;
步骤S11:图像预处理,根据步骤S10的目标轴孔图像获取感兴趣区域图像,对感兴趣区域图像进行预处理;
步骤S12:图像特征提取,根据经步骤S11预处理的图像,分别提取轴和孔的端面圆心点特征坐标、消失点特征坐标。
优选地,步骤S11包括:
步骤S110:模板匹配,对步骤S10获取的目标轴孔图像进行模板匹配得到感兴趣区域图像;
步骤S111:图像灰度化,对感兴趣区域图像进行灰度变换得到灰度图;
步骤S112:图像增强,对灰度图使用图像增强方法得到增强图;
步骤S113:图像锐化,对增强图使用图像锐化方法得到锐化图;
步骤S114:图像阈值分割,对锐化图使用阈值分割方法得到分割图;
步骤S115:图像边缘提取,对分割图使用边缘提取算法提取边缘,并进行平滑,得到边缘提取图;
步骤S116:图像边缘曲率计算与聚类,沿边缘提取图的边缘计算每点的曲率并对曲率进行聚类,将边缘点分为端面圆边缘点和直线边缘点两类。
优选地,步骤S12包括:
步骤S120:在经步骤S11处理的图像中提取轴和孔的端面圆心点特征;
步骤S121:在经步骤S11处理的图像中提取轴和孔外侧边界的两条平行直线的消失点特征。
优选地,步骤S120包括:
根据步骤S116处理的图像的聚类结果能够得到端面圆的边缘点,端面圆边缘点坐标为(uci,vci),其中,
i=1,2,3,…,n;
uci表示第i个端面圆边缘点的u坐标;
vci表示第i个端面圆边缘点的v坐标;
使用最小二乘法对边缘点进行圆拟合,拟合得到的圆心在感兴趣区域图像中坐标为(uc0,vc0),其中,
uc0表示端面圆圆心的u坐标;
vc0表示端面圆圆心的v坐标;
模板匹配后得到的感兴趣区域图像的左上角坐标为(uroi,vroi),其中,
uroi表示感兴趣区域图像左上角的u坐标;
vroi表示感兴趣区域图像左上角的v坐标;
提取的端面圆心点特征在全局图像中的坐标为(uc0+uroi,vc0+vroi);
分别提取轴的端面圆心点特征坐标和孔的端面圆心点特征坐标。
优选地,步骤S121包括:
根据步骤S116处理的图像的聚类结果能够得到直线特征边缘上的点,直线边缘点坐标为(uli,vli),其中,
i=1,2,3,…,n;
uli表示第i个直线边缘点的u坐标;
vli表示第i个直线边缘点的v坐标;
使用霍夫直线变换进行直线拟合,能够得到外侧边界的两条平行直线的首末端点坐标在感兴趣区域图像中分别为
Figure GDA0003394270370000031
Figure GDA0003394270370000032
其中,
Figure GDA0003394270370000033
表示边界直线l1首端点的u坐标;
Figure GDA0003394270370000034
表示边界直线l1首端点的v坐标;
Figure GDA0003394270370000035
表示边界直线l1末端点的u坐标;
Figure GDA0003394270370000036
表示边界直线l1末端点的v坐标;
Figure GDA0003394270370000037
表示边界直线l2首端点的u坐标;
Figure GDA0003394270370000038
表示边界直线l2首端点的v坐标;
Figure GDA0003394270370000039
表示边界直线l2末端点的u坐标;
Figure GDA00033942703700000310
表示边界直线l2末端点的v坐标;
在全局图像中对应的点坐标分别为
Figure GDA00033942703700000311
Figure GDA00033942703700000312
将点坐标写成齐次坐标并按顺序形成矩阵Ml=(mij)3×4,根据下式能够计算出两条平行直线的消失点特征坐标:
Figure GDA0003394270370000041
其中,mij表示矩阵Ml的第i行,第j列的元素;
mk为矩阵Ml的列向量,(k=1,2,3,4);
tij表示矩阵T的第i行,第j列的元素;
vp为消失点特征在全局图像中的坐标;
分别提取轴外侧边界的两条平行直线的消失点特征坐标和孔外侧边界的两条平行直线的消失点特征坐标。
优选地,步骤S2包括:
步骤S20:根据机器人运动与图像中特征点运动的映射关系,建立运动符号矩阵,获取期望特征点在图像中的位置;
步骤S21:计算运动符号矩阵以及实时特征点与期望特征点的图像误差作为控制反馈信息,根据控制反馈信息控制机器人运动;
步骤S22:实时特征点与期望特征点的图像误差小于设定阈值,完成轴孔对准,否则重复步骤S21,直至实时特征点与期望特征点的图像误差小于设定阈值。
优选地,步骤S20中消失点特征为姿态对齐特征点,端面圆心点特征为位置对齐特征点。
优选地,步骤S20中机器人运动与图像中特征点运动的映射关系为:
机器人带动相机在机器人基坐标系Ob的xoy平面平移运动对应消失点特征在图像坐标系中不运动;
机器人带动相机绕机器人基坐标系Ob的z轴和y轴旋转运动近似对应孔的消失点特征在图像坐标系中沿v轴和u轴平移运动;
机器人带动相机沿机器人基坐标系Ob的z轴和y轴平移运动近似对应孔的端面圆心点特征在图像坐标系中沿u轴和v轴平移运动。
优选地,步骤S21包括:
步骤S210:计算实时特征点与期望特征点的图像误差作为控制反馈信息;
步骤S211:根据步骤S210的控制反馈信息计算符号矩阵,根据符号矩阵计算结果确定机器人的运动方向;
步骤S212:控制机器人按照步骤S211的运动方向运动直到实时特征点与期望特征点的图像误差小于设定阈值。
与现有技术相比,本发明具有如下的有益效果:
1、通过采用无标定视觉的方法进行轴孔对准,步骤简单易行,不受标定精度影响;
2、通过采用无接触的视觉对齐方法,对准精度高,减少后续轴孔插入的位姿调整压力,有效避免插入卡阻,提高轴孔接插装配的质量和可靠性;
3、通过提取工具和工件的自然图像特征,不需要调整现使用的工艺,大大降低成本。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为机器人系统的示意图;
图2为图像坐标系中消失点特征的示意图;
图3为图像坐标系中端面圆心点特征的示意图;
图4为图像中消失点特征提取的示意图;
图5为基于消失点特征和端面圆心点特征的视觉伺服解耦控制结构图;
图6为基于无标定视觉的机器人轴孔对准控制方法的算法流程的示意图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变化和改进。这些都属于本发明的保护范围。
实施例
图1~图6为本发明提供的基于无标定视觉的机器人轴孔对准控制方法的示意图。
根据本发明提供的基于无标定视觉的机器人轴孔对准控制方法,包括步骤S1和步骤S2。
步骤S1:图像处理,采集目标轴孔的图像,并提取相应的图像特征。
步骤S1包括步骤S10、步骤S11和步骤S12。
步骤S10:图像采集,工业相机获取目标轴孔图像;工业相机以手在眼的方式安装,即安装在机器人末端上,实时获取目标轴孔的图像信息。
步骤S11:图像预处理,根据步骤S10的目标轴孔图像通过模板匹配的方法获取感兴趣区域图像,然后对感兴趣区域图像进行预处理,具体包括灰度化、增强、锐化、阈值分割、边缘提取、边缘曲率计算与聚类处理。
步骤S11包括步骤S110、步骤S111、步骤S112、步骤S113、步骤S114、步骤S115和步骤S116。
步骤S110:模板匹配,对步骤S10获取的目标轴孔图像进行模板匹配得到感兴趣区域图像。
步骤S111:图像灰度化,将RGB格式的感兴趣区域图像进行灰度变换得到灰度图。
步骤S112:图像增强,对灰度图进行同态滤波得到增强图。
步骤S113:图像锐化,对增强图进行高通滤波得到锐化图。
步骤S114:图像阈值分割,对锐化图进行自适应阈值分割得到分割图。
步骤S115:图像边缘提取,对分割图使用Canny算子提取边缘,并进行高斯平滑,得到边缘提取图。
步骤S116:图像边缘曲率计算与聚类,沿边缘提取图的边缘计算每点的曲率并对曲率进行聚类,将边缘点分为端面圆边缘点和直线边缘点两类。
步骤S12:图像特征提取,根据经步骤S11预处理的图像,分别提取轴和孔的端面圆心点特征坐标、消失点特征坐标。
步骤S12包括步骤S120和步骤S121。
步骤S120:在经步骤S11处理得到的图像预处理后的图像中提取轴和孔的端面圆心点特征;
如图2和图3所示,在图像中建立图像坐标系,图像坐标系为平面直角坐标系,包括u轴和v轴;根据步骤S116处理的图像的聚类结果能够得到端面圆的边缘点,端面圆边缘点坐标为(uci,vci),其中,i=1,2,3,…,n,uci表示第i个端面圆边缘点的u坐标,vci表示第i个端面圆边缘点的v坐标;
使用最小二乘法对端面圆边缘点进行圆拟合,拟合得到的圆心在感兴趣区域图像中坐标为(uc0,vc0),其中,uc0表示端面圆圆心的u坐标,vc0表示端面圆圆心的v坐标;
模板匹配后得到的感兴趣区域图像的左上角坐标为(uroi,vroi),其中,uroi表示感兴趣区域图像左上角的u坐标,vroi表示感兴趣区域图像左上角的v坐标;
提取的端面圆心点特征在全局图像中的坐标为(uc0+uroi,vc0+vroi);
对轴的端面圆执行步骤S120提取轴的端面圆心点特征坐标,对孔的端面圆执行步骤S120提取孔的端面圆心点特征坐标。
步骤S121:在经步骤S11处理的图像中提取轴和孔外侧边界的两条平行直线的消失点特征;
根据步骤S116处理的图像的聚类结果能够得到直线特征边缘上的点,直线边缘点坐标为(uli,vli),其中,i=1,2,3,…,n,uli表示第i个直线边缘点的u坐标,vli表示第i个直线边缘点的v坐标;
使用霍夫直线变换进行直线拟合,能够得到外侧边界的两条平行直线的首末端点坐标在感兴趣区域图像中分别为
Figure GDA0003394270370000071
Figure GDA0003394270370000072
其中,
Figure GDA0003394270370000073
表示边界直线l1首端点的u坐标,
Figure GDA0003394270370000074
表示边界直线l1首端点的v坐标,
Figure GDA0003394270370000075
表示边界直线l1末端点的u坐标,
Figure GDA0003394270370000076
表示边界直线l1末端点的v坐标,
Figure GDA0003394270370000077
表示边界直线l2首端点的u坐标,
Figure GDA0003394270370000078
表示边界直线l2首端点的v坐标,
Figure GDA0003394270370000079
表示边界直线l2末端点的u坐标,
Figure GDA00033942703700000710
表示边界直线l2末端点的v坐标;
在全局图像中对应的点坐标分别为
Figure GDA00033942703700000711
Figure GDA00033942703700000712
将点坐标写成齐次坐标并按顺序形成矩阵Ml=(mij)3×4,根据下式能够计算出两条平行直线的消失点特征坐标:
Figure GDA00033942703700000713
其中,mij表示矩阵Ml的第i行,第j列的元素,mk为矩阵Ml的列向量,(k=1,2,3,4),tij表示矩阵T的第i行,第j列的元素,vp为消失点特征在全局图像中的坐标;
分别提取轴外侧边界的两条平行直线的消失点特征坐标和孔外侧边界的两条平行直线的消失点特征坐标。
步骤S2:无标定视觉伺服控制对准,使用通过步骤S1获得的图像特征控制反馈,控制机器人运动到轴孔对准位置,完成轴孔对准任务。
步骤S2包括步骤S20、步骤S21和步骤S22。
步骤S20:根据任务特点,建立机器人运动与图像中特征点运动的映射关系,根据机器人运动与图像中特征点运动的映射关系,建立运动符号矩阵,获取期望特征点在图像中的位置;
如图1所示,建立空间直角坐标系:工具中心点坐标系Ot、孔端面的中心点坐标系Oh、相机坐标系Oc、末端执行器坐标系Oe和机器人基坐标系Ob
工具中心点坐标系相对机器人基坐标系的齐次变换矩阵为
Figure GDA0003394270370000081
其中,
Figure GDA0003394270370000082
表示工具中心点坐标系相对机器人基坐标系的姿态矩阵,
Figure GDA0003394270370000083
表示工具中心点坐标系相对机器人基坐标系的位置矩阵;
孔端面中心点坐标系相对机器人基坐标系的齐次变换矩阵为
Figure GDA0003394270370000084
其中,
Figure GDA0003394270370000085
表示孔端面中心点坐标系相对机器人基坐标系的姿态矩阵,
Figure GDA0003394270370000086
表示孔端面中心点坐标系相对机器人基坐标系的位置矩阵;
相机坐标系相对机器人基坐标系的齐次变换矩阵为
Figure GDA0003394270370000087
末端执行器坐标系相对机器人基坐标系的齐次变换矩阵为
Figure GDA0003394270370000088
当轴孔对准时,工具中心点坐标系和孔端面中心点坐标系相对机器人基坐标系的姿态矩阵相同,即
Figure GDA0003394270370000089
位置矩阵仅x轴坐标不同,即
Figure GDA00033942703700000810
控制机器人运动,相机会跟随机器人运动,孔的图像特征相对相机运动,消失点特征为姿态对齐特征点,即当轴的消失点特征和孔的消失点特征的图像误差小于设定阈值时,轴孔姿态对准,其中轴的消失点特征为期望特征点,孔的消失点特征为实时特征点;端面圆心点特征为位置对齐特征点,即当轴的端面圆心点特征和孔的端面圆心点特征的图像误差小于设定阈值时,轴孔位置对准,其中轴的端面圆心点特征为期望特征点,孔的端面圆心点特征为实时特征点;
机器人运动与图像中特征点运动的映射关系为:
机器人带动相机在机器人基坐标系Ob的xoy平面平移运动对应消失点特征在图像坐标系中不运动;机器人带动相机绕机器人基坐标系Ob的z轴和y轴旋转运动近似对应孔的消失点特征在图像坐标系中沿v轴和u轴平移运动;机器人带动相机沿机器人基坐标系Ob的z轴和y轴平移运动近似对应孔的端面圆心点特征在图像坐标系中沿u轴和v轴平移运动,对齐任务中,无需考虑机器人带动相机在机器人基坐标系Ob中与x轴相关的运动;
提取轴的消失点特征在图像坐标系中的坐标并记为Pd,提取此时轴的端面圆心点特征在图像坐标系中的坐标并记为Cd
步骤S21:计算运动符号矩阵以及实时特征点与期望特征点的图像误差作为控制反馈信息,根据控制反馈信息控制机器人运动;每个控制周期都使用步骤S1提取轴和孔的消失点特征和端面圆心点特征,将实时特征点与期望特征点的图像误差作为控制反馈信息,根据图像误差计算符号矩阵并根据符号矩阵计算结果确定机器人的运动方向,设计了关节速度控制器实现平移运动与旋转运动的解耦控制,然后根据速度指令控制机器人运动直到实时特征点与期望特征点的图像误差小于设定阈值。
步骤S21包括步骤S210、步骤S211和步骤S212。
步骤S210:计算实时特征点与期望特征点的图像误差作为控制反馈信息。
孔的消失点特征为实时特征点,轴的消失点特征作为期望特征点,轴的消失点特征坐标记为ypd,定义消失点特征图像误差为:
Δyp(t)=yp(t)-ypd
其中yp(t)为孔消失点特征的uv坐标,表示为[up,vp]T;ypd为轴的消失点特征的uv坐标,表示为
Figure GDA0003394270370000091
在运动过程中,相机能始终观察到孔的端面,并能提取到孔的端面圆心点特征,孔的端面圆心点特征为实时特征点,轴的端面圆心点特征作为期望特征点,轴的端面圆心点特征坐标记为ycd,定义端面圆心点特征图像误差为:
Δyc(t)=yc(t)-ycd
其中yc(t)为孔的端面圆心点特征的uv坐标,表示为[uc,vc]T;ycd为轴的端面圆心点特征的uv坐标,表示为
Figure GDA0003394270370000092
步骤S211:根据步骤S210的控制反馈信息计算符号矩阵,根据符号矩阵计算结果确定机器人的运动方向;
根据消失点特征图像误差作为控制反馈信息控制机器人末端的旋转运动,完成轴孔姿态对准,如图2所示,根据下式计算符号矩阵以确定运动方向:
Figure GDA0003394270370000093
其中,P0为运动开始前孔的消失点特征,Pl(l=1,2,…)为在第l个周期的孔的消失点特征,Pd为轴的消失点特征,图中
Figure GDA0003394270370000094
A为两个向量的交点;
flagpy,flagpz为运动方向符号,至少由两个运动周期来确定,控制周期受相机帧数,图像算法处理速度,机器人硬件等影响,这里图像算法处理速度是限制控制周期的主要因素,因为使用机器人自身控制周期能达到100Hz,这里每个周期都需要有图像特征的反馈信息,受算法速度限制,因此实际周期最多有20Hz;
根据端面圆心点特征图像误差作为控制反馈信息控制机器人末端的平移运动,完成轴孔位置对准,如图3所示,根据下式计算符号矩阵以确定运动方向:
Figure GDA0003394270370000095
其中,C0为运动开始前孔的端面圆心点特征,Cm(m=1,2,…)为在第i个周期的孔的端面圆心点特征,Cd为轴的端面圆心点特征,图中
Figure GDA0003394270370000101
A1为两个向量的交点,flagcy,flagcz为运动方向符号,至少由两个运动周期来确定;
由于消失点特征的坐标不会受机器人基坐标系Ob的xoy平面平移运动影响,flagpy,flagpz在轴的消失点特征和孔的消失点特征的图像误差收敛至小于设定阈值之前都不会发生改变,但轴和孔的端面圆心点特征的运动会受到机器人末端旋转运动的影响,因此,flagcy,flagcz在轴和孔的端面圆心点特征的图像误差收敛至小于设定阈值之前会发生变化,因此在后续运动过程的运动符号可以根据下式来继续确定:
Figure GDA0003394270370000102
其中,τ为控制周期,
Figure GDA0003394270370000103
为孔的端面圆心点的运动速度;
上述运动符号矩阵的计算确保了图像误差朝着减小的方向下降,实现了直接由图像特征运动来控制机器人末端运动,无需计算图像雅可比矩阵。
步骤S212:控制机器人按照步骤S211的运动方向运动直到实时特征点与期望特征点的图像误差小于设定阈值;
根据消失点特征图像误差和端面圆心点特征图像误差,可以设计速度解耦控制器如下:
Figure GDA0003394270370000104
其中,
Figure GDA0003394270370000105
I为单位矩阵,vc(t)=(0,vy,vz,0,ωyz)T,Δy(t)=(0,Δycv,Δycu,0,Δypu,Δypv)T,flag为运动符号矩阵,为了实现解耦控制,取flag为对角矩阵,控制增益矩阵K为正定对角矩阵;
flag=diag(0,flagcy,flaycz,0,flagpy,flagpz)
K=diag(0,Kc1,Kc2,0,Kp1,Kp2)
vy,vzyz为机器人末端在对应轴的速度和角速度分量,Δycu,Δycv,Δypu,Δypv分别为消失点特征和圆心点特征的图像误差在对应u,v轴的分量,Kc1,Kc2分别为速度分量vy,vz的控制增益;Kp1,Kp2分别为角速度分量ωyz的控制增益。
手眼相机固定在机器人末端,因此可以根据相机速度得到机器人关节速度,关节速度控制器设计如下:
Figure GDA0003394270370000106
其中,
Figure GDA0003394270370000107
为机器人末端机械臂的雅可比矩阵的广义逆矩阵,速度控制器输出的速度指令控制机器人运动,直至消失点特征图像误差和端面圆心点特征图像误差均收敛至设定阈值。
步骤S22:消失点特征图像误差和端面圆心点特征图像误差均小于设定阈值,完成轴孔对准,否则重复步骤S21,直至:消失点特征图像误差和端面圆心点特征图像误差均小于设定阈值。
本领域技术人员知道,除了以纯计算机可读程序代码方式实现本发明提供的系统及其各个装置、模块、单元以外,完全可以通过将方法步骤进行逻辑编程来使得本发明提供的系统及其各个装置、模块、单元以逻辑门、开关、专用集成电路、可编程逻辑控制器以及嵌入式微控制器等的形式来实现相同功能。所以,本发明提供的系统及其各项装置、模块、单元可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置、模块、单元也可以视为硬件部件内的结构;也可以将用于实现各种功能的装置、模块、单元视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变化或修改,这并不影响本发明的实质内容。在不冲突的情况下,本申请的实施例和实施例中的特征可以任意相互组合。

Claims (7)

1.一种基于无标定视觉的机器人轴孔对准控制方法,其特征在于,包括:
步骤S1:图像处理,采集目标轴孔的图像,并提取相应的图像特征,所述图像特征包括轴和孔的端面圆心点特征和消失点特征;
所述孔的端面圆心点特征和消失点特征为实时特征点,所述轴的端面圆心点特征和消失点特征为期望特征点;
步骤S2:无标定视觉伺服控制对准,使用通过步骤S1获得的所述图像特征控制反馈,控制机器人运动到轴孔对准位置,完成轴孔对准任务;
所述步骤S2包括:
步骤S20:根据机器人运动与图像中特征点运动的映射关系,建立运动符号矩阵,获取期望特征点在图像中的位置,所述运动符号矩阵为:
flag=diag(0,flagcy,flagcz,0,flagpy,flagpz)
步骤S21:计算运动符号矩阵以及实时特征点与期望特征点的图像误差作为控制反馈信息,根据所述控制反馈信息控制机器人运动;
所述步骤S21包括:
步骤S210:计算实时特征点与期望特征点的图像误差作为控制反馈信息;步骤S211:根据步骤S210的控制反馈信息计算运动符号矩阵,根据运动符号矩阵计算结果确定机器人的运动方向;
根据消失点特征图像误差作为控制反馈信息控制机器人末端的旋转运动,完成轴孔姿态对准;
计算运动符号矩阵以确定运动方向:
Figure FDA0003394270360000011
其中,P0为运动开始前孔的消失点特征,Pl(l=1,2,…)为在第l个周期的孔的消失点特征,Pd为轴的消失点特征,A为
Figure FDA0003394270360000012
Figure FDA0003394270360000013
两个向量的交点,其中
Figure FDA0003394270360000014
轴,
Figure FDA0003394270360000015
轴;
根据端面圆心点特征图像误差作为控制反馈信息控制机器人末端的平移运动,完成轴孔位置对准;
计算运动符号矩阵以确定运动方向:
Figure FDA0003394270360000016
其中,C0为运动开始前孔的端面圆心点特征,Cm(m=1,2,…)为在第m个周期的孔的端面圆心点特征,Cd为轴的端面圆心点特征,A1
Figure FDA0003394270360000021
Figure FDA0003394270360000022
两个向量的交点,其中
Figure FDA0003394270360000023
轴,
Figure FDA0003394270360000024
轴;
步骤S212:控制机器人按照步骤S211的运动方向运动直到实时特征点与期望特征点的图像误差小于设定阈值;
根据消失点特征图像误差和端面圆心点特征图像误差,设计速度解耦控制器如下:
Figure FDA0003394270360000025
其中,
Figure FDA0003394270360000026
I为单位矩阵,vc(t)=(0,vy,vz,0,ωyz)T,Δy(t)=(0,Δycv,Δycu,0,Δypu,Δypv)T,为了实现解耦控制,取flag为对角矩阵,控制增益矩阵K为正定对角矩阵;
K=diag(0,Kc1,Kc2,0,Kp1,Kp2)
vy,vzyz为机器人末端在对应轴的速度和角速度分量,Δycu,Δycv,Δypu,Δypv分别为消失点特征和圆心点特征的图像误差在对应u,v轴的分量,Kc1,Kc2分别为速度分量vy,vz的控制增益;Kp1,Kp2分别为角速度分量ωyz的控制增益;
步骤S22:实时特征点与期望特征点的图像误差小于设定阈值,完成轴孔对准,否则重复步骤S21,直至实时特征点与期望特征点的图像误差小于设定阈值。
2.根据权利要求1所述的基于无标定视觉的机器人轴孔对准控制方法,其特征在于,所述步骤S1包括:
步骤S10:图像采集,工业相机获取目标轴孔图像;
步骤S11:图像预处理,根据步骤S10的所述目标轴孔图像获取感兴趣区域图像,对所述感兴趣区域图像进行预处理;
步骤S12:图像特征提取,根据经所述步骤S11预处理的图像,分别提取轴和孔的端面圆心点特征坐标、消失点特征坐标。
3.根据权利要求2所述的基于无标定视觉的机器人轴孔对准控制方法,其特征在于,所述步骤S11包括:
步骤S110:模板匹配,对步骤S10获取的目标轴孔图像进行模板匹配得到感兴趣区域图像;
步骤S111:图像灰度化,对感兴趣区域图像进行灰度变换得到灰度图;
步骤S112:图像增强,对所述灰度图使用图像增强方法得到增强图;
步骤S113:图像锐化,对所述增强图使用图像锐化方法得到锐化图;
步骤S114:图像阈值分割,对所述锐化图使用阈值分割方法得到分割图;
步骤S115:图像边缘提取,对所述分割图使用边缘提取算法提取边缘,并进行平滑,得到边缘提取图;
步骤S116:图像边缘曲率计算与聚类,沿所述边缘提取图的边缘计算每点的曲率并对曲率进行聚类,将边缘点分为端面圆边缘点和直线边缘点两类。
4.根据权利要求3所述的基于无标定视觉的机器人轴孔对准控制方法,其特征在于,所述步骤S12包括:
步骤S120:在经步骤S11处理的图像中提取轴和孔的端面圆心点特征;
步骤S121:在经步骤S11处理的图像中提取轴和孔外侧边界的两条平行直线的消失点特征。
5.根据权利要求4所述的基于无标定视觉的机器人轴孔对准控制方法,其特征在于,所述步骤S120包括:
根据步骤S116处理的图像的聚类结果能够得到端面圆的边缘点,端面圆边缘点坐标为(uci,vci),其中,
i=1,2,3,…,n;
uci表示第i个端面圆边缘点的u坐标;
vci表示第i个端面圆边缘点的v坐标;
使用最小二乘法对边缘点进行圆拟合,拟合得到的圆心在感兴趣区域图像中坐标为(uc0,vc0),其中,
uc0表示端面圆圆心的u坐标;
vc0表示端面圆圆心的v坐标;
模板匹配后得到的感兴趣区域图像的左上角坐标为(uroi,vroi),其中,
uroi表示感兴趣区域图像左上角的u坐标;
vroi表示感兴趣区域图像左上角的v坐标;
提取的端面圆心点特征在全局图像中的坐标为(uc0+uroi,vc0+vroi);
分别提取轴的端面圆心点特征坐标和孔的端面圆心点特征坐标。
6.根据权利要求5所述的基于无标定视觉的机器人轴孔对准控制方法,其特征在于,所述步骤S121包括:
根据步骤S116处理的图像的聚类结果能够得到直线特征边缘上的点,直线边缘点坐标为(uli,vli),其中,
i=1,2,3,…,n;
uli表示第i个直线边缘点的u坐标;
vli表示第i个直线边缘点的v坐标;
使用霍夫直线变换进行直线拟合,能够得到外侧边界的两条平行直线的首末端点坐标在所述感兴趣区域图像中分别为
Figure FDA0003394270360000041
Figure FDA0003394270360000042
其中,
Figure FDA0003394270360000043
表示边界直线l1首端点的u坐标;
Figure FDA0003394270360000044
表示边界直线l1首端点的v坐标;
Figure FDA0003394270360000045
表示边界直线l1末端点的u坐标;
Figure FDA0003394270360000046
表示边界直线l1末端点的v坐标;
Figure FDA0003394270360000047
表示边界直线l2首端点的u坐标;
Figure FDA0003394270360000048
表示边界直线l2首端点的v坐标;
Figure FDA0003394270360000049
表示边界直线l2末端点的u坐标;
Figure FDA00033942703600000410
表示边界直线l2末端点的v坐标;
在全局图像中对应的点坐标分别为
Figure FDA00033942703600000411
Figure FDA00033942703600000412
将点坐标写成齐次坐标并按顺序形成矩阵Ml=(mij)3×4,根据下式能够计算出两条平行直线的消失点特征坐标:
Figure FDA00033942703600000413
其中,mij表示矩阵Ml的第i行,第j列的元素;
mk为矩阵Ml的列向量,(k=1,2,3,4);
tij表示矩阵T的第i行,第j列的元素;
vp为消失点特征在全局图像中的坐标;
分别提取轴外侧边界的两条平行直线的消失点特征坐标和孔外侧边界的两条平行直线的消失点特征坐标。
7.根据权利要求1所述的基于无标定视觉的机器人轴孔对准控制方法,其特征在于,所述步骤S20中机器人运动与图像中特征点运动的映射关系为:
机器人带动相机在机器人基坐标系Ob的xoy平面平移运动对应轴的消失点特征和孔的消失点特征在图像坐标系中不运动;
机器人带动相机绕机器人基坐标系Ob的z轴和y轴旋转运动近似对应孔的消失点特征在图像坐标系中沿v轴和u轴平移运动;
机器人带动相机沿机器人基坐标系Ob的z轴和y轴平移运动近似对应孔的端面圆心点特征在图像坐标系中沿u轴和v轴平移运动。
CN202010801900.1A 2020-08-11 2020-08-11 基于无标定视觉的机器人轴孔对准控制方法 Active CN111993422B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010801900.1A CN111993422B (zh) 2020-08-11 2020-08-11 基于无标定视觉的机器人轴孔对准控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010801900.1A CN111993422B (zh) 2020-08-11 2020-08-11 基于无标定视觉的机器人轴孔对准控制方法

Publications (2)

Publication Number Publication Date
CN111993422A CN111993422A (zh) 2020-11-27
CN111993422B true CN111993422B (zh) 2022-02-18

Family

ID=73463134

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010801900.1A Active CN111993422B (zh) 2020-08-11 2020-08-11 基于无标定视觉的机器人轴孔对准控制方法

Country Status (1)

Country Link
CN (1) CN111993422B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112720408B (zh) * 2020-12-22 2022-07-08 江苏理工学院 一种全地形机器人视觉导航控制方法
CN112847362B (zh) * 2021-01-05 2022-09-20 江汉大学 一种基于图像矩的搬运机器人视觉伺服控制方法
CN113997290B (zh) * 2021-11-17 2023-03-28 合肥联宝信息技术有限公司 一种用于机械臂的控制方法及设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106204610A (zh) * 2016-07-20 2016-12-07 张家港长安大学汽车工程研究院 基于图像处理的轴孔装配自动对中系统
CN109382828A (zh) * 2018-10-30 2019-02-26 武汉大学 一种基于示教学习的机器人轴孔装配系统及方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6460690B2 (ja) * 2014-09-16 2019-01-30 キヤノン株式会社 ロボット装置、ロボット制御方法、プログラム及び記録媒体
JP2018051735A (ja) * 2016-09-30 2018-04-05 セイコーエプソン株式会社 ロボット制御装置、ロボットおよびロボットシステム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106204610A (zh) * 2016-07-20 2016-12-07 张家港长安大学汽车工程研究院 基于图像处理的轴孔装配自动对中系统
CN109382828A (zh) * 2018-10-30 2019-02-26 武汉大学 一种基于示教学习的机器人轴孔装配系统及方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
《A Peg-in-hole Assembly Strategy Using Uncalibrated Visual Servoing》;Yeguo Liao,et al.;《2019 IEEE International Conference on Robotics and Biomimetics (ROBIO)》;20200120;论文第1845页第2栏倒数第1段至论文第1849页第1栏第1段,以及图1-5 *
《Uncalibrated peg-hole alignment using visual servoing》;Jin Cao,et al.;《2017 IEEE International Conference on Real-time Computing and Robotics (RCAR)》;20180312;论文第549页第2栏倒数第1段-论文第554页第1栏第2段以及图1-9 *
《面向细长轴轴孔装配的机械臂感知与控制》;曹瑾;《中国优秀硕士学位论文全文数据库 信息科技辑》;20200115;论文正文第8-50页以及图2-1至图4-20 *
Yeguo Liao,et al..《A Peg-in-hole Assembly Strategy Using Uncalibrated Visual Servoing》.《2019 IEEE International Conference on Robotics and Biomimetics (ROBIO)》.2020, *
面向细长轴轴孔装配的机械臂感知与控制;曹瑾;《中国优秀硕士学位论文全文数据库 信息科技辑》;20200115;论文正文第8-50页以及图2-1至图4-20 *

Also Published As

Publication number Publication date
CN111993422A (zh) 2020-11-27

Similar Documents

Publication Publication Date Title
CN111993422B (zh) 基于无标定视觉的机器人轴孔对准控制方法
CN111300422B (zh) 基于视觉图像的机器人工件抓取位姿误差补偿方法
CN111775146B (zh) 一种工业机械臂多工位作业下的视觉对准方法
CN107901041B (zh) 一种基于图像混合矩的机器人视觉伺服控制方法
CN107160380B (zh) 一种基于scara机械手的相机标定和坐标变换的方法
CN107914272B (zh) 一种七自由度机械臂组件抓取目标物体的方法
CN111496789B (zh) 一种离线复杂曲面喷涂轨迹规划系统及控制方法
CN108972557A (zh) 微零件位姿自动对准装置及其方法
CN109287077B (zh) 一种电子元件插装方法和装置
CN113706621B (zh) 基于带标记图像的标志点定位及姿态获取方法和系统
CN116872216B (zh) 一种基于有限时间控制的机器人视觉伺服作业方法
CN110076780B (zh) 基于视觉和力反馈位姿调节的机器人装配方法及系统
CN113172632A (zh) 一种基于图像的简化机器人视觉伺服控制方法
CN111331604A (zh) 一种基于机器视觉的阀门旋拧柔顺作业方法
CN116749233A (zh) 基于视觉伺服的机械臂抓取系统及方法
CN111571596B (zh) 利用视觉修正冶金接插装配作业机器人误差的方法及系统
CN109079777B (zh) 一种机械臂手眼协调作业系统
CN112588621B (zh) 一种基于视觉伺服的农产品分拣方法及系统
CN114660579A (zh) 一种全自动激光雷达与相机标定方法
CN117428777A (zh) 一种拆袋机器人的手眼标定方法
CN117340929A (zh) 一种基于三维点云数据的柔性夹爪抓取处置装置及方法
Boby Hand-eye calibration using a single image and robotic picking up using images lacking in contrast
CN117001657A (zh) 一种用于双机器人柔性轴孔装配的单目视觉引导方法
CN115661266A (zh) 一种基于视觉的pcb板料自主精准定位方法及装置
CN115770988A (zh) 一种基于点云环境理解的焊接机器人智能示教方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant