CN112847362A - 一种基于图像矩的搬运机器人视觉伺服控制方法 - Google Patents

一种基于图像矩的搬运机器人视觉伺服控制方法 Download PDF

Info

Publication number
CN112847362A
CN112847362A CN202110008777.2A CN202110008777A CN112847362A CN 112847362 A CN112847362 A CN 112847362A CN 202110008777 A CN202110008777 A CN 202110008777A CN 112847362 A CN112847362 A CN 112847362A
Authority
CN
China
Prior art keywords
image
robot
axis
angle
calculating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110008777.2A
Other languages
English (en)
Other versions
CN112847362B (zh
Inventor
李涵
熊志
施文杰
左治江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jianghan University
Original Assignee
Jianghan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jianghan University filed Critical Jianghan University
Priority to CN202110008777.2A priority Critical patent/CN112847362B/zh
Publication of CN112847362A publication Critical patent/CN112847362A/zh
Application granted granted Critical
Publication of CN112847362B publication Critical patent/CN112847362B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1661Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Abstract

本发明提供了一种基于图像矩的搬运机器人视觉伺服控制方法,包括如下步骤:建立机器人工作区域的笛卡尔空间直角坐标系,并设定机器人末端初始位置;通过实时图像处理得到物体的位置,并将目标与背景进行二值化处理,根据机器人期望位姿下目标图像的特征信息得到期望图像特征s*;得到实时图像特征s;将实时图像特征s与s*作比较,计算出图像特征偏差e=(s‑s*),如果e小于预设的阈值δ,则机器人末端执行器达到期望位置,控制流程结束,否则利用实时图像特征s,计算图像雅可比矩阵的广义逆矩阵
Figure DDA0002884496080000011
并通过
Figure DDA0002884496080000012
得到末端执行器的移动方向和速率,结合伺服控制器调整机器人末端的位姿;本发明方法能够实现良好的视觉伺服控制效果,适用于非平面物品的视觉伺服控制。

Description

一种基于图像矩的搬运机器人视觉伺服控制方法
技术领域
本发明涉及机器人技术领域,尤其涉及一种基于图像矩的搬运机器人视觉伺服控制方法。
背景技术
我国现代农业正处于快速发展阶段,农资运输问题,特别是粮食、化肥、饲料等粉粒状农资的袋装运输变得日益突出。目前,袋装农资主要通过火车运输,装卸及仓库运输主要靠人工搬运,不仅工作效率低、劳动强度大,而且有些农资有化学腐蚀性或毒性、以及粉尘的环境等都会危害装卸工人的身心健康。采用搬运机器人装卸袋装农资是农资装卸、搬运行业的主要发展趋势,其显著特点是抓取可靠、移动灵活、摆放整齐、生产成本低和整体装卸效率高。搬运机器人通过机器视觉识别获取袋装农资的位置和形状信息,并以此作为机器人的控制输入,通过视觉伺服控制方法引导机器人机械臂末端执行装置以期望姿态运动到目标位姿,实现袋装农资的抓取和装卸。图像矩是计算机视觉中模式识别常用的一种方法,其作为一种全局图像特征,在视觉伺服中表现了出良好的性能,但其在绕摄像机X轴及Y轴的旋转控制的特征选择以及非平面物体的视觉伺服中仍是一个难题。
发明内容
本发明提供了一种基于图像矩的搬运机器人视觉伺服控制方法,提出了基于高斯过程回归的图像矩特征设计,得到结合学习特征的改进图像矩视觉伺服控制方法,实现良好的视觉伺服控制效果,适用于非平面物品的视觉伺服控制。
本发明实施例提供了一种基于图像矩的搬运机器人视觉伺服控制方法,包括如下步骤:
S1:建立一个眼在手机器人工作区域的笛卡尔空间直角坐标系,以工作台水平面为xy平面,垂直于水平面的方向为z轴方向,物体放置在工作台上,并设定机器人末端初始位置;
S2:通过实时图像处理得到物体的位置,并将目标与背景进行二值化处理,采集图像数据及对应机器人绕X、Y轴的转角,计算出机器人该位姿下的图像矩特征,通过高斯过程回归分别得到两个模型fGPRX,fGPRY
S3:根据机器人期望位姿下目标图像的特征信息得到期望图像特征s*;
S4:通过高斯过程回归构造两个虚拟矩特征,并与图像矩特征组合为控制系统的实时图像特征s;
S5:将步骤S4中的实时图像特征s与步骤S3中的s*作比较,计算出图像特征偏差e=(s-s*),如果e小于预设的阈值δ,则机器人末端执行器达到期望位置,即完成指定任务,控制流程结束,否则执行步骤S6;
S6:利用步骤S4中得到的实时图像特征s,计算图像雅可比矩阵的广义逆矩阵
Figure BDA0002884496060000021
并通过
Figure BDA0002884496060000022
得到末端执行器的移动方向和速率,结合伺服控制器调整机器人末端的位姿;
S7:获取调整姿态后的机器人末端相机捕捉的图像,返回步骤S4。
具体地,所述步骤S3中根据机器人期望位姿下目标图像的特征信息得到期望图像特征s*,具体为:
计算目标物体图像的面积a=m00,目标物体图像的重心(Xg,Yg),目标物体方向角α,以及到达预期位姿时绕X轴转角γ*和绕Y轴转角β*;
所述S*={Xg,Yg,a,γ*,β*,α}。
具体地,所述计算目标物体图像的面积的方法为:
Figure BDA0002884496060000031
对于二值图像而言
Figure BDA0002884496060000032
具体地,所述计算目标物体图像的重心的方法为:
Figure BDA0002884496060000033
其中n为图像像素值个数。
具体地,所述计算目标物体方向角的方法为:
Figure BDA0002884496060000034
其中,中心距
Figure BDA0002884496060000035
具体地,所述计算到达预期位姿时绕X轴转角γ和绕Y轴转角β的方法为:
对于机器人期望位姿下目标图像,γ*=β*=0。
具体地,所述步骤S4中,通过高斯过程回归构造两个虚拟矩特征,并与图像矩特征组合为控制系统的实时图像特征s,具体为:
计算目标物体图像的面积a=m00,目标物体图像的重心(Xg,Yg),目标物体方向角α,以及到达预期位姿时绕X轴转角γ和绕Y轴转角β;
所述计算目标物体图像的面积的方法为:
Figure BDA0002884496060000036
对于二值图像而言
Figure BDA0002884496060000037
所述计算目标物体图像的重心的方法为:
Figure BDA0002884496060000041
其中n为图像像素值个数;
所述计算目标物体方向角的方法为:
Figure BDA0002884496060000042
其中
Figure BDA0002884496060000043
所述到达预期位姿时绕X轴转角γ和绕Y轴转角β,通过设定两个虚拟矩特征,并结合高斯过程回归进行建模,利用模型估计值作为到达预期位姿时绕X轴转角γ和绕Y轴转角β;
所述s={Xg,Yg,a,γ,β,α}。
具体地,通过设定两个虚拟矩特征,并结合高斯过程回归进行建模,利用模型估计值作为到达预期位姿时绕X轴转角γ和绕Y轴转角β;具体为:
记录每个采样点的模型输入量x=[I1,I2,I3,I4,I5,I6,I7,b/a]和对应的输出量y=[γ,β];
将样本数据分为两组Dx和Dy,分别用来训练γ、β的回归模型;然后将模型应用于实时获取的图像信息中,模型γ=fGPRX(I1,I2,I3,I4,I5,I6,I7,b/a),β=fGPRY(I1,I2,I3,I4,I5,I6,I7,b/a)输出的是相机分别绕X轴及Y轴的转角γ和β。
具体地,所述输入量x=[I1,I2,I3,I4,I5,I6,I7,b/a],具体为:
Figure BDA0002884496060000051
Figure BDA0002884496060000052
λ12分别是惯性矩阵
Figure BDA0002884496060000053
的两个特征值,
Figure BDA0002884496060000054
Figure BDA0002884496060000055
b/a为平移、旋转和尺度不变特征纵横比,I1~I7是Hu矩。
具体地,S6利用步骤S4中得到的实时图像特征s,计算图像雅可比矩阵的广义逆矩阵
Figure BDA0002884496060000056
并通过
Figure BDA0002884496060000057
得到末端执行器的移动方向和速率,结合伺服控制器调整机器人末端的位姿,具体为:
Figure BDA0002884496060000058
La=[-aA -aB a(3/Zg-C) 3ayg -3axg 0]
Figure BDA0002884496060000059
Figure BDA00028844960600000510
Figure BDA00028844960600000511
Lγ=[0 0 0 1 0 0]
Lβ=[0 0 0 0 1 0]
其中:
Figure BDA0002884496060000061
其中A=α/(αXg+βYg+γZg),B=β/(αXg+βYg+γZg),C=γ/(αXg+βYg+γZg),
(Xg,Yg,Zg)为重心点在相机坐标系下的三维坐标;其中λ为控制器增益,
Figure BDA0002884496060000062
为Ls的广义逆矩阵。
由上述对本发明的描述可知,与现有技术相比,本发明具有如下有益效果:
(1)本发明提出了基于高斯过程回归的图像矩特征设计,得到结合学习特征的改进图像矩视觉伺服控制方法;且该方法对非平面物体的视觉伺服具有良好的控制效果。
(2)本发明提出了适用于非平面物体的基于学习特征和图像矩特征的视觉伺服方法,克服了传统基于点特征的视觉伺服方法的局限性,且具有较高的定位精度,最终位移定位精度可精确到毫米级,方向角定位精度可精确到0.1度级别,且对超出视场范围的目标图像仍具有一定收敛效果。
(3)本发明提出的方法实现了绕X轴和Y轴旋转控制的完全解耦,解决了视觉伺服中因雅可比矩阵奇异导致视觉伺服任务失败的问题。
附图说明
图1为本发明实施例提供的基于图像矩的搬运机器人视觉伺服控制方法流程图;
图2为本发明实施例提供的基于图像矩的视觉伺服控制框图;
图3为本发明实施例提供的六自由度图像矩视觉伺服仿真结果图;图(a)期望位姿处的目标图像;图(b)初始位姿处的目标图像图;(c)特征误差曲线图;(d)摄像机速度曲线图;(e)相机运动轨迹。
具体实施方式
本发明实施例提供了一种基于图像矩的搬运机器人视觉伺服控制方法,基于高斯过程回归的图像矩特征设计,得到结合学习特征的改进图像矩视觉伺服控制方法;且该方法对非平面物体的视觉伺服也具有良好的控制效果;克服了传统基于点特征的视觉伺服方法的局限性,且具有较高的定位精度,最终位移定位精度可精确到毫米级,方向角定位精度可精确到0.1度级别,且对超出视场范围的目标图像仍具有一定收敛效果。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。
本发明基于以下原理:对于相机安装在末端执行器上的工业机器人,可以通过相机捕捉到的图像信息控制机器人各关节运动,从而实现机器人接近目标的动作。由于目标物与机器人的相对位姿关系是隐含在图像特征中的,因此机器人的移动会引起目标物在相机中的图像改变。图像雅可比矩阵描述了机器人末端的移动与目标在图像中的成像变化之间的关系,即
Figure BDA0002884496060000082
其中
Figure BDA0002884496060000083
为特征变化率,Ls为图像雅可比矩阵,vc=(vx,vy,vzxyz)T为末端相机的运动速度。
其中图像雅可比矩阵Ls可表示为:
Figure BDA0002884496060000081
式中f1,f2,…,fm表示图像特征向量,r1,r2,…,r6表示机器人末端执行器在任务空间中的位姿向量。显然机器人在空间中的移动和目标在图像中的变化是一个复杂的非线性映射关系,传统视觉伺服控制系统将这种基于图像的非线性控制进行分段线性化处理,单位时间内机器人的移动与视觉信息变化视为线性关系,每运行一次伺服控制器都要重新计算一次图像雅可比矩阵,确保机器人在运行过程中实时根据图像信息自主调整位姿。在所述的控制系统中,图像雅可比矩阵的计算通过相机针孔模型的投影方程,将相机速度与归一化图像坐标形式的特征速度联系在一起,从而推导出图像空间与机器人操作空间的映射关系矩阵。已知Z为空间点的深度信息,则归一化图像平面坐标上任意一点(x,y)的图像雅可比矩阵
Figure BDA0002884496060000091
如图1为本发明实施例提供的基于图像矩的搬运机器人视觉伺服控制方法流程图;具体包括:
S101:建立一个眼在手机器人工作区域的笛卡尔空间直角坐标系,以工作台水平面为xy平面,垂直于水平面的方向为z轴方向,物体放置在工作台上,并设定机器人末端初始位置;
S102:通过实时图像处理得到物体的位置,并将目标与背景进行二值化处理,采集图像数据及对应机器人绕X、Y轴的转角,计算出机器人该位姿下的图像矩特征,通过高斯过程回归分别得到两个模型fGPRX,fGPRY
S103:根据机器人期望位姿下目标图像的特征信息得到期望图像特征s*;
具体地,所述步骤S103中根据机器人期望位姿下目标图像的特征信息得到期望图像特征s*,具体为:
计算目标物体图像的面积a=m00,目标物体图像的重心(Xg,Yg),目标物体方向角α,以及到达预期位姿时绕X轴转角γ*和绕Y轴转角β*;
所述S*={Xg,Yg,a,γ*,β*,α}。
具体地,所述计算目标物体图像的面积的方法为:
Figure BDA0002884496060000101
对于二值图像而言
Figure BDA0002884496060000102
具体地,所述计算目标物体图像的重心的方法为:
Figure BDA0002884496060000103
其中n为目标图像像素点个数。
具体地,所述计算目标物体方向角的方法为:
Figure BDA0002884496060000104
其中,中心距
Figure BDA0002884496060000105
具体地,所述计算到达预期位姿时绕X轴转角γ和绕Y轴转角β的方法为:
对于机器人期望位姿下目标图像,γ*=β*=0。
S104:通过高斯过程回归构造两个虚拟矩特征,并与图像矩特征组合为控制系统的实时图像特征s;
具体地,所述步骤S4中,通过高斯过程回归构造两个虚拟矩特征,并与图像矩特征组合为控制系统的实时图像特征s,具体为:
计算目标物体图像的面积a=m00,目标物体图像的重心(Xg,Yg),目标物体方向角α,以及到达预期位姿时绕X轴转角γ和绕Y轴转角β;
所述计算目标物体图像的面积的方法为:
Figure BDA0002884496060000106
对于二值图像而言
Figure BDA0002884496060000107
所述计算目标物体图像的重心的方法为:
Figure BDA0002884496060000111
其中n为图像像素值个数;
所述计算目标物体方向角的方法为:
Figure BDA0002884496060000112
其中
Figure BDA0002884496060000113
所述到达预期位姿时绕X轴转角γ和绕Y轴转角β,通过设定两个虚拟矩特征,并结合高斯过程回归进行建模,利用模型估计值作为到达预期位姿时绕X轴转角γ和绕Y轴转角β;
所述s={Xg,Yg,a,γ,β,α}。
具体地,通过设定两个虚拟矩特征,并结合高斯过程回归进行建模,利用模型估计值作为到达预期位姿时绕X轴转角γ和绕Y轴转角β;具体为:
记录每个采样点的模型输入量x=[I1,I2,I3,I4,I5,I6,I7,b/a]和对应的输出量y=[γ,β];
将样本数据分为两组Dx和Dy,分别用来训练γ、β的回归模型;然后将模型应用于实时获取的图像信息中,模型γ=fGPRX(I1,I2,I3,I4,I5,I6,I7,b/a),β=fGPRY(I1,I2,I3,I4,I5,I6,I7,b/a)输出的是相机分别绕X轴及Y轴的转角γ和β。
具体地,所述输入量x=[I1,I2,I3,I4,I5,I6,I7,b/a],具体为:
Figure BDA0002884496060000121
Figure BDA0002884496060000122
λ12分别是惯性矩阵
Figure BDA0002884496060000123
的两个特征值,
Figure BDA0002884496060000124
Figure BDA0002884496060000125
b/a为平移、旋转和尺度不变特征纵横比,I1~I7是Hu矩。
S105:将步骤S4中的实时图像特征s与步骤S3中的s*作比较,计算出图像特征偏差e=(s-s*),如果e小于预设的阈值δ,则机器人末端执行器达到期望位置,即完成指定任务,控制流程结束,否则执行步骤S106;
视觉伺服的目标是将误差函数e(t)=s(t)-s*调节到最小,其中s,s*分别为当前图像特征和期望图像特征,通过图像误差的实时反馈,并结合适当的控制规律,驱动机械手运动到目标位置。对于视觉伺服控制的六自由度机械臂,其在三维空间具有六个自由度,分别为沿摄像机坐标系轴的三维平动(vx,vy,vz),及绕摄像机坐标轴的三维旋转(ωxyz),为避免视觉伺服系统欠约束与冗余,可设计六个图像特征:s=(s1,s2,s3,s4,s5,s6)T
以上,研究了四种图像特征,分别是目标物体的面积特征m00、图像重心坐标(xg,yg),以及图像的方向角特征α,它们与相机
Figure BDA0002884496060000126
四个方向的自由度线性相关,可选为视觉伺服控制器的相应特征。通过标准化处理,可使得三个平移自由度的控制完全解耦。
为了实现ωx和ωy方向的完全解耦,本方法引入两个虚拟矩特征mx和my,并结合高斯过程回归对其进行建模,利用模型估计值作为针对X轴旋转及Y轴旋转控制的图像特征。
对于给定的数据集合D={(xi,yi)|i=1,2,…,N}和映射f:Rn→R,xi是第i个样本的n维向量,xi∈Rn;yi是第i个样本的观测目标值,yi∈R;N是D中样本数目。若f(x1),f(x2),…,f(xN)构成随机变量的一个集合,则该集合的性质由均值函数m(x)和协方差函数k(xi,xj)决定,且满足高斯分布,则它们形成的随机过程为高斯过程,定义为:
Figure BDA0002884496060000131
式中:E[X]为X的期望值。
包含噪声时,高斯过程可表示为:
Figure BDA0002884496060000132
其中
Figure BDA0002884496060000133
为噪声方差,δi,j为克罗内克函数,其表达式如下:
Figure BDA0002884496060000134
S106:利用步骤S104中得到的实时图像特征s,计算图像雅可比矩阵的广义逆矩阵
Figure BDA0002884496060000135
并通过
Figure BDA0002884496060000136
得到末端执行器的移动方向和速率,结合伺服控制器调整机器人末端的位姿;
具体地,S6利用步骤S4中得到的实时图像特征s,计算图像雅可比矩阵的广义逆矩阵
Figure BDA0002884496060000141
并通过
Figure BDA0002884496060000142
得到末端执行器的移动方向和速率,结合伺服控制器调整机器人末端的位姿,具体为:
Figure BDA0002884496060000143
La=[-aA -aB a(3/Zg-C) 3ayg -3axg 0]
Figure BDA0002884496060000144
Figure BDA0002884496060000145
Figure BDA0002884496060000146
Lγ=[0 0 0 1 0 0]
Lβ=[0 0 0 0 1 0]
其中:
Figure BDA0002884496060000147
其中A=α/(αXg+βYg+γZg),B=β/(αXg+βYg+γZg),C=γ/(αXg+βYg+γZg),
(Xg,Yg,Zg)为重心点在相机坐标系下的三维坐标;其中λ为控制器增益,
Figure BDA0002884496060000148
为Ls的广义逆矩阵。
根据发明实施例所述的控制方法,对相机拍摄得到的图像进行二值化处理,其中目标像素为1,其他像素为0,由于图像是离散点组合。结合p+q阶几何矩与中心距相关定义可得目标图像几何矩与中心距分别为:
几何矩:
Figure BDA0002884496060000149
中心矩:
Figure BDA00028844960600001410
式中xg=m10/n,yg=m01/n,n为目标范围像素点数,且面积为a=m00。目标图像在相机下的成像可以看成是物体和另一个包含重心点的平面相交后形成的投影,设重心点在相机坐标系下的三维坐标为(Xg,Yg,Zg),则该平面的表达式为α(X-Xg)+β(Y-Yg)+γ(Z-Zg)=0,存在1/Zg=Axg+Byg+C,其中A=α/(αXg+βYg+γZg),B=β/(αXg+βYg+γZg),C=γ/(αXg+βYg+γZg),推导出面积和重心的雅可比矩阵:
La=[-aA -aB a(3/Zg-C) 3ayg -3axg 0]
Figure BDA0002884496060000151
Figure BDA0002884496060000152
其中n20,n02和n11是标准化的2阶中心矩,定义为:
Figure BDA0002884496060000153
同理,对中心矩公式进行类似运动学建模,可得到图像中心矩雅可比矩阵的计算公式为:
Figure BDA0002884496060000154
考虑由二阶中心矩构成的目标图像方向角特征α:
Figure BDA0002884496060000155
结合
Figure BDA0002884496060000156
可得方向角特征的雅可比矩阵为
Figure BDA0002884496060000157
S107:获取调整姿态后的机器人末端相机捕捉的图像,返回步骤S104。
如图2为本发明实施例提供的基于图像矩的视觉伺服控制框图;如图3为本发明实施例提供的六自由度图像矩视觉伺服仿真结果图,图(a)期望位姿处的目标图像;图(b)初始位姿处的目标图像图;(c)特征误差曲线图;(d)摄像机速度曲线图;(e)相机运动轨迹。从图中可以看出本发明提供的方法具有较高的定位精度,最终位移定位精度可精确到毫米级,方向角定位精度可精确到0.1度级别,且对超出视场范围的目标图像仍具有一定收敛效果,说明发明提出的方法对非平面物体的视觉伺服也具有良好的控制效果。
以上所述,以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (10)

1.一种基于图像矩的搬运机器人视觉伺服控制方法,其特征在于,包括如下步骤:
S1:建立一个眼在手机器人工作区域的笛卡尔空间直角坐标系,以工作台水平面为xy平面,垂直于水平面的方向为z轴方向,物体放置在工作台上,并设定机器人末端初始位置;
S2:通过实时图像处理得到物体的位置,并将目标与背景进行二值化处理,采集图像数据及对应机器人绕X、Y轴的转角,计算出机器人该位姿下的图像矩特征,通过高斯过程回归分别得到两个模型fGPRX,fGPRY
S3:根据机器人期望位姿下目标图像的特征信息得到期望图像特征s*;
S4:通过高斯过程回归构造两个虚拟矩特征,并与图像矩特征组合为控制系统的实时图像特征s;
S5:将步骤S4中的实时图像特征s与步骤S3中的s*作比较,计算出图像特征偏差e=(s-s*),如果e小于预设的阈值δ,则机器人末端执行器达到期望位置,即完成指定任务,控制流程结束,否则执行步骤S6;
S6:利用步骤S4中得到的实时图像特征s,计算图像雅可比矩阵的广义逆矩阵
Figure FDA0002884496050000011
并通过
Figure FDA0002884496050000012
得到末端执行器的移动方向和速率,结合伺服控制器调整机器人末端的位姿;
S7:获取调整姿态后的机器人末端相机捕捉的图像,返回步骤S4。
2.根据权利要求1所述的一种基于图像矩的搬运机器人视觉伺服控制方法,其特征在于,所述步骤S3中根据机器人期望位姿下目标图像的特征信息得到期望图像特征s*,具体为:
计算目标物体图像的面积a=m00,目标物体图像的重心(Xg,Yg),目标物体方向角α,以及到达预期位姿时绕X轴转角γ*和绕Y轴转角β*;
所述S*={Xg,Yg,a,γ*,β*,α}。
3.根据权利要求2所述的一种基于图像矩的搬运机器人视觉伺服控制方法,其特征在于,所述计算目标物体图像的面积的方法为:
Figure FDA0002884496050000021
对于二值图像而言
Figure FDA0002884496050000022
4.根据权利要求3所述的一种基于图像矩的搬运机器人视觉伺服控制方法,其特征在于,所述计算目标物体图像的重心的方法为:
Figure FDA0002884496050000023
其中n为目标图像像素点个数。
5.根据权利要求3所述的一种基于图像矩的搬运机器人视觉伺服控制方法,其特征在于,所述计算目标物体方向角的方法为:
Figure FDA0002884496050000024
其中,中心距
Figure FDA0002884496050000025
6.根据权利要求3所述的一种基于图像矩的搬运机器人视觉伺服控制方法,其特征在于,所述计算到达预期位姿时绕X轴转角γ和绕Y轴转角β的方法为:
对于机器人期望位姿下目标图像,γ*=β*=0。
7.根据权利要求1所述的一种基于图像矩的搬运机器人视觉伺服控制方法,其特征在于,所述步骤S4中,通过高斯过程回归构造两个虚拟矩特征,并与图像矩特征组合为控制系统的实时图像特征s,具体为:
计算目标物体图像的面积a=m00,目标物体图像的重心(Xg,Yg),目标物体方向角α,以及到达预期位姿时绕X轴转角γ和绕Y轴转角β;
所述计算目标物体图像的面积的方法为:
Figure FDA0002884496050000031
对于二值图像而言
Figure FDA0002884496050000032
所述计算目标物体图像的重心的方法为:
Figure FDA0002884496050000033
其中n为图像像素值个数;
所述计算目标物体方向角的方法为:
Figure FDA0002884496050000034
其中
Figure FDA0002884496050000035
所述到达预期位姿时绕X轴转角γ和绕Y轴转角β,通过设定两个虚拟矩特征,并结合高斯过程回归进行建模,利用模型估计值作为到达预期位姿时绕X轴转角γ和绕Y轴转角β;
所述s={Xg,Yg,a,γ,β,α}。
8.根据权利要求7所述的一种基于图像矩的搬运机器人视觉伺服控制方法,其特征在于,通过设定两个虚拟矩特征,并结合高斯过程回归进行建模,利用模型估计值作为到达预期位姿时绕X轴转角γ和绕Y轴转角β;具体为:
记录每个采样点的模型输入量x=[I1,I2,I3,I4,I5,I6,I7,b/a]和对应的输出量y=[γ,β];
将样本数据分为两组Dx和Dy,分别用来训练γ、β的回归模型;然后将模型应用于实时获取的图像信息中,模型γ=fGPRX(I1,I2,I3,I4,I5,I6,I7,b/a),β=fGPRY(I1,I2,I3,I4,I5,I6,I7,b/a)输出的是相机分别绕X轴及Y轴的转角γ和β。
9.根据权利要求8所述的一种基于图像矩的搬运机器人视觉伺服控制方法,其特征在于,
所述输入量x=[I1,I2,I3,I4,I5,I6,I7,b/a],具体为:
Figure FDA0002884496050000041
Figure FDA0002884496050000042
λ12分别是惯性矩阵
Figure FDA0002884496050000043
的两个特征值,
Figure FDA0002884496050000044
Figure FDA0002884496050000045
b/a为平移、旋转和尺度不变特征纵横比,I1~I7是Hu矩。
10.根据权利要求9所述的一种基于图像矩的搬运机器人视觉伺服控制方法,其特征在于,S6利用步骤S4中得到的实时图像特征s,计算图像雅可比矩阵的广义逆矩阵
Figure FDA0002884496050000046
并通过
Figure FDA0002884496050000047
得到末端执行器的移动方向和速率,结合伺服控制器调整机器人末端的位姿,具体为:
Figure FDA0002884496050000048
La=[-aA -aB a(3/Zg-C) 3ayg -3axg 0]
Figure FDA0002884496050000051
Figure FDA0002884496050000052
Figure FDA0002884496050000053
Lγ=[0 0 0 1 0 0]
Lβ=[0 0 0 0 1 0]
其中:
Figure FDA0002884496050000054
其中A=α/(αXg+βYg+γZg),B=β/(αXg+βYg+γZg),C=γ/(αXg+βYg+γZg),
(Xg,Yg,Zg)为重心点在相机坐标系下的三维坐标;其中λ为控制器增益,
Figure FDA0002884496050000055
为Ls的广义逆矩阵。
CN202110008777.2A 2021-01-05 2021-01-05 一种基于图像矩的搬运机器人视觉伺服控制方法 Active CN112847362B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110008777.2A CN112847362B (zh) 2021-01-05 2021-01-05 一种基于图像矩的搬运机器人视觉伺服控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110008777.2A CN112847362B (zh) 2021-01-05 2021-01-05 一种基于图像矩的搬运机器人视觉伺服控制方法

Publications (2)

Publication Number Publication Date
CN112847362A true CN112847362A (zh) 2021-05-28
CN112847362B CN112847362B (zh) 2022-09-20

Family

ID=76003894

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110008777.2A Active CN112847362B (zh) 2021-01-05 2021-01-05 一种基于图像矩的搬运机器人视觉伺服控制方法

Country Status (1)

Country Link
CN (1) CN112847362B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117506937A (zh) * 2024-01-04 2024-02-06 中铁十四局集团大盾构工程有限公司 一种基于多阶段视觉伺服控制的焊件自主摆放方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107901041A (zh) * 2017-12-15 2018-04-13 中南大学 一种基于图像混合矩的机器人视觉伺服控制方法
EP3432271A1 (en) * 2017-07-20 2019-01-23 Tata Consultancy Services Limited Systems and methods for detecting grasp poses for handling target objects
CN110000795A (zh) * 2019-05-15 2019-07-12 苏州市职业大学 一种视觉伺服控制的方法、系统及设备
CN110450153A (zh) * 2019-07-08 2019-11-15 清华大学 一种基于深度强化学习的机械臂物品主动拾取方法
DE102018113336A1 (de) * 2018-06-05 2019-12-05 GESTALT Robotics GmbH Verfahren zum Verwenden mit einer Maschine zum Einstellen einer Erweiterte-Realität-Anzeigeumgebung
CN110730970A (zh) * 2017-09-20 2020-01-24 谷歌有限责任公司 使用图像嵌入优化机器人代理的策略控制器
US20200223069A1 (en) * 2019-01-10 2020-07-16 General Electric Company Utilizing optical data to dynamically control operation of a snake-arm robot
CN111958604A (zh) * 2020-08-20 2020-11-20 扬州蓝邦数控制刷设备有限公司 一种高效的基于cad模型的异形毛刷单目视觉示教抓取方法
CN111993422A (zh) * 2020-08-11 2020-11-27 上海交通大学 基于无标定视觉的机器人轴孔对准控制方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3432271A1 (en) * 2017-07-20 2019-01-23 Tata Consultancy Services Limited Systems and methods for detecting grasp poses for handling target objects
CN110730970A (zh) * 2017-09-20 2020-01-24 谷歌有限责任公司 使用图像嵌入优化机器人代理的策略控制器
CN107901041A (zh) * 2017-12-15 2018-04-13 中南大学 一种基于图像混合矩的机器人视觉伺服控制方法
DE102018113336A1 (de) * 2018-06-05 2019-12-05 GESTALT Robotics GmbH Verfahren zum Verwenden mit einer Maschine zum Einstellen einer Erweiterte-Realität-Anzeigeumgebung
US20200223069A1 (en) * 2019-01-10 2020-07-16 General Electric Company Utilizing optical data to dynamically control operation of a snake-arm robot
CN110000795A (zh) * 2019-05-15 2019-07-12 苏州市职业大学 一种视觉伺服控制的方法、系统及设备
CN110450153A (zh) * 2019-07-08 2019-11-15 清华大学 一种基于深度强化学习的机械臂物品主动拾取方法
CN111993422A (zh) * 2020-08-11 2020-11-27 上海交通大学 基于无标定视觉的机器人轴孔对准控制方法
CN111958604A (zh) * 2020-08-20 2020-11-20 扬州蓝邦数控制刷设备有限公司 一种高效的基于cad模型的异形毛刷单目视觉示教抓取方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
J. ARMSTRONG PIEPMEIER: "Uncalibrated eye-in-hand visual servoing", 《PROCEEDINGS 2002 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION (CAT. NO.02CH37292)》 *
张展: "基于双目视觉的三维重建关键技术研究", 《中国博士学位论文全文数据库 (基础科学辑)》 *
李平: "基于绿色作物特征提取不变性的立体视觉导航方法实现", 《中国优秀博硕士学位论文全文数据库(硕士)农业科技辑》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117506937A (zh) * 2024-01-04 2024-02-06 中铁十四局集团大盾构工程有限公司 一种基于多阶段视觉伺服控制的焊件自主摆放方法
CN117506937B (zh) * 2024-01-04 2024-03-12 中铁十四局集团大盾构工程有限公司 一种基于多阶段视觉伺服控制的焊件自主摆放方法

Also Published As

Publication number Publication date
CN112847362B (zh) 2022-09-20

Similar Documents

Publication Publication Date Title
CN107901041B (zh) 一种基于图像混合矩的机器人视觉伺服控制方法
US20200298411A1 (en) Method for the orientation of an industrial robot, and industrial robot
CN109782601B (zh) 一种协调机械臂自适应神经网络同步鲁棒控制器设计方法
Vahrenkamp et al. Visual servoing for humanoid grasping and manipulation tasks
Siradjuddin et al. A position based visual tracking system for a 7 DOF robot manipulator using a Kinect camera
Palmieri et al. A comparison between position-based and image-based dynamic visual servoings in the control of a translating parallel manipulator
US20170270631A1 (en) Automated guidance system and method for a coordinated movement machine
Mustafa et al. A geometrical approach for online error compensation of industrial manipulators
CN110253574B (zh) 一种多任务机械臂位姿检测和误差补偿方法
CN112109072B (zh) 一种大型稀疏特征托盘精确6d位姿测量和抓取方法
Vicente et al. Towards markerless visual servoing of grasping tasks for humanoid robots
Li et al. A hybrid visual servo control method for simultaneously controlling a nonholonomic mobile and a manipulator
CN112123341A (zh) 机器人双臂协调运动控制方法、装置和电子设备
CN112847362B (zh) 一种基于图像矩的搬运机器人视觉伺服控制方法
De Farias et al. Dual quaternion-based visual servoing for grasping moving objects
JP5574805B2 (ja) 視覚センサを有するマニピュレータのセンサキャリブレーション方法及びロボット制御システム
CN113618367A (zh) 基于七自由度并联双模块机器人的多视觉空间装配系统
Long et al. Robotic cutting of soft materials using force control & image moments
CN109542094B (zh) 无期望图像的移动机器人视觉镇定控制
Bae et al. A dynamic visual servoing of robot manipulator with eye-in-hand camera
Luo et al. Robotic conveyor tracking with dynamic object fetching for industrial automation
Sebastián et al. A new method for the estimation of the image Jacobian for the control of an uncalibrated joint system
Hanh et al. Implement contour following task of objects with unknown geometric models by using combination of two visual servoing techniques
Al-Junaid ANN based robotic arm visual servoing nonlinear system
Tao et al. A calibration framework for industrial robotic work cells

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information

Inventor after: Li Han

Inventor after: Xiong Zhihao

Inventor after: Shi Wenjie

Inventor after: Zuo Zhijiang

Inventor before: Li Han

Inventor before: Xiong Zhi

Inventor before: Shi Wenjie

Inventor before: Zuo Zhijiang

CB03 Change of inventor or designer information
GR01 Patent grant
GR01 Patent grant