CN112847362A - 一种基于图像矩的搬运机器人视觉伺服控制方法 - Google Patents
一种基于图像矩的搬运机器人视觉伺服控制方法 Download PDFInfo
- Publication number
- CN112847362A CN112847362A CN202110008777.2A CN202110008777A CN112847362A CN 112847362 A CN112847362 A CN 112847362A CN 202110008777 A CN202110008777 A CN 202110008777A CN 112847362 A CN112847362 A CN 112847362A
- Authority
- CN
- China
- Prior art keywords
- image
- robot
- axis
- angle
- calculating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1661—Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Abstract
本发明提供了一种基于图像矩的搬运机器人视觉伺服控制方法,包括如下步骤:建立机器人工作区域的笛卡尔空间直角坐标系,并设定机器人末端初始位置;通过实时图像处理得到物体的位置,并将目标与背景进行二值化处理,根据机器人期望位姿下目标图像的特征信息得到期望图像特征s*;得到实时图像特征s;将实时图像特征s与s*作比较,计算出图像特征偏差e=(s‑s*),如果e小于预设的阈值δ,则机器人末端执行器达到期望位置,控制流程结束,否则利用实时图像特征s,计算图像雅可比矩阵的广义逆矩阵并通过得到末端执行器的移动方向和速率,结合伺服控制器调整机器人末端的位姿;本发明方法能够实现良好的视觉伺服控制效果,适用于非平面物品的视觉伺服控制。
Description
技术领域
本发明涉及机器人技术领域,尤其涉及一种基于图像矩的搬运机器人视觉伺服控制方法。
背景技术
我国现代农业正处于快速发展阶段,农资运输问题,特别是粮食、化肥、饲料等粉粒状农资的袋装运输变得日益突出。目前,袋装农资主要通过火车运输,装卸及仓库运输主要靠人工搬运,不仅工作效率低、劳动强度大,而且有些农资有化学腐蚀性或毒性、以及粉尘的环境等都会危害装卸工人的身心健康。采用搬运机器人装卸袋装农资是农资装卸、搬运行业的主要发展趋势,其显著特点是抓取可靠、移动灵活、摆放整齐、生产成本低和整体装卸效率高。搬运机器人通过机器视觉识别获取袋装农资的位置和形状信息,并以此作为机器人的控制输入,通过视觉伺服控制方法引导机器人机械臂末端执行装置以期望姿态运动到目标位姿,实现袋装农资的抓取和装卸。图像矩是计算机视觉中模式识别常用的一种方法,其作为一种全局图像特征,在视觉伺服中表现了出良好的性能,但其在绕摄像机X轴及Y轴的旋转控制的特征选择以及非平面物体的视觉伺服中仍是一个难题。
发明内容
本发明提供了一种基于图像矩的搬运机器人视觉伺服控制方法,提出了基于高斯过程回归的图像矩特征设计,得到结合学习特征的改进图像矩视觉伺服控制方法,实现良好的视觉伺服控制效果,适用于非平面物品的视觉伺服控制。
本发明实施例提供了一种基于图像矩的搬运机器人视觉伺服控制方法,包括如下步骤:
S1:建立一个眼在手机器人工作区域的笛卡尔空间直角坐标系,以工作台水平面为xy平面,垂直于水平面的方向为z轴方向,物体放置在工作台上,并设定机器人末端初始位置;
S2:通过实时图像处理得到物体的位置,并将目标与背景进行二值化处理,采集图像数据及对应机器人绕X、Y轴的转角,计算出机器人该位姿下的图像矩特征,通过高斯过程回归分别得到两个模型fGPRX,fGPRY;
S3:根据机器人期望位姿下目标图像的特征信息得到期望图像特征s*;
S4:通过高斯过程回归构造两个虚拟矩特征,并与图像矩特征组合为控制系统的实时图像特征s;
S5:将步骤S4中的实时图像特征s与步骤S3中的s*作比较,计算出图像特征偏差e=(s-s*),如果e小于预设的阈值δ,则机器人末端执行器达到期望位置,即完成指定任务,控制流程结束,否则执行步骤S6;
S7:获取调整姿态后的机器人末端相机捕捉的图像,返回步骤S4。
具体地,所述步骤S3中根据机器人期望位姿下目标图像的特征信息得到期望图像特征s*,具体为:
计算目标物体图像的面积a=m00,目标物体图像的重心(Xg,Yg),目标物体方向角α,以及到达预期位姿时绕X轴转角γ*和绕Y轴转角β*;
所述S*={Xg,Yg,a,γ*,β*,α}。
具体地,所述计算目标物体图像的面积的方法为:
具体地,所述计算目标物体图像的重心的方法为:
其中n为图像像素值个数。
具体地,所述计算目标物体方向角的方法为:
具体地,所述计算到达预期位姿时绕X轴转角γ和绕Y轴转角β的方法为:
对于机器人期望位姿下目标图像,γ*=β*=0。
具体地,所述步骤S4中,通过高斯过程回归构造两个虚拟矩特征,并与图像矩特征组合为控制系统的实时图像特征s,具体为:
计算目标物体图像的面积a=m00,目标物体图像的重心(Xg,Yg),目标物体方向角α,以及到达预期位姿时绕X轴转角γ和绕Y轴转角β;
所述计算目标物体图像的面积的方法为:
所述计算目标物体图像的重心的方法为:
其中n为图像像素值个数;
所述计算目标物体方向角的方法为:
所述到达预期位姿时绕X轴转角γ和绕Y轴转角β,通过设定两个虚拟矩特征,并结合高斯过程回归进行建模,利用模型估计值作为到达预期位姿时绕X轴转角γ和绕Y轴转角β;
所述s={Xg,Yg,a,γ,β,α}。
具体地,通过设定两个虚拟矩特征,并结合高斯过程回归进行建模,利用模型估计值作为到达预期位姿时绕X轴转角γ和绕Y轴转角β;具体为:
记录每个采样点的模型输入量x=[I1,I2,I3,I4,I5,I6,I7,b/a]和对应的输出量y=[γ,β];
将样本数据分为两组Dx和Dy,分别用来训练γ、β的回归模型;然后将模型应用于实时获取的图像信息中,模型γ=fGPRX(I1,I2,I3,I4,I5,I6,I7,b/a),β=fGPRY(I1,I2,I3,I4,I5,I6,I7,b/a)输出的是相机分别绕X轴及Y轴的转角γ和β。
具体地,所述输入量x=[I1,I2,I3,I4,I5,I6,I7,b/a],具体为:
La=[-aA -aB a(3/Zg-C) 3ayg -3axg 0]
Lγ=[0 0 0 1 0 0]
Lβ=[0 0 0 0 1 0]
其中:
其中A=α/(αXg+βYg+γZg),B=β/(αXg+βYg+γZg),C=γ/(αXg+βYg+γZg),
由上述对本发明的描述可知,与现有技术相比,本发明具有如下有益效果:
(1)本发明提出了基于高斯过程回归的图像矩特征设计,得到结合学习特征的改进图像矩视觉伺服控制方法;且该方法对非平面物体的视觉伺服具有良好的控制效果。
(2)本发明提出了适用于非平面物体的基于学习特征和图像矩特征的视觉伺服方法,克服了传统基于点特征的视觉伺服方法的局限性,且具有较高的定位精度,最终位移定位精度可精确到毫米级,方向角定位精度可精确到0.1度级别,且对超出视场范围的目标图像仍具有一定收敛效果。
(3)本发明提出的方法实现了绕X轴和Y轴旋转控制的完全解耦,解决了视觉伺服中因雅可比矩阵奇异导致视觉伺服任务失败的问题。
附图说明
图1为本发明实施例提供的基于图像矩的搬运机器人视觉伺服控制方法流程图;
图2为本发明实施例提供的基于图像矩的视觉伺服控制框图;
图3为本发明实施例提供的六自由度图像矩视觉伺服仿真结果图;图(a)期望位姿处的目标图像;图(b)初始位姿处的目标图像图;(c)特征误差曲线图;(d)摄像机速度曲线图;(e)相机运动轨迹。
具体实施方式
本发明实施例提供了一种基于图像矩的搬运机器人视觉伺服控制方法,基于高斯过程回归的图像矩特征设计,得到结合学习特征的改进图像矩视觉伺服控制方法;且该方法对非平面物体的视觉伺服也具有良好的控制效果;克服了传统基于点特征的视觉伺服方法的局限性,且具有较高的定位精度,最终位移定位精度可精确到毫米级,方向角定位精度可精确到0.1度级别,且对超出视场范围的目标图像仍具有一定收敛效果。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。
本发明基于以下原理:对于相机安装在末端执行器上的工业机器人,可以通过相机捕捉到的图像信息控制机器人各关节运动,从而实现机器人接近目标的动作。由于目标物与机器人的相对位姿关系是隐含在图像特征中的,因此机器人的移动会引起目标物在相机中的图像改变。图像雅可比矩阵描述了机器人末端的移动与目标在图像中的成像变化之间的关系,即其中为特征变化率,Ls为图像雅可比矩阵,vc=(vx,vy,vz,ωx,ωy,ωz)T为末端相机的运动速度。
其中图像雅可比矩阵Ls可表示为:
式中f1,f2,…,fm表示图像特征向量,r1,r2,…,r6表示机器人末端执行器在任务空间中的位姿向量。显然机器人在空间中的移动和目标在图像中的变化是一个复杂的非线性映射关系,传统视觉伺服控制系统将这种基于图像的非线性控制进行分段线性化处理,单位时间内机器人的移动与视觉信息变化视为线性关系,每运行一次伺服控制器都要重新计算一次图像雅可比矩阵,确保机器人在运行过程中实时根据图像信息自主调整位姿。在所述的控制系统中,图像雅可比矩阵的计算通过相机针孔模型的投影方程,将相机速度与归一化图像坐标形式的特征速度联系在一起,从而推导出图像空间与机器人操作空间的映射关系矩阵。已知Z为空间点的深度信息,则归一化图像平面坐标上任意一点(x,y)的图像雅可比矩阵
如图1为本发明实施例提供的基于图像矩的搬运机器人视觉伺服控制方法流程图;具体包括:
S101:建立一个眼在手机器人工作区域的笛卡尔空间直角坐标系,以工作台水平面为xy平面,垂直于水平面的方向为z轴方向,物体放置在工作台上,并设定机器人末端初始位置;
S102:通过实时图像处理得到物体的位置,并将目标与背景进行二值化处理,采集图像数据及对应机器人绕X、Y轴的转角,计算出机器人该位姿下的图像矩特征,通过高斯过程回归分别得到两个模型fGPRX,fGPRY;
S103:根据机器人期望位姿下目标图像的特征信息得到期望图像特征s*;
具体地,所述步骤S103中根据机器人期望位姿下目标图像的特征信息得到期望图像特征s*,具体为:
计算目标物体图像的面积a=m00,目标物体图像的重心(Xg,Yg),目标物体方向角α,以及到达预期位姿时绕X轴转角γ*和绕Y轴转角β*;
所述S*={Xg,Yg,a,γ*,β*,α}。
具体地,所述计算目标物体图像的面积的方法为:
具体地,所述计算目标物体图像的重心的方法为:
其中n为目标图像像素点个数。
具体地,所述计算目标物体方向角的方法为:
具体地,所述计算到达预期位姿时绕X轴转角γ和绕Y轴转角β的方法为:
对于机器人期望位姿下目标图像,γ*=β*=0。
S104:通过高斯过程回归构造两个虚拟矩特征,并与图像矩特征组合为控制系统的实时图像特征s;
具体地,所述步骤S4中,通过高斯过程回归构造两个虚拟矩特征,并与图像矩特征组合为控制系统的实时图像特征s,具体为:
计算目标物体图像的面积a=m00,目标物体图像的重心(Xg,Yg),目标物体方向角α,以及到达预期位姿时绕X轴转角γ和绕Y轴转角β;
所述计算目标物体图像的面积的方法为:
所述计算目标物体图像的重心的方法为:
其中n为图像像素值个数;
所述计算目标物体方向角的方法为:
所述到达预期位姿时绕X轴转角γ和绕Y轴转角β,通过设定两个虚拟矩特征,并结合高斯过程回归进行建模,利用模型估计值作为到达预期位姿时绕X轴转角γ和绕Y轴转角β;
所述s={Xg,Yg,a,γ,β,α}。
具体地,通过设定两个虚拟矩特征,并结合高斯过程回归进行建模,利用模型估计值作为到达预期位姿时绕X轴转角γ和绕Y轴转角β;具体为:
记录每个采样点的模型输入量x=[I1,I2,I3,I4,I5,I6,I7,b/a]和对应的输出量y=[γ,β];
将样本数据分为两组Dx和Dy,分别用来训练γ、β的回归模型;然后将模型应用于实时获取的图像信息中,模型γ=fGPRX(I1,I2,I3,I4,I5,I6,I7,b/a),β=fGPRY(I1,I2,I3,I4,I5,I6,I7,b/a)输出的是相机分别绕X轴及Y轴的转角γ和β。
具体地,所述输入量x=[I1,I2,I3,I4,I5,I6,I7,b/a],具体为:
S105:将步骤S4中的实时图像特征s与步骤S3中的s*作比较,计算出图像特征偏差e=(s-s*),如果e小于预设的阈值δ,则机器人末端执行器达到期望位置,即完成指定任务,控制流程结束,否则执行步骤S106;
视觉伺服的目标是将误差函数e(t)=s(t)-s*调节到最小,其中s,s*分别为当前图像特征和期望图像特征,通过图像误差的实时反馈,并结合适当的控制规律,驱动机械手运动到目标位置。对于视觉伺服控制的六自由度机械臂,其在三维空间具有六个自由度,分别为沿摄像机坐标系轴的三维平动(vx,vy,vz),及绕摄像机坐标轴的三维旋转(ωx,ωy,ωz),为避免视觉伺服系统欠约束与冗余,可设计六个图像特征:s=(s1,s2,s3,s4,s5,s6)T。
以上,研究了四种图像特征,分别是目标物体的面积特征m00、图像重心坐标(xg,yg),以及图像的方向角特征α,它们与相机四个方向的自由度线性相关,可选为视觉伺服控制器的相应特征。通过标准化处理,可使得三个平移自由度的控制完全解耦。
为了实现ωx和ωy方向的完全解耦,本方法引入两个虚拟矩特征mx和my,并结合高斯过程回归对其进行建模,利用模型估计值作为针对X轴旋转及Y轴旋转控制的图像特征。
对于给定的数据集合D={(xi,yi)|i=1,2,…,N}和映射f:Rn→R,xi是第i个样本的n维向量,xi∈Rn;yi是第i个样本的观测目标值,yi∈R;N是D中样本数目。若f(x1),f(x2),…,f(xN)构成随机变量的一个集合,则该集合的性质由均值函数m(x)和协方差函数k(xi,xj)决定,且满足高斯分布,则它们形成的随机过程为高斯过程,定义为:
式中:E[X]为X的期望值。
包含噪声时,高斯过程可表示为:
La=[-aA -aB a(3/Zg-C) 3ayg -3axg 0]
Lγ=[0 0 0 1 0 0]
Lβ=[0 0 0 0 1 0]
其中:
其中A=α/(αXg+βYg+γZg),B=β/(αXg+βYg+γZg),C=γ/(αXg+βYg+γZg),
根据发明实施例所述的控制方法,对相机拍摄得到的图像进行二值化处理,其中目标像素为1,其他像素为0,由于图像是离散点组合。结合p+q阶几何矩与中心距相关定义可得目标图像几何矩与中心距分别为:
式中xg=m10/n,yg=m01/n,n为目标范围像素点数,且面积为a=m00。目标图像在相机下的成像可以看成是物体和另一个包含重心点的平面相交后形成的投影,设重心点在相机坐标系下的三维坐标为(Xg,Yg,Zg),则该平面的表达式为α(X-Xg)+β(Y-Yg)+γ(Z-Zg)=0,存在1/Zg=Axg+Byg+C,其中A=α/(αXg+βYg+γZg),B=β/(αXg+βYg+γZg),C=γ/(αXg+βYg+γZg),推导出面积和重心的雅可比矩阵:
La=[-aA -aB a(3/Zg-C) 3ayg -3axg 0]
其中n20,n02和n11是标准化的2阶中心矩,定义为:
同理,对中心矩公式进行类似运动学建模,可得到图像中心矩雅可比矩阵的计算公式为:
考虑由二阶中心矩构成的目标图像方向角特征α:
S107:获取调整姿态后的机器人末端相机捕捉的图像,返回步骤S104。
如图2为本发明实施例提供的基于图像矩的视觉伺服控制框图;如图3为本发明实施例提供的六自由度图像矩视觉伺服仿真结果图,图(a)期望位姿处的目标图像;图(b)初始位姿处的目标图像图;(c)特征误差曲线图;(d)摄像机速度曲线图;(e)相机运动轨迹。从图中可以看出本发明提供的方法具有较高的定位精度,最终位移定位精度可精确到毫米级,方向角定位精度可精确到0.1度级别,且对超出视场范围的目标图像仍具有一定收敛效果,说明发明提出的方法对非平面物体的视觉伺服也具有良好的控制效果。
以上所述,以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种基于图像矩的搬运机器人视觉伺服控制方法,其特征在于,包括如下步骤:
S1:建立一个眼在手机器人工作区域的笛卡尔空间直角坐标系,以工作台水平面为xy平面,垂直于水平面的方向为z轴方向,物体放置在工作台上,并设定机器人末端初始位置;
S2:通过实时图像处理得到物体的位置,并将目标与背景进行二值化处理,采集图像数据及对应机器人绕X、Y轴的转角,计算出机器人该位姿下的图像矩特征,通过高斯过程回归分别得到两个模型fGPRX,fGPRY;
S3:根据机器人期望位姿下目标图像的特征信息得到期望图像特征s*;
S4:通过高斯过程回归构造两个虚拟矩特征,并与图像矩特征组合为控制系统的实时图像特征s;
S5:将步骤S4中的实时图像特征s与步骤S3中的s*作比较,计算出图像特征偏差e=(s-s*),如果e小于预设的阈值δ,则机器人末端执行器达到期望位置,即完成指定任务,控制流程结束,否则执行步骤S6;
S7:获取调整姿态后的机器人末端相机捕捉的图像,返回步骤S4。
2.根据权利要求1所述的一种基于图像矩的搬运机器人视觉伺服控制方法,其特征在于,所述步骤S3中根据机器人期望位姿下目标图像的特征信息得到期望图像特征s*,具体为:
计算目标物体图像的面积a=m00,目标物体图像的重心(Xg,Yg),目标物体方向角α,以及到达预期位姿时绕X轴转角γ*和绕Y轴转角β*;
所述S*={Xg,Yg,a,γ*,β*,α}。
6.根据权利要求3所述的一种基于图像矩的搬运机器人视觉伺服控制方法,其特征在于,所述计算到达预期位姿时绕X轴转角γ和绕Y轴转角β的方法为:
对于机器人期望位姿下目标图像,γ*=β*=0。
7.根据权利要求1所述的一种基于图像矩的搬运机器人视觉伺服控制方法,其特征在于,所述步骤S4中,通过高斯过程回归构造两个虚拟矩特征,并与图像矩特征组合为控制系统的实时图像特征s,具体为:
计算目标物体图像的面积a=m00,目标物体图像的重心(Xg,Yg),目标物体方向角α,以及到达预期位姿时绕X轴转角γ和绕Y轴转角β;
所述计算目标物体图像的面积的方法为:
所述计算目标物体图像的重心的方法为:
其中n为图像像素值个数;
所述计算目标物体方向角的方法为:
所述到达预期位姿时绕X轴转角γ和绕Y轴转角β,通过设定两个虚拟矩特征,并结合高斯过程回归进行建模,利用模型估计值作为到达预期位姿时绕X轴转角γ和绕Y轴转角β;
所述s={Xg,Yg,a,γ,β,α}。
8.根据权利要求7所述的一种基于图像矩的搬运机器人视觉伺服控制方法,其特征在于,通过设定两个虚拟矩特征,并结合高斯过程回归进行建模,利用模型估计值作为到达预期位姿时绕X轴转角γ和绕Y轴转角β;具体为:
记录每个采样点的模型输入量x=[I1,I2,I3,I4,I5,I6,I7,b/a]和对应的输出量y=[γ,β];
将样本数据分为两组Dx和Dy,分别用来训练γ、β的回归模型;然后将模型应用于实时获取的图像信息中,模型γ=fGPRX(I1,I2,I3,I4,I5,I6,I7,b/a),β=fGPRY(I1,I2,I3,I4,I5,I6,I7,b/a)输出的是相机分别绕X轴及Y轴的转角γ和β。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110008777.2A CN112847362B (zh) | 2021-01-05 | 2021-01-05 | 一种基于图像矩的搬运机器人视觉伺服控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110008777.2A CN112847362B (zh) | 2021-01-05 | 2021-01-05 | 一种基于图像矩的搬运机器人视觉伺服控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112847362A true CN112847362A (zh) | 2021-05-28 |
CN112847362B CN112847362B (zh) | 2022-09-20 |
Family
ID=76003894
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110008777.2A Active CN112847362B (zh) | 2021-01-05 | 2021-01-05 | 一种基于图像矩的搬运机器人视觉伺服控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112847362B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117506937A (zh) * | 2024-01-04 | 2024-02-06 | 中铁十四局集团大盾构工程有限公司 | 一种基于多阶段视觉伺服控制的焊件自主摆放方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107901041A (zh) * | 2017-12-15 | 2018-04-13 | 中南大学 | 一种基于图像混合矩的机器人视觉伺服控制方法 |
EP3432271A1 (en) * | 2017-07-20 | 2019-01-23 | Tata Consultancy Services Limited | Systems and methods for detecting grasp poses for handling target objects |
CN110000795A (zh) * | 2019-05-15 | 2019-07-12 | 苏州市职业大学 | 一种视觉伺服控制的方法、系统及设备 |
CN110450153A (zh) * | 2019-07-08 | 2019-11-15 | 清华大学 | 一种基于深度强化学习的机械臂物品主动拾取方法 |
DE102018113336A1 (de) * | 2018-06-05 | 2019-12-05 | GESTALT Robotics GmbH | Verfahren zum Verwenden mit einer Maschine zum Einstellen einer Erweiterte-Realität-Anzeigeumgebung |
CN110730970A (zh) * | 2017-09-20 | 2020-01-24 | 谷歌有限责任公司 | 使用图像嵌入优化机器人代理的策略控制器 |
US20200223069A1 (en) * | 2019-01-10 | 2020-07-16 | General Electric Company | Utilizing optical data to dynamically control operation of a snake-arm robot |
CN111958604A (zh) * | 2020-08-20 | 2020-11-20 | 扬州蓝邦数控制刷设备有限公司 | 一种高效的基于cad模型的异形毛刷单目视觉示教抓取方法 |
CN111993422A (zh) * | 2020-08-11 | 2020-11-27 | 上海交通大学 | 基于无标定视觉的机器人轴孔对准控制方法 |
-
2021
- 2021-01-05 CN CN202110008777.2A patent/CN112847362B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3432271A1 (en) * | 2017-07-20 | 2019-01-23 | Tata Consultancy Services Limited | Systems and methods for detecting grasp poses for handling target objects |
CN110730970A (zh) * | 2017-09-20 | 2020-01-24 | 谷歌有限责任公司 | 使用图像嵌入优化机器人代理的策略控制器 |
CN107901041A (zh) * | 2017-12-15 | 2018-04-13 | 中南大学 | 一种基于图像混合矩的机器人视觉伺服控制方法 |
DE102018113336A1 (de) * | 2018-06-05 | 2019-12-05 | GESTALT Robotics GmbH | Verfahren zum Verwenden mit einer Maschine zum Einstellen einer Erweiterte-Realität-Anzeigeumgebung |
US20200223069A1 (en) * | 2019-01-10 | 2020-07-16 | General Electric Company | Utilizing optical data to dynamically control operation of a snake-arm robot |
CN110000795A (zh) * | 2019-05-15 | 2019-07-12 | 苏州市职业大学 | 一种视觉伺服控制的方法、系统及设备 |
CN110450153A (zh) * | 2019-07-08 | 2019-11-15 | 清华大学 | 一种基于深度强化学习的机械臂物品主动拾取方法 |
CN111993422A (zh) * | 2020-08-11 | 2020-11-27 | 上海交通大学 | 基于无标定视觉的机器人轴孔对准控制方法 |
CN111958604A (zh) * | 2020-08-20 | 2020-11-20 | 扬州蓝邦数控制刷设备有限公司 | 一种高效的基于cad模型的异形毛刷单目视觉示教抓取方法 |
Non-Patent Citations (3)
Title |
---|
J. ARMSTRONG PIEPMEIER: "Uncalibrated eye-in-hand visual servoing", 《PROCEEDINGS 2002 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION (CAT. NO.02CH37292)》 * |
张展: "基于双目视觉的三维重建关键技术研究", 《中国博士学位论文全文数据库 (基础科学辑)》 * |
李平: "基于绿色作物特征提取不变性的立体视觉导航方法实现", 《中国优秀博硕士学位论文全文数据库(硕士)农业科技辑》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117506937A (zh) * | 2024-01-04 | 2024-02-06 | 中铁十四局集团大盾构工程有限公司 | 一种基于多阶段视觉伺服控制的焊件自主摆放方法 |
CN117506937B (zh) * | 2024-01-04 | 2024-03-12 | 中铁十四局集团大盾构工程有限公司 | 一种基于多阶段视觉伺服控制的焊件自主摆放方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112847362B (zh) | 2022-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107901041B (zh) | 一种基于图像混合矩的机器人视觉伺服控制方法 | |
US20200298411A1 (en) | Method for the orientation of an industrial robot, and industrial robot | |
CN109782601B (zh) | 一种协调机械臂自适应神经网络同步鲁棒控制器设计方法 | |
Vahrenkamp et al. | Visual servoing for humanoid grasping and manipulation tasks | |
Siradjuddin et al. | A position based visual tracking system for a 7 DOF robot manipulator using a Kinect camera | |
Palmieri et al. | A comparison between position-based and image-based dynamic visual servoings in the control of a translating parallel manipulator | |
US20170270631A1 (en) | Automated guidance system and method for a coordinated movement machine | |
Mustafa et al. | A geometrical approach for online error compensation of industrial manipulators | |
CN110253574B (zh) | 一种多任务机械臂位姿检测和误差补偿方法 | |
CN112109072B (zh) | 一种大型稀疏特征托盘精确6d位姿测量和抓取方法 | |
Vicente et al. | Towards markerless visual servoing of grasping tasks for humanoid robots | |
Li et al. | A hybrid visual servo control method for simultaneously controlling a nonholonomic mobile and a manipulator | |
CN112123341A (zh) | 机器人双臂协调运动控制方法、装置和电子设备 | |
CN112847362B (zh) | 一种基于图像矩的搬运机器人视觉伺服控制方法 | |
De Farias et al. | Dual quaternion-based visual servoing for grasping moving objects | |
JP5574805B2 (ja) | 視覚センサを有するマニピュレータのセンサキャリブレーション方法及びロボット制御システム | |
CN113618367A (zh) | 基于七自由度并联双模块机器人的多视觉空间装配系统 | |
Long et al. | Robotic cutting of soft materials using force control & image moments | |
CN109542094B (zh) | 无期望图像的移动机器人视觉镇定控制 | |
Bae et al. | A dynamic visual servoing of robot manipulator with eye-in-hand camera | |
Luo et al. | Robotic conveyor tracking with dynamic object fetching for industrial automation | |
Sebastián et al. | A new method for the estimation of the image Jacobian for the control of an uncalibrated joint system | |
Hanh et al. | Implement contour following task of objects with unknown geometric models by using combination of two visual servoing techniques | |
Al-Junaid | ANN based robotic arm visual servoing nonlinear system | |
Tao et al. | A calibration framework for industrial robotic work cells |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB03 | Change of inventor or designer information |
Inventor after: Li Han Inventor after: Xiong Zhihao Inventor after: Shi Wenjie Inventor after: Zuo Zhijiang Inventor before: Li Han Inventor before: Xiong Zhi Inventor before: Shi Wenjie Inventor before: Zuo Zhijiang |
|
CB03 | Change of inventor or designer information | ||
GR01 | Patent grant | ||
GR01 | Patent grant |