CN109848987B - 一种并联机器人视觉伺服控制方法 - Google Patents

一种并联机器人视觉伺服控制方法 Download PDF

Info

Publication number
CN109848987B
CN109848987B CN201910055545.5A CN201910055545A CN109848987B CN 109848987 B CN109848987 B CN 109848987B CN 201910055545 A CN201910055545 A CN 201910055545A CN 109848987 B CN109848987 B CN 109848987B
Authority
CN
China
Prior art keywords
target object
parallel robot
image
matrix
controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201910055545.5A
Other languages
English (en)
Other versions
CN109848987A (zh
Inventor
张舵
梅江平
熊伟
王浩
闫寒
李策
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN201910055545.5A priority Critical patent/CN109848987B/zh
Publication of CN109848987A publication Critical patent/CN109848987A/zh
Application granted granted Critical
Publication of CN109848987B publication Critical patent/CN109848987B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种并联机器人视觉伺服控制方法,包括并联机器人通过机架安装在传送装置上方,将固定摄像机安装在所述的机架上,将移动摄像机安装在并联机器人的末端,将控制器安装在并联机器人外部。基于以上系统,首先固定摄像机通过基于图像的视觉伺服控制并联机器人,使目标物体进入移动摄像机视野;然后,移动摄像机通过混合视觉伺服完成并联机器人控制,使目标物体与移动摄像机同心;最后,通过两个摄像机组成双目视觉得到目标物体的高度,控制并联机器人完成对目标物体的抓取。本方法准确性好且稳定性高。

Description

一种并联机器人视觉伺服控制方法
技术领域
本发明涉及伺服控制方法,尤其涉及一种并联机器人视觉伺服控制方法。
背景技术
随着我国制造业的快速发展,食品、医疗、电子、轻工业等行业对可以实现快速分拣、包装、检测的并联机器人产品有了越来越大的需求,用其替代人工操作,极大的提高了生产效率。
在各行业中对并联机器人的工作精度要求越来越高,传统的机器视觉定位中,摄像机和并联机器人仅通过发送某一时刻的坐标,通过传送带编码器进行计算,完成定位操作。其中摄像机和并联机器人相互独立进行工作,是一个开环系统,很容易由外界干扰形成误差,导致定位失败。视觉伺服很好的解决上述问题,视觉伺服实时获取目标位置进行反馈,能够保证不会因外界干扰造成失败,故引入视觉伺服进行并联机器人控制。但传统的摄像机在并联机器人末端视觉伺服能够获得目标的准确信息,但只能获取很小的拍摄空间,严重影响了并联机器人的工作范围,降低其工作效率;传统的摄像机固定视觉伺服可以保证并联机器人的工作范围,但是其目标的信息不够准确,且由于并联机器人的移动会遮挡目标导致定位不准确。
发明内容
为了解决上述问题,本发明的目的在于提供一种并联机器人视觉伺服控制方法,能够保证摄像机足够的视野,且不会因为遮挡造成视觉伺服失败。
本发明通过以下技术方案解决以上技术问题:
一种并联机器人视觉伺服控制方法,包括以下步骤:
步骤一、将并联机器人通过机架安装在传送装置上方,将固定摄像机安装在所述的机架上,将移动摄像机安装在并联机器人的末端,将控制器安装在并联机器人外部;
步骤二、需抓取的目标物体在传送装置的带动下进入固定摄像机的视野,所述的固定摄像机将拍摄的移动摄像机和待抓取的目标物体的图像发送到控制器,控制器运行基于图像的视觉伺服控制过程,具体如下:
(1)所述的控制器对接收的图像基于颜色和边缘信息的融合进行分割获得移动摄像机和目标物体的轮廓矩,通过轮廓矩获取移动摄像机的质心位置和待抓取目标物体的质心位置;
(2)基于高斯牛顿法和Levenberg-Marquardt算法得到视觉伺服算法,通过视觉伺服算法计算得到并联机器人运行的关节角度,控制器根据得到的关节角度向并联机器人的控制器输出控制信号控制并联机器人移动使移动摄像机的质心位置向待抓取目标物体的质心位置靠近;
步骤三、控制器读取移动摄像机拍摄的待抓取目标物体的图像,然后采用混合视觉伺服方法计算当前目标物体图像和通过预先将目标物体放在在移动摄像机正下方,采用移动摄像机拍摄的目标物体的期望图像的单应性矩阵,并对单应性矩阵分解获得对应并联机器人末端的旋转运动和平移运动的旋转矩阵和平移矩阵,然后向并联机器人的控制器输出旋转运动和平移运动控制信号使得并联机器人质心不断向待抓取目标物体的质心位置靠近直至两者同心:
步骤四、根据固定摄像机拍摄的图片,基于成像几何对目标物体的高度Z进行计算,控制器将得到的高度Z信号输出给并联机器人的控制器;
步骤五、在并联机器人的控制器根据读取的高度Z信号控制末端抓取目标之前,控制器读取移动摄像机输出的目标物体的图像信号,如果目标物体与移动摄像机二者同心则抓取物体,否则重复步骤三至五;如果目标跑出移动摄像机的视野,则重复步骤二至步骤五。
与现有技术相比,本发明具有以下有益效果:
准确性好:全程进行视觉伺服控制,不会因为目标跑出视野和目标被遮挡造成视觉伺服的失败;
稳定性高:控制器通过实时切换,不会因为切换时存在的时间差造成视觉伺服失败;
适用性广:能够获取目标三维信息,不仅仅局限于对单一目标的操作,能够对多种目标进行操作,具有更大的适用范围。
附图说明
图1是本发明一种并联机器人视觉伺服控制装置示意图。
具体实施方式
以下结合附图和具体实施例对本发明加以详细说明。
如附图所示的本发明的一种并联机器人视觉伺服控制方法,包括以下步骤:
步骤一、将并联机器人2通过机架安装在传送装置1上方,将固定摄像机3安装在所述的机架上,将移动摄像机4安装在并联机器人2的末端,将控制器5安装在并联机器人外部。
步骤二、需抓取的目标物体在传送装置1的带动下进入固定摄像机3的视野,所述的固定摄像机3将拍摄的移动摄像机4和待抓取的目标物体的图像发送到控制器5,控制器5运行基于图像的视觉伺服控制过程,具体如下:
(1)所述的控制器5可以采用现有的Visual Studio等软件对接收的图像基于颜色和边缘信息的融合进行分割获得移动摄像机4和目标物体的轮廓矩,通过轮廓矩获取移动摄像机4的质心位置和待抓取目标物体的质心位置。
(2)基于高斯牛顿法(高斯牛顿法参见Piepmeier J A,Mc Murray G V,LipkinH.A dynamic quasi-Newton method foruncalibrated visual servoing[C]//Roboticsand Automation,1999.Proceedings.1999 IEEE International Conference on.IEEE,1999,2:1595-1600.)和Levenberg-Marquardt算法得到视觉伺服算法,通过视觉伺服算法计算得到并联机器人2运行的关节角度,控制器5根据得到的关节角度向并联机器人2的控制器输出控制信号控制并联机器人2移动使移动摄像机4的质心位置向待抓取目标物体的质心位置靠近,具体过程为:
第一步,定义在固定摄像机3的拍摄平面上,用e(t)表示目标物体的位置是时间t的函数,e(q)表示并联机器人末端的位置是机器人关节角q的函数,定义二者之间的误差函数表示为:
f(q,t)=e(q)-e(t)
第二步,根据非线性方差最小化原理,推导由并联机器人2以及移动摄像机4组成的眼固定系统的无标定视觉伺服策略。定义误差函数的方差最小化函数F(q,t):
Figure GDA0003288012840000041
然后对F(q,t)进行离散化分成若干点(q,t),若某个时刻定义为k(k=1,2,…),则k时刻点为(qk,tk),并在点(qk,tk)进行Taylor级数展开,得到Taylor展开式:
Figure GDA0003288012840000042
第三步,令F(qk+1,tk+1)在qk的一阶导数为0使其最小化,将高阶导数忽略,结合Levenberg-Marquardt算法对上式修改得到并联机器人在k+1时刻的关节角表达式:
Figure GDA0003288012840000043
式中qk∈Rn,R为实数,n为机器人关节角数量;
αk——比例因子,通常根据当前系统的置信区间取值
Jk——从图像中获取的包含目标物体的位置时间t和机器人关节角q关系的图像雅可比矩阵,
Figure GDA0003288012840000051
vk——尺度因子,vk>0;
fk——偏差输入量,fk=f(qk,tk);
Δt——采样周期,即k与k+1时刻的间距。
第四步,通过动态Broyden法估计并联机器人在k+1时刻的关节角表达式中的图像雅可比矩阵Jk,将误差函数f(q,t)的一阶台劳级数仿射模型定义为m(q,t),忽略高阶导数项,应用RLS提高控制系统的稳定性,最终得估计图像雅可比矩阵
Figure GDA0003288012840000052
Figure GDA0003288012840000053
式中
Figure GDA0003288012840000054
Figure GDA0003288012840000055
其中q0为并联机器人关节角,根据p0=(D TD)-1选择初始值p0,然后迭代计算p1,p2…pk
Vf=fk-fk-1
Vq=qk-qk-1
Vt=tk-tk-1
λ为遗忘因子,0<λ≤1;
Figure GDA0003288012840000056
O为零矩阵,m为并联机器人末端位置坐标的维度,n为机器人关节角数量。
第五步,将第四步中所估计出的图像雅可比矩阵
Figure GDA0003288012840000057
带入第三步中代替Jk得到并联机器人关节角度qk+1,控制器5根据得到的关节角度向并联机器人2的控制器输出控制信号控制并联机器人2移动,直至待抓取的目标物体进入移动摄像机4的视野中。
步骤三、控制器5读取移动摄像机4拍摄的待抓取目标物体的图像,然后采用混合视觉伺服方法(混合视觉伺服方法参见Malis E,Chaumette F,Boudet S.21/2D visualservoing[J].Robotics and Automation,IEEE Transactions on,1999,15(2):238-250.)计算当前目标物体图像(即当前目标物体图像是目标物体在移动摄像机4视野中,但不是中心位置)和通过预先将目标物体放在在移动摄像机4正下方,采用移动摄像机4拍摄的目标物体的期望图像(即期望图像是目标物体在移动摄像机4视野的中心位置)的单应性矩阵,并对单应性矩阵分解获得对应并联机器人末端的旋转运动和平移运动的旋转矩阵和平移矩阵,然后向并联机器人的控制器输出旋转运动和平移运动控制信号使得并联机器人质心不断向待抓取目标物体的质心位置靠近直至两者同心:
计算当前图像和期望图像的单应性矩阵,并对目标物体的单应性矩阵分解获得旋转矩阵和平移矩阵的过程如下:
第一步,可以采用现有的Visual Studio等软件以及FAST算法完成包含当前目标物体的整幅图像中像素与其周围邻域内足够多的像素点相差较大的特征点的提取;
第二步,基于LK稀疏光流法,计算当前帧目标物体的图像通过上步所提取的特征点到下一帧目标物体的图像的像素位置的移动即光流;
第三步,通过对光流的亮度进行判断,筛选出特征点在下一帧图像中的正确位置,进而完成特征点在相邻两帧图像间的跟踪,利用这种方法可以高效迅速地得到当前图像和其下一帧图像中相互对应的两个特征点形成的特征点对的像素坐标;
第四步,选取至少4组特征点对计算得到两帧图像之间的单应性矩阵,再基于单应性矩阵的传递特性,计算当前目标物体的图像和目标物体的期望图像之间单应性矩阵,通过逐帧累乘完成单应性矩阵的求取;
第五步,对单应性矩阵H基于奇异值进行分解得:
Figure GDA0003288012840000071
式中,d*为移动摄像机4到传送装置1平面的距离,R为目标物体的当前图像和期望图像之间的旋转矩阵,p为当前目标物体的图像和期望图像之间的平移向量,n*为当前目标物体的图像和期望图像之间单位法向量。
第六步,通过对单应性矩阵H分解得到的旋转矩阵R和平移矩阵p,对并联机器人旋转和平移完成分别控制,从而实现旋转控制和平移控制的解耦,直到目标物体质心与移动摄像机4质心两者同心。
步骤四、因移动摄像机4与目标物体同心,故移动摄像机4与目标物体的平面坐标一致,再根据固定摄像机3拍摄的图片,基于成像几何对目标物体的高度Z进行计算,控制器将得到的高度Z信号输出给并联机器人的控制器;
世界坐标系和图像坐标系的转换为:
Figure GDA0003288012840000072
其中,[u,v,1]T为目标物体图像坐标系下坐标,[X,Y,Z,1]T为目标物体世界坐标系下坐标,矩阵M为固定摄像机3内参数矩阵与转换矩阵的乘积,即:
M=K[C|T]
式中,K为相机内参数矩阵,[C|T]为转换矩阵,C为旋转矩阵,T为平移矩阵,其中C和T均通过张正友标定法获得。
步骤五、在并联机器人的控制器根据读取的高度Z信号控制末端抓取目标之前,控制器5读取移动摄像机4输出的目标物体的图像信号,如果目标物体与移动摄像机4二者同心则抓取物体,否则重复步骤三至五;如果目标跑出移动摄像机4的视野,则重复步骤二至步骤五。

Claims (3)

1.一种并联机器人视觉伺服控制方法,其特征在于包括以下步骤:
步骤一、将并联机器人通过机架安装在传送装置上方,将固定摄像机安装在所述的机架上,将移动摄像机安装在并联机器人的末端,将控制器安装在并联机器人外部;
步骤二、需抓取的目标物体在传送装置的带动下进入固定摄像机的视野,所述的固定摄像机将拍摄的移动摄像机和待抓取的目标物体的图像发送到控制器,控制器运行基于图像的视觉伺服控制过程,具体如下:
(1)所述的控制器对接收的图像基于颜色和边缘信息的融合进行分割获得移动摄像机和目标物体的轮廓矩,通过轮廓矩获取移动摄像机的质心位置和待抓取目标物体的质心位置;
(2)基于高斯牛顿法和Levenberg-Marquardt算法得到视觉伺服算法,通过视觉伺服算法计算得到并联机器人运行的关节角度,控制器根据得到的关节角度向并联机器人的控制器输出控制信号控制并联机器人移动使移动摄像机的质心位置向待抓取目标物体的质心位置靠近;
步骤三、控制器读取移动摄像机拍摄的待抓取目标物体的图像,然后采用混合视觉伺服方法计算当前目标物体图像和通过预先将目标物体放在移动摄像机正下方,采用移动摄像机拍摄的目标物体的期望图像的单应性矩阵,并对单应性矩阵分解获得对应并联机器人末端的旋转运动和平移运动的旋转矩阵和平移矩阵,然后向并联机器人的控制器输出旋转运动和平移运动控制信号使得并联机器人质心不断向待抓取目标物体的质心位置靠近直至两者同心:
步骤四、根据固定摄像机拍摄的图片,基于成像几何对目标物体的高度Z进行计算,控制器将得到的高度Z信号输出给并联机器人的控制器;
步骤五、在并联机器人的控制器根据读取的高度Z信号控制末端抓取目标之前,控制器读取移动摄像机输出的目标物体的图像信号,如果目标物体与移动摄像机二者同心则抓取物体,否则重复步骤三至五;如果目标跑出移动摄像机的视野,则重复步骤二至步骤五。
2.根据权利要求1所述的并联机器人视觉伺服控制方法,其特征在于:所述的步骤二的(2)具体过程为:
第一步,定义在固定摄像机的拍摄平面上,用e(t)表示目标物体的位置是时间t的函数,e(q)表示并联机器人末端的位置是机器人关节角q的函数,定义二者之间的误差函数表示为:
f(q,t)=e(q)-e(t)
第二步,根据非线性方差最小化原理,推导由并联机器人以及移动摄像机组成的眼固定系统的无标定视觉伺服策略,定义误差函数的方差最小化函数F(q,t):
Figure FDA0003288012830000021
然后对F(q,t)进行离散化分成若干点(q,t),若某个时刻定义为k(k=1,2,…),则k时刻点为(qk,tk),并在点(qk,tk)进行Taylor级数展开,得到Taylor
展开式:
Figure FDA0003288012830000022
第三步,令F(qk+1,tk+1)在qk的一阶导数为0使其最小化,将高阶导数忽略,结合Levenberg-Marquardt算法对上式修改得到并联机器人在k+1时刻的关节角表达式:
Figure FDA0003288012830000023
式中qk∈Rn,R为实数,n为机器人关节角数量;
αk——比例因子;
Jk——从图像中获取的包含目标物体的位置时间t和机器人关节角q关系的图像雅可比矩阵,
Figure FDA0003288012830000031
vk——尺度因子,vk>0;
fk——偏差输入量,fk=f(qk,tk);
Δt——采样周期,即k与k+1时刻的间距;
第四步,通过动态Broyden法估计并联机器人在k+1时刻的关节角表达式中的图像雅可比矩阵Jk,将误差函数f(q,t)的一阶台劳级数仿射模型定义为m(q,t),忽略高阶导数项,应用RLS提高控制系统的稳定性,最终得估计图像雅可比矩阵
Figure FDA0003288012830000032
Figure FDA0003288012830000033
式中
Figure FDA0003288012830000034
Figure FDA0003288012830000035
其中q0为并联机器人关节角,根据p0=(DTD)-1选择初始值p0,然后迭代计算p1,p2…pk
Vf=fk-fk-1
Vq=qk-qk-1
Vt=tk-tk-1
λ为遗忘因子,0<λ≤1;
Figure FDA0003288012830000036
O为零矩阵,m为并联机器人末端位置坐标的维度,n为机器人关节角数量;
第五步,将第四步中所估计出的图像雅可比矩阵
Figure FDA0003288012830000037
带入第三步中代替Jk得到并联机器人关节角度qk+1,控制器根据得到的关节角度向并联机器人的控制器输出控制信号控制并联机器人移动,直至待抓取的目标物体进入移动摄像机的视野中。
3.根据权利要求1或者2所述的并联机器人视觉伺服控制方法,其特征在于:计算当前图像和期望图像的单应性矩阵,并对目标物体的单应性矩阵分解获得旋转矩阵和平移矩阵的过程如下:
第一步,采用Visual Studio软件以及FAST算法完成包含当前目标物体的整幅图像中像素与其周围邻域内足够多的像素点相差较大的特征点的提取;
第二步,基于LK稀疏光流法,计算当前帧目标物体的图像通过上步所提取的特征点到下一帧目标物体的图像的像素位置的移动即光流;
第三步,通过对光流的亮度进行判断,筛选出特征点在下一帧图像中的正确位置,进而完成特征点在相邻两帧图像间的跟踪,得到当前图像和其下一帧图像中相互对应的两个特征点形成的特征点对的像素坐标;
第四步,选取至少4组特征点对计算得到两帧图像之间的单应性矩阵,再基于单应性矩阵的传递特性,计算当前目标物体的图像和目标物体的期望图像之间单应性矩阵,通过逐帧累乘完成单应性矩阵的求取;
第五步,对单应性矩阵H基于奇异值进行分解得:
Figure FDA0003288012830000041
式中,d*为移动摄像机到传送装置平面的距离,R为目标物体的当前图像和期望图像之间的旋转矩阵,p为当前目标物体的图像和期望图像之间的平移向量,n*为当前目标物体的图像和期望图像之间单位法向量;
第六步,通过对单应性矩阵H分解得到的旋转矩阵R和平移矩阵p,对并联机器人旋转和平移完成分别控制,从而实现旋转控制和平移控制的解耦,直到目标物体质心与移动摄像机质心两者同心。
CN201910055545.5A 2019-01-22 2019-01-22 一种并联机器人视觉伺服控制方法 Expired - Fee Related CN109848987B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910055545.5A CN109848987B (zh) 2019-01-22 2019-01-22 一种并联机器人视觉伺服控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910055545.5A CN109848987B (zh) 2019-01-22 2019-01-22 一种并联机器人视觉伺服控制方法

Publications (2)

Publication Number Publication Date
CN109848987A CN109848987A (zh) 2019-06-07
CN109848987B true CN109848987B (zh) 2022-02-01

Family

ID=66895480

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910055545.5A Expired - Fee Related CN109848987B (zh) 2019-01-22 2019-01-22 一种并联机器人视觉伺服控制方法

Country Status (1)

Country Link
CN (1) CN109848987B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111360840A (zh) * 2020-04-28 2020-07-03 沈阳优诚自动化工程有限公司 一种基于视觉算法的机械臂分拣方法
CN112099442A (zh) * 2020-09-11 2020-12-18 哈尔滨工程大学 一种并联机器人视觉伺服系统及控制方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3805310B2 (ja) * 2003-01-30 2006-08-02 ファナック株式会社 ワーク取出し装置
CN100348379C (zh) * 2005-10-28 2007-11-14 天津大学 含钢丝平行四边形支链结构的空间三平动并联机构
EP2705935A1 (en) * 2012-09-11 2014-03-12 Hexagon Technology Center GmbH Coordinate measuring machine
JP2014225168A (ja) * 2013-05-16 2014-12-04 Kddi株式会社 特徴点集合で表される画像間の類似度を算出するプログラム、装置及び方法
CN104751465A (zh) * 2015-03-31 2015-07-01 中国科学技术大学 一种基于lk光流约束的orb图像特征配准方法
CN105082161B (zh) * 2015-09-09 2017-09-29 新疆医科大学第一附属医院 双目立体摄像机机器人视觉伺服控制装置及其使用方法
CN105234943B (zh) * 2015-09-09 2018-08-14 大族激光科技产业集团股份有限公司 一种基于视觉识别的工业机器人示教装置及方法
CN106041927A (zh) * 2016-06-22 2016-10-26 西安交通大学 结合eye‑to‑hand和eye‑in‑hand结构的混合视觉伺服系统及方法
CN106485746A (zh) * 2016-10-17 2017-03-08 广东技术师范学院 基于图像无标定的视觉伺服机械手及其控制方法
CN106553195B (zh) * 2016-11-25 2018-11-27 中国科学技术大学 工业机器人抓取过程中的物体6自由度定位方法及系统
CN107901041B (zh) * 2017-12-15 2021-06-15 中南大学 一种基于图像混合矩的机器人视觉伺服控制方法

Also Published As

Publication number Publication date
CN109848987A (zh) 2019-06-07

Similar Documents

Publication Publication Date Title
CN112099442A (zh) 一种并联机器人视觉伺服系统及控制方法
CN109202912B (zh) 一种基于单目深度传感器和机械臂配准目标轮廓点云的方法
CN110728715B (zh) 一种智能巡检机器人摄像机角度自适应调整方法
EP3011362B1 (en) Systems and methods for tracking location of movable target object
Stavnitzky et al. Multiple camera model-based 3-D visual servo
CN109848987B (zh) 一种并联机器人视觉伺服控制方法
CN110370316B (zh) 一种基于垂直反射的机器人tcp标定方法
Liu et al. Fast eye-in-hand 3-D scanner-robot calibration for low stitching errors
Ryberg et al. Stereo vision for path correction in off-line programmed robot welding
CN109664317B (zh) 机器人的物体抓取系统及方法
CN109887025B (zh) 单目自调式火点三维定位方法与装置
Maycock et al. Fully automatic optical motion tracking using an inverse kinematics approach
CN112894812A (zh) 一种面向机械臂的视觉伺服轨迹跟踪控制方法及系统
CN114519738A (zh) 一种基于icp算法的手眼标定误差修正方法
EP4101604A1 (en) System and method for improving accuracy of 3d eye-to-hand coordination of a robotic system
Natarajan et al. Robust stereo-vision based 3D modelling of real-world objects for assistive robotic applications
CN114140534A (zh) 一种用于激光雷达与相机的联合标定方法
CN116872216B (zh) 一种基于有限时间控制的机器人视觉伺服作业方法
CN111989540A (zh) 一种工件跟踪方法、系统及机器人
Özgür et al. High speed parallel kinematic manipulator state estimation from legs observation
CN112123329B (zh) 一种机器人3d视觉手眼标定方法
CN114842079A (zh) 盾构隧道内对预制中隔墙进行位姿测量的设备及方法
CN114714347A (zh) 双臂与手眼相机结合的机器人视觉伺服控制系统及方法
Piepmeier Experimental results for uncalibrated eye-in-hand visual servoing
CN111784771A (zh) 基于双目相机的3d三角测量方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20220201

CF01 Termination of patent right due to non-payment of annual fee