CN115446836A - 一种基于多种图像特征信息混合的视觉伺服方法 - Google Patents
一种基于多种图像特征信息混合的视觉伺服方法 Download PDFInfo
- Publication number
- CN115446836A CN115446836A CN202211132649.XA CN202211132649A CN115446836A CN 115446836 A CN115446836 A CN 115446836A CN 202211132649 A CN202211132649 A CN 202211132649A CN 115446836 A CN115446836 A CN 115446836A
- Authority
- CN
- China
- Prior art keywords
- image
- workpiece
- camera
- target
- characteristic information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/1607—Calculation of inertia, jacobian matrixes and inverses
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Automation & Control Theory (AREA)
- Manipulator (AREA)
Abstract
本发明涉及视觉伺服技术领域,具体涉及一种基于多种图像特征信息混合的视觉伺服方法,包括:S1、采集并处理图像:固定2D相机,使其工作视野能覆盖工件移动范围;打开相机设备采集图像并进行图像处理;S2、设置工件目标位姿参数:通过示教器控制机器人抓取工件移动到目标位置下,识别此状态下工件的图像特征参数信息;S3、构建深度映射比例因子,识别提取多种图像特征信息:多次移动示教器,获取图像空间特征信息与笛卡尔空间坐标的映射关系。本发明通过单个2D相机获取图像,并实现对多种不同图像特征信息的提取、处理以及融合,从而控制机械臂的移动,并到达指定位置,完成视觉伺服下的工件位姿调整任务,计算量小,且定位精度高,实时性好。
Description
技术领域
本发明涉及视觉伺服技术领域,具体涉及一种基于多种图像特征信息混合的视觉伺服方法。
背景技术
在工业领域中,视觉伺服技术应用广泛。针对不同的应用背景和任务,可以选择不同的视觉伺服方法。目前在上下料的工业机器人作业中,一般都是通过“eye-in-hand”(眼在手上)方式进行视觉伺服,一旦机器人末端加载一些作业工具,极易发生干涉或遮挡相机镜头的现象,导致伺服任务的异常。随着机械臂的不断发展,其应用场景大大增加,为了适应其移动的灵活性以及末端作业工具的普适性,将相机固定安装在机械臂外,这种“eye-to-hand”(眼在手外)模式在工业领域发挥了重要作用。
传统的视觉伺服控制中,一般分为基于位置和基于图像两种伺服控制方式。其中基于位置的视觉伺服(PBVS)方法是根据采集到的图像对目标物进行三维重建,得到目标空间位置和运动参数。此方法在工程中需要进行大量的标定测试以及调试工作,且其定位精度高度依赖标定精度、目标位姿估计精度,图像表面模式等。基于图像的视觉伺服(IBVS)方法是以图像中特征误差为控制信号,根据当前图像特征与期望特征差值计算控制量。其优势在于无需获取目标空间位置,计算延时少,标定误差的鲁棒性好,图像抗干扰能力强。但由于缺乏机械臂末端姿态信息,从而难以进一步提高其伺服能力。
如申请号为CN202010099117.5的中国发明专利公开了一种距离空间和图像特征空间融合的混合视觉伺服方法。该方法首先构建图像雅可比矩阵和深度雅可比矩阵,然后将所述雅可比矩阵融合,得到混合视觉伺服雅克比矩阵,再基于混合视觉伺服雅克比矩阵计算机器人的控制量进行移动。但该方法存在以下几个问题:(1)该方法需要额外使用三个测距传感器辅助获取深度信息并将其装置安装在机械臂末端,增加了工业上实际应用的局限性和复杂性。(2)该装置为“eye-in-hand”模式,无法满足工业领域中加载末端工具所需的“eye-to-hand”情况。(3)该方法处理信息量大、计算延时长,不适合生产节拍快的工业化应用情景。
因此,工业中需要能够使用单个2D相机进行“eye-to-hand”模式简单易操作的视觉伺服控制方法,减少添加新的传感器,并且在能够保证其控制精度的条件下,提高控制效率,缩短作业节拍。
发明内容
针对以上问题,本发明提供了一种基于多种图像特征信息混合的视觉伺服方法,该方法通过单个2D相机获取图像,并实现对多种不同图像特征信息的提取、处理以及融合,从而控制机械臂的移动,并到达指定位置,完成视觉伺服下的工件位姿调整任务,计算量小,且定位精度高,实时性好。
为了实现上述目的,本发明采用的技术方案如下:
一种基于多种图像特征信息混合的视觉伺服方法,包括以下步骤:
S1、采集并处理图像:固定2D相机,使其工作视野能覆盖工件移动范围;打开相机设备采集图像并进行图像处理;
S2、设置工件目标位姿参数:通过示教器控制机器人抓取工件移动到目标位置下,识别此状态下工件的图像特征参数信息;
S3、构建深度映射比例因子,识别提取多种图像特征信息:多次移动示教器,获取图像空间特征信息与笛卡尔空间坐标的映射关系;
S4、构建图像雅可比矩阵,将图像雅可比矩阵与深度映射信息融合,得到控制率:对机器人和相机进行标定,获得图像雅可比矩阵;
S5、基于上述控制率得到机器人的运动控制量,从而达到指定位置:结合图像雅可比矩阵,设计控制率算法,得到对应的各自由度控制量,进行伺服运动,到达目标位姿。
其中,视觉伺服控制基于6自由度的笛卡尔空间坐标系,分别为X、Y、Z、RX、RY、RZ;其中X、Y、Z三个方向是机器人在三维坐标系下的轴线方向,RX、RY、RZ三个方向是机器人末端关节分别绕X、Y、Z轴的旋转方向。
优选地,在步骤1中,工件的图像特征具体为:连通区域的面积值、几何重心点(u0,v0)、工件四个特征点(u1,v1)、(u2,v2)、(u3,v3)、(u4,v4)的像素坐标,以及四个特征点连线的长度,具体包括以下分步骤:
S11、开启相机设备,获取目标图像;
S12、将所述目标图像转为灰度图,并通过二值化处理,得到二值化图片;
S13、对所述二值化图片进行双边滤波,并进行图像可视化。
优选地,在步骤2中,具体包括以下分步骤:
S21、示教器调整机器人末端抓取工件到达目标位姿;
S22、通过相机获取标此时目标态下图像处理后的图像;
S23、根据BLOB连通区域检测算法,识别出此时工件的图像特征信息,包括连通区域几何重心P0(u0,v0)、面积大小s、四个角点特征像素坐标P1(u1,v1)、P2(u2,v2)、P3(u3,v3)、P4(u4,v4)以及其连线长度l1、l2、l3、l4,定义LRX=l1-l3,LRY=12-14。
优选地,在步骤3中,具体包括以下分步骤:
S31、保持其他轴线不动,在S21的基础上通过示教器沿RX、RY、Z轴各个方向分别进行若干次小幅度测试运动;
S32、每次运动后,通过相机采集当前位置下的工件图像信息,并提取其图像特征;
S33、每次运动后,记录沿Z轴移动ΔZi量时图像中工件连通区域面积值ΔS、沿RX轴转动ΔRX度时所对应的ΔLRX的值、沿RY轴转动ΔRY度时所对应的ΔLRY的值;
其中,ΔS、ΔLRX、ΔLRY是两次运动中,图像识别到的工件面积、对边之差的偏差;ΔZi、ΔRX、ΔRY是两次运动中工件在笛卡尔坐标系下的Z轴高度、RX轴转角、RY轴转角的偏差:
S34、将得到的数值通过曲线拟合,构建映射方程得到对应特征的映射比例因子kx、ky、ai、bi、ci;通过ΔLRX、ΔLRY的值调整RX、RY旋转角,使之与目标位姿平行,再参考所识别的面积值S来估计工件距离相机的深度值Zi。
优选地,在步骤4中,具体包括以下分步骤:
S41、根据特征点P1和P2所在直线确定末端相对于目标物体的期望姿态偏转角度,具体采用以下公式:
S42、基于特征点确定图像雅可比矩阵;特征点P0在相机坐标系下的移动速度即末端执行机构在相机坐标系下的移动速度为V=[Tx Ty Tz ωx ωy ωz]T,其向量分别为沿着X、Y、Z轴方向的线速度和角速度量;再求得特征点P(u,v)在X、Y、Z轴方向上的速度:
得到平面点的速度与点在相机坐标系下的速度之间的相对关系,即基于图像的控制率为:
S43、再将S34所估计出来的深度信息值Zi带入图像雅可比矩阵J0中进行融合,得到控制率:
优选地,在步骤5中,具体包括以下分步骤:
S51、基于图像像素误差,根据视觉特征e=(s-s*)返回向量形式的误差,依次表示X、Y、Z三个维度上的视觉特征误差;
S52、基于图像像素误差得到机械臂末端速度vc=λJ1Ve,其中λ表示控制机械臂移动速度系数,e表示视觉特征误差向量,J1V为控制率;
S53、机器人末端按照指定速度移动,直到图像像素误差小于设定值完成伺服任务。
本发明有益效果:
1、本发明通过测试图像中工件对边长度差值,得到拟合线性直线,构建映射方程,计算其特征的映射比例因子,得到RX、RY轴旋转量;利用面积与相机到工件的笛卡尔空间距离对应数据,拟合二次函数曲线,构建映射方程,计算其特征的映射比例因子,得到深度映射值Zi;深度映射信息与图像雅可比矩阵进行融合,得到混合图像雅可比矩阵,从而进行机器人末端控制;从而实现利用单个2D工业相机完成六自由度的工件定位视觉伺服任务。
2、本发明通过单个2D相机获取图像,并实现对多种不同图像特征信息的提取、处理以及融合,从而控制机械臂的移动,并到达指定位置,完成视觉伺服下的工件位姿调整任务,计算量小,且定位精度高,实时性好。
附图说明
图1为本发明的流程图;
图2为本发明在相机视角下工件目标位姿的图像示意图;
图3为本发明视觉伺服任务中机器人及其末端工件和与相机位置关系图;
图4为本发明平面空间中旋转角度示意图;
图5为本发明视觉伺服任务仿真图。
具体实施方式
下面结合附图将对本发明实施例中的技术方案进行清楚、完整地描述,以使本领域的技术人员能够更好的理解本发明的优点和特征,从而对本发明的保护范围做出更为清楚的界定。本发明所描述的实施例仅是本发明一部分实施例,而不是全部的实施例,基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
参照图1-图5,一种基于多种图像特征信息混合的视觉伺服方法,包括以下步骤:
S1、采集并处理图像:固定2D相机,使其工作视野能覆盖工件移动范围,打开相机设备采集图像并进行图像处理。
其中,视觉伺服控制基于6自由度的笛卡尔空间坐标系,分别为X、Y、Z、RX、RY、RZ。其中X、Y、Z三个方向是机器人在三维坐标系下的轴线方向,RX、RY、RZ三个方向是机器人末端关节分别绕X、Y、Z轴的旋转方向。
在步骤S1中,工件的图像特征具体为:连通区域的面积值、几何重心点(u0,v0)、工件四个特征点(u1,v1)、(u2,v2)、(u3,v3)、(u4,v4)的像素坐标,以及四个特征点连线的长度。具体包括以下分步骤:
S11、开启相机设备,获取目标图像;
S12、将所述目标图像转为灰度图,并通过二值化处理,得到二值化图片;
S13、对所述二值化图片进行双边滤波,并进行图像可视化。
S2、设置工件目标位姿参数:通过示教器控制机器人抓取工件移动到目标位置下,识别此状态下工件的图像特征参数信息。具体包括以下分步骤:
S21、示教器调整机器人末端抓取工件到达目标位姿;
S22、通过相机获取标此时目标态下图像处理后的图像;
S23、根据BLOB连通区域检测算法,识别出此时工件的图像特征信息,包括连通区域几何重心P0(u0,v0)、面积大小S、四个角点特征像素坐标P1(u1,v1)、P2(u2,v2)、P3(u3,v3)、P4(u4,v4)以及其连线长度l1、l2、l3、l4;定义LRX=l1-13,LRY=12-14,如图2所示。
S3、构建深度映射比例因子,识别提取多种图像特征信息:多次移动示教器,获取图像空间特征信息与笛卡尔空间坐标的映射关系。具体包括以下分步骤:
S31、保持其他轴线不动,在S21的基础上通过示教器沿RX、RY、Z轴各个方向分别进行10次小幅度测试运动;
S32、每次运动后,通过相机采集当前位置下的工件图像信息,并提取其图像特征;
S33、每次运动后,记录沿Z轴移动ΔZi量时图像中工件连通区域面积值ΔS、沿RX轴转动ΔRX度时所对应的ΔLRX的值、沿RY轴转动ΔRY度时所对应的ΔLRY的值;
其中,ΔS、ΔLRX、ΔLRY是两次运动中,图像识别到的工件面积、对边之差的偏差;ΔZi、ΔRX、ΔRY是两次运动中工件在笛卡尔坐标系下的Z轴高度、RX轴转角、RY轴转角的偏差;
S34、将得到的数值通过曲线拟合,构建方程得到对应特征的映射比例因子kx、ky、ai、bi、ci。其中RX、RY旋转角方程可用线性函数拟合,深度值估计函数可用二次函数拟合。通过ΔLRX、ΔLRY的值调整RX、RY旋转角,使之与目标位姿平行,再参考所识别的面积值S来估计工件距离相机的深度值Zi;
当进行RX、RY旋转角调整时,需要先将连通区域几何重心点P0(u0,v0)根据目标u0、v0的像素值运动到指定位置,再调整RX、RY角度旋转量。
S4、构建图像雅可比矩阵,将所述图像雅可比矩阵与深度映射信息融合,得到控制率:对机器人和相机进行标定,获得图像雅可比矩阵。具体包括以下分步骤:
S41、根据特征点P1和P2所在直线确定末端相对于目标物体的期望姿态偏转角度,如图4所示。具体采用以下公式:
S42、基于特征点确定图像雅可比矩阵;特征点P0在相机坐标系下的移动速度即末端执行机构在相机坐标系下的移动速度为V=[Tx Ty Tz ωxωy ωz]T,其向量分别为沿着X、Y、Z轴方向的线速度和角速度量;再求得特征点P(u,v)在X、Y、Z轴方向上的速度:
得到平面点的速度与点在相机坐标系下的速度之间的相对关系,即基于图像的控制率为:
S43、再将S34所估计出来的深度信息值Zi带入图像雅可比矩阵J0中进行融合,得到控制率:
S5、基于控制率得到机器人的运动控制量,从而达到指定位置:结合图像雅可比矩阵,设计控制率算法,得到对应的各自由度控制量,进行伺服运动,到达目标位姿。具体包括以下分步骤:
S51、基于图像像素误差,根据视觉特征e=(s--s*)返回向量形式的误差,依次表示X、Y、Z三个维度上的视觉特征误差;
S52、基于所述图像像素误差得到机械臂末端速度vc=λJ1Ve,其中λ表示控制机械臂移动速度系数,e表示视觉特征误差向量,J1V为控制率;
S53、机器人末端按照指定速度移动,直到图像像素误差小于设定值完成伺服任务,如图5所示;
当完成S5步骤之后,再从S3步骤开始判断是否需要再次调整RX、RY旋转角,依次进行伺服调整,直到机器人六个自由的位置均在设定误差范围内,则跳出循环,完成视觉伺服任务。
综上所述,本发明基于深度映射及图像雅可比矩阵混合的六自由度视觉伺服方法,使用单个2D工业相机完成“eye-to-hand”模式下的视觉伺服控制任务,不需要增加其他传感器,并且在能够保证其控制精度的条件下,实现基于图像的简单控制,提高控制效率,缩短作业节拍。通过对多种不同图像特征信息的提取、处理以及融合,从而控制机械臂的移动,并到达指定位置,完成视觉伺服下的工件位姿调整任务,计算量小,且定位精度高,实时性好。
以上对本发明的实施例进行了详细说明,但所述内容仅为本发明的较佳实施例,不能被认为用于限定本发明的实施范围。凡依本发明申请范围所作的均等变化与改进等,均应仍归属于本发明的专利涵盖范围之内。
Claims (6)
1.一种基于多种图像特征信息混合的视觉伺服方法,其特征在于,包括以下步骤:
S1、采集并处理图像:固定2D相机,使其工作视野能覆盖工件移动范围;打开相机设备采集图像并进行图像处理;
S2、设置工件目标位姿参数:通过示教器控制机器人抓取工件移动到目标位置下,识别此状态下工件的图像特征参数信息;
S3、构建深度映射比例因子,识别提取多种图像特征信息:多次移动示教器,获取图像空间特征信息与笛卡尔空间坐标的映射关系;
S4、构建图像雅可比矩阵,将图像雅可比矩阵与深度映射信息融合,得到控制率:对机器人和相机进行标定,获得图像雅可比矩阵;
S5、基于上述控制率得到机器人的运动控制量,从而达到指定位置:结合图像雅可比矩阵,设计控制率算法,得到对应的各自由度控制量,进行伺服运动,到达目标位姿;
其中,视觉伺服控制基于6自由度的笛卡尔空间坐标系,分别为X、Y、Z、RX、RY、RZ;其中X、Y、Z三个方向是机器人在三维坐标系下的轴线方向,RX、RY、RZ三个方向是机器人末端关节分别绕X、Y、Z轴的旋转方向。
2.根据权利要求1所述的一种基于多种图像特征信息混合的视觉伺服方法,其特征在于,在步骤1中,工件的图像特征具体为:连通区域的面积值、几何重心点(u0,v0)、工件四个特征点(u1,v1)、(u2,v2)、(u3,v3)、(u4,v4)的像素坐标,以及四个特征点连线的长度,具体包括以下分步骤:
S11、开启相机设备,获取目标图像;
S12、将所述目标图像转为灰度图,并通过二值化处理,得到二值化图片;
S13、对所述二值化图片进行双边滤波,并进行图像可视化。
3.根据权利要求2所述的一种基于多种图像特征信息混合的视觉伺服方法,其特征在于,在步骤2中,具体包括以下分步骤:
S21、示教器调整机器人末端抓取工件到达目标位姿;
S22、通过相机获取标此时目标态下图像处理后的图像;
S23、根据BLOB连通区域检测算法,识别出此时工件的图像特征信息,包括连通区域几何重心P0(u0,v0)、面积大小S、四个角点特征像素坐标P1(u1,v1)、P2(u2,v2)、P3(u3,v3)、P4(u4,v4)以及其连线长度l1、l2、l3、l4,定义LRX=l1-l3,LRY=l2-l4。
4.根据权利要求3所述的一种基于多种图像特征信息混合的视觉伺服方法,其特征在于,在步骤3中,具体包括以下分步骤:
S31、保持其他轴线不动,在S21的基础上通过示教器沿RX、RY、Z轴各个方向分别进行若干次小幅度测试运动;
S32、每次运动后,通过相机采集当前位置下的工件图像信息,并提取其图像特征;
S33、每次运动后,记录沿Z轴移动ΔZi量时图像中工件连通区域面积值ΔS、沿RX轴转动ΔRX度时所对应的ΔLRX的值、沿RY轴转动ΔRY度时所对应的ΔLRY的值;
其中,ΔS、ΔLRX、ΔLRY是两次运动中,图像识别到的工件面积、对边之差的偏差;ΔZi、ΔRX、ΔRY是两次运动中工件在笛卡尔坐标系下的Z轴高度、RX轴转角、RY轴转角的偏差;
5.根据权利要求4所述的一种基于多种图像特征信息混合的视觉伺服方法,其特征在于,在步骤4中,具体包括以下分步骤:
S41、根据特征点P1和P2所在直线确定末端相对于目标物体的期望姿态偏转角度,具体采用以下公式:
S42、基于特征点确定图像雅可比矩阵;特征点P0在相机坐标系下的移动速度即末端执行机构在相机坐标系下的移动速度为V=[Tx Ty Tz ωx ωy ωz]T,其向量分别为沿着X、Y、Z轴方向的线速度和角速度量;再求得特征点P(u,v)在X、Y、Z轴方向上的速度:
得到平面点的速度与点在相机坐标系下的速度之间的相对关系,即基于图像的控制率为:
S43、再将S34所估计出来的深度信息值Zi带入图像雅可比矩阵J0中进行融合,得到控制率:
6.根据权利要求5所述的一种基于多种图像特征信息混合的视觉伺服方法,其特征在于,在步骤5中,具体包括以下分步骤:
S51、基于图像像素误差,根据视觉特征e=(s-s*)返回向量形式的误差,依次表示X、Y、Z三个维度上的视觉特征误差;
S52、基于图像像素误差得到机械臂末端速度vc=λJ1Ve,其中λ表示控制机械臂移动速度系数,e表示视觉特征误差向量,J1V为控制率;
S53、机器人末端按照指定速度移动,直到图像像素误差小于设定值完成伺服任务。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211132649.XA CN115446836B (zh) | 2022-09-17 | 2022-09-17 | 一种基于多种图像特征信息混合的视觉伺服方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211132649.XA CN115446836B (zh) | 2022-09-17 | 2022-09-17 | 一种基于多种图像特征信息混合的视觉伺服方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115446836A true CN115446836A (zh) | 2022-12-09 |
CN115446836B CN115446836B (zh) | 2023-09-12 |
Family
ID=84304458
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211132649.XA Active CN115446836B (zh) | 2022-09-17 | 2022-09-17 | 一种基于多种图像特征信息混合的视觉伺服方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115446836B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117506937A (zh) * | 2024-01-04 | 2024-02-06 | 中铁十四局集团大盾构工程有限公司 | 一种基于多阶段视觉伺服控制的焊件自主摆放方法 |
CN118578429A (zh) * | 2024-07-31 | 2024-09-03 | 苏州元脑智能科技有限公司 | 一种自动化搬运装置、方法、设备、存储介质及程序产品 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001198869A (ja) * | 2000-01-17 | 2001-07-24 | Seiko Seiki Co Ltd | ロボットの対象物追尾装置及び追尾方法 |
US20090033655A1 (en) * | 2007-08-02 | 2009-02-05 | Boca Remus F | System and method of three-dimensional pose estimation |
CN106737774A (zh) * | 2017-02-23 | 2017-05-31 | 天津商业大学 | 一种无标定机械臂视觉伺服控制装置 |
CN107883929A (zh) * | 2017-09-22 | 2018-04-06 | 中冶赛迪技术研究中心有限公司 | 基于多关节机械臂的单目视觉定位装置及方法 |
CN107901041A (zh) * | 2017-12-15 | 2018-04-13 | 中南大学 | 一种基于图像混合矩的机器人视觉伺服控制方法 |
CN109202948A (zh) * | 2018-11-14 | 2019-01-15 | 上海交通大学 | 一种力控机械爪 |
CN113172632A (zh) * | 2021-05-12 | 2021-07-27 | 成都瑞特数字科技有限责任公司 | 一种基于图像的简化机器人视觉伺服控制方法 |
-
2022
- 2022-09-17 CN CN202211132649.XA patent/CN115446836B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001198869A (ja) * | 2000-01-17 | 2001-07-24 | Seiko Seiki Co Ltd | ロボットの対象物追尾装置及び追尾方法 |
US20090033655A1 (en) * | 2007-08-02 | 2009-02-05 | Boca Remus F | System and method of three-dimensional pose estimation |
CN106737774A (zh) * | 2017-02-23 | 2017-05-31 | 天津商业大学 | 一种无标定机械臂视觉伺服控制装置 |
CN107883929A (zh) * | 2017-09-22 | 2018-04-06 | 中冶赛迪技术研究中心有限公司 | 基于多关节机械臂的单目视觉定位装置及方法 |
CN107901041A (zh) * | 2017-12-15 | 2018-04-13 | 中南大学 | 一种基于图像混合矩的机器人视觉伺服控制方法 |
CN109202948A (zh) * | 2018-11-14 | 2019-01-15 | 上海交通大学 | 一种力控机械爪 |
CN113172632A (zh) * | 2021-05-12 | 2021-07-27 | 成都瑞特数字科技有限责任公司 | 一种基于图像的简化机器人视觉伺服控制方法 |
Non-Patent Citations (5)
Title |
---|
HENG ZHANG: "A Task-Priority Coordinated Motion Planner Combined with Visual Servo for Mobile Manipulator", IEEE XPLORE, pages 7 - 12 * |
XU ZHAO: "3D visual sensing technique based on focal stack for snake robotic applications", RESULTS IN PHYSICS, no. 12, pages 1520 - 1528, XP055893346, DOI: 10.1016/j.rinp.2019.01.045 * |
卢张俊: "搬运装配机器人视觉引导智能作业系统与应用软件开发", 中国优秀硕士学位论文全文数据库, no. 4, pages 138 - 2716 * |
戴智武: "Delta并联机器人机构参数误差分析及标定方法研究", 机电一体化, vol. 22, no. 3, pages 8 - 12 * |
谷雨: "一种适用于局部特征的混合视觉伺服方法", 控制与决策, vol. 25, no. 1, pages 43 - 47 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117506937A (zh) * | 2024-01-04 | 2024-02-06 | 中铁十四局集团大盾构工程有限公司 | 一种基于多阶段视觉伺服控制的焊件自主摆放方法 |
CN117506937B (zh) * | 2024-01-04 | 2024-03-12 | 中铁十四局集团大盾构工程有限公司 | 一种基于多阶段视觉伺服控制的焊件自主摆放方法 |
CN118578429A (zh) * | 2024-07-31 | 2024-09-03 | 苏州元脑智能科技有限公司 | 一种自动化搬运装置、方法、设备、存储介质及程序产品 |
Also Published As
Publication number | Publication date |
---|---|
CN115446836B (zh) | 2023-09-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110116407B (zh) | 柔性机器人位姿测量方法及装置 | |
CN115446836B (zh) | 一种基于多种图像特征信息混合的视觉伺服方法 | |
CN111801198B (zh) | 一种手眼标定方法、系统及计算机存储介质 | |
CN111775146A (zh) | 一种工业机械臂多工位作业下的视觉对准方法 | |
CN108621167B (zh) | 一种基于轮廓边及内包圆特征的视觉伺服解耦控制方法 | |
CN109358507B (zh) | 一种时变性能边界约束的视觉伺服自适应跟踪控制方法 | |
CN110253574B (zh) | 一种多任务机械臂位姿检测和误差补偿方法 | |
CN113001535A (zh) | 机器人工件坐标系自动校正系统与方法 | |
CN110695991A (zh) | 基于变异粒子群优化的自动手眼标定方法 | |
CN113146620A (zh) | 基于双目视觉的双臂协作机器人系统和控制方法 | |
CN114001653B (zh) | 一种机器人工具中心点标定方法 | |
CN112917513A (zh) | 一种基于机器视觉的三维点胶针头的tcp标定方法 | |
CN113751981B (zh) | 基于双目视觉伺服的空间高精度装配方法和系统 | |
CN114310901B (zh) | 用于机器人的坐标系标定方法、装置、系统以及介质 | |
CN113618367B (zh) | 基于七自由度并联双模块机器人的多视觉空间装配系统 | |
CN115179323A (zh) | 基于远心视觉约束的机器末位姿测量装置及精度提升方法 | |
CN113211433B (zh) | 一种基于复合特征的分离式视觉伺服控制方法 | |
CN110928311A (zh) | 一种基于全景相机下直线特征的室内移动机器人导航方法 | |
CN112700505B (zh) | 一种基于双目三维跟踪的手眼标定方法、设备及存储介质 | |
CN116117785A (zh) | 用于标定机器人的运动学参数的方法和装置 | |
CN116652934A (zh) | 一种基于双目视觉的火箭贮箱检测双机器人路径规划方法 | |
CN109895098A (zh) | 一种机器人结构参数和手眼关系的统一标定模型 | |
CN111699445A (zh) | 机器人运动学模型优化方法、系统和存储装置 | |
CN107443369A (zh) | 一种基于视觉测量模型逆辨识的机器臂无标定伺服控制方法 | |
CN112123329A (zh) | 一种机器人3d视觉手眼标定方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |