CN115122325A - 一种具有视场约束的拟人化机械手鲁棒视觉伺服控制方法 - Google Patents

一种具有视场约束的拟人化机械手鲁棒视觉伺服控制方法 Download PDF

Info

Publication number
CN115122325A
CN115122325A CN202210757608.3A CN202210757608A CN115122325A CN 115122325 A CN115122325 A CN 115122325A CN 202210757608 A CN202210757608 A CN 202210757608A CN 115122325 A CN115122325 A CN 115122325A
Authority
CN
China
Prior art keywords
robot
joint
camera
arm
mechanical arm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210757608.3A
Other languages
English (en)
Inventor
王耀南
姜娇
江一鸣
毛建旭
朱青
谭浩然
谢核
冯运
彭伟星
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan University
Original Assignee
Hunan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan University filed Critical Hunan University
Priority to CN202210757608.3A priority Critical patent/CN115122325A/zh
Publication of CN115122325A publication Critical patent/CN115122325A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/1605Simulation of manipulator lay-out, design, modelling of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10821Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices
    • G06K7/10861Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices sensing of data fields affixed to objects or articles, e.g. coded labels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1408Methods for optical code recognition the method being specifically adapted for the type of code
    • G06K7/14172D bar codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1439Methods for optical code recognition including a method step for retrieval of the optical code
    • G06K7/1452Methods for optical code recognition including a method step for retrieval of the optical code detecting bar code edges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Abstract

本发明公开了一种具有视场约束的拟人化机械手鲁棒视觉伺服控制方法,通过安装在机器人手腕的相机传感器采集工件上的二维码图像并发送给工控机;工控机实时识别图像特征以及生成7DOF机器人控制信号,并将该控制信号发送给机器人,完成对视觉特征点的跟踪;模仿人类7自由度手臂结构定义7DOF拟人机械臂的肩、肘和腕关节,计算臂角;将障碍李雅普诺夫函数与臂角相结合设计具有仿人特性的视觉伺服视场约束控制器,间接约束跟踪过程中特征点轨迹保留在相机视场范围内,同时机械臂能够实现基于臂角旋转的仿人运动,设计滑模力矩控制器驱动机器人到达期望特征位置,最后约束特征点不超出相机视野范围,提高视觉伺服任务成功率,以及实现仿人的臂角旋转运动。

Description

一种具有视场约束的拟人化机械手鲁棒视觉伺服控制方法
技术领域
本发明涉及机器人视觉引导技术领域,特别是涉及一种具有视场约束的拟人化机械手鲁棒视觉伺服控制方法。
背景技术
针对视觉伺服任务过程中视觉特征丢失问题的研究工作已经提出许多。一些研究工作试图使用路径规划来避免图像特征轨迹超出相机FOV。有学者设计了在虚拟图像平面中定义的图像矩的轨迹,以解决四旋翼飞行器的基于图像的控制任务。还有学者通过对相机的速度旋量进行参数化,并通过所提出的深度估计技术提供精确的初始深度,从而克服了视觉伺服的缺点,开发了一种轨迹规划算法。混合视觉伺服方案也被应用于约束特征点不超出相机视场范围。有学者设计了一个控制框架,该框架结合了基于位置和基于图像的视觉伺服的优势,以控制配备机械臂的飞行器,而不会在操作过程中丢失特征。有学者针对移动机器人的视觉伺服提出了一种新的无线混合控制算法,该混合算法利用基于位置的视觉伺服(PBVS)方法进行全局路由,利用IBVS方法进行精细导航。上述策略可以保证视觉伺服任务过程中的视场约束,但存在大量的在线非线性优化问题,其在机器人系统中的实时可行性值得怀疑。
障碍李雅普诺夫函数近年来被广泛用于约束非线性系统的性能,在李雅普诺夫稳定性分析过程中直接给出了控制律。有学者采用BLF来确保单输入输出非线性系统保持在输出约束范围内。受这些想法的启发,为解决上述缺陷并保证视觉伺服任务的成功,考虑将BLF与基于图像的视觉伺服相结合,以约束图像特征点停留在FOV内并保证视觉伺服系统的稳定性。
另一个问题是由于机器人系统建模不准确而导致的系统动力学不确定性,影响了视觉伺服控制系统的稳定性和控制精度。针对这个问题已经提出了各种解决方案,滑模控制是提高控制系统鲁棒性的可行方法。有学者提出一种结合滑模控制(SMC)和Takagi-Sugeno模糊系统模型的控制方法,可以有效补偿机器人系统的非线性扰动和不确定性。有学者设计了一种快速集成终端滑模控制,以处理机器人机械手的系统不确定性。在这项研究中,提出了与IBVS相结合的SMC控制定律,以处理7-DOF冗余机器人操纵器的不确定性。
针对现有技术中视觉伺服存在视觉特征丢失从而导致视觉引导任务失败,以及系统建模带来的不确定性问题,提出本申请的专利。
发明内容
针对以上技术问题,本发明提供了一种具有视场约束的拟人化机械手鲁棒视觉伺服控制方法。
本发明解决其技术问题采用的技术方案是:
一种具有视场约束的拟人化机械手鲁棒视觉伺服控制方法,方法包括以下步骤:
步骤S100:利用N点法对视觉伺服系统进行标定,得到相机与末端坐标系之间的转换关系;
步骤S200:结合机械臂动态模型、视觉系统动态模型以及相机与末端坐标系之间的转换关系建立机器人视觉伺服系统整体动态模型;
步骤S300:相机实时获取工件上的二维码图像,将二维码图像发送至工控机,工控机提取二维码图像的四个角点作为当前特征点,根据当前特征点和预设的期望特征点得到特征点位置误差向量;
步骤S400:模仿7DOF人类手臂的特点选择机械臂的肩关节、肘关节以及腕关节,计算臂角的大小,利用零空间投影将臂角投影到机械臂零空间,通过臂角与零空间关节角速度之间的映射关系得出零空间关节角速度,根据零空间关节角速度和特征点位置误差向量,结合障碍李雅普诺夫函数设计具有仿人特性的视觉伺服视场约束控制器,得到期望关节角速度;
步骤S500:获取当前关节角速度,根据期望关节角速度和当前关节角速度得到关节角速度误差向量,根据期望关节角速度和当前关节角速度误差向量,结合障碍李雅普诺夫函数设计机器人力矩控制器,并引入滑模控制对机器人模型未知参数变量进行补偿,得到控制信号;
步骤S600:将控制信号发送给机器人,驱动机器人到达期望特征点位置并保证特征点轨迹不超出相机视场范围,机械臂在视觉引导过程中同时进行模仿人类臂角的旋转运动。
优选地,步骤S100包括:
步骤S110:准备一个带有N个点的标定板;
步骤S120:将标定板随机姿态放置在摄像头下方;
步骤S130:利用RealSense相机拍摄标定板图像;
步骤S140:计算图像中N个圆点的圆心像素坐标;
步骤S150:以四元数形式记录此时Sawyer机械臂末端执行器的三维位姿;
步骤S160:重复步骤S120-S150一共12次;
步骤S170:解算2D-3D数据,求出一组标定板与相机之间的坐标转换关系cTo
步骤S180:根据cTo,计算相机与机械臂末端坐标系的转换关系,具体为:
BTe2×eTc2×c2ToBTe1×eTc1×c1To
Figure BDA0003723118040000031
其中,BTe1BTe2分别为机械臂两组末端位姿相对于机械臂基座的坐标转换关系矩阵,c1Toc2To分别为机械臂两组不同末端位姿下相机与标定板之间的坐标转换关系,eTc1eTc2分别为所求的机械臂末端执行器与相机之间的坐标转换关系,满足eTc1eTc2
步骤S190:根据坐标变换关系等式求出机械臂末端与相机坐标系之间的转换关系eTc具体为:
Figure BDA0003723118040000032
优选地,步骤S200包括:
步骤S210:通过机械臂末端与相机坐标系之间的转换关系求出相机速度与末端速度之间转换关系矩阵,具体为:
Figure BDA0003723118040000033
步骤S220:特征点速度与相机速度之间存在如下关系:
Figure BDA0003723118040000034
其中,
Figure BDA0003723118040000041
为特征点速度,L为图像交互矩阵,Vc为相机速度;
机械臂关节角速度与末端速度存在转换关系,具体为:
Figure BDA0003723118040000042
其中,Ve为机械臂末端执行器速度,Jq∈R6×n为机械臂雅可比矩阵;通过机械臂末端与相机之间的速度转换矩阵Wce,有Vc=WceVe,可以得到视觉系统动态模型,具体为:
Figure BDA0003723118040000043
其中,Js=LWceJq为任务雅可比矩阵;
步骤S230:N连杆的刚性机器人系统的动力学模型,具体为:
Figure BDA0003723118040000044
其中,
Figure BDA0003723118040000045
分别表示关节角位置、关节角速度和关节角加速度变量,τ∈Rn是转矩控制输入变量,M(q)∈Rn×n是机器人的惯性矩阵,
Figure BDA0003723118040000046
是向心力和科氏力矩阵,G(q)∈Rn表示引力矩阵;
机械臂动态模型可表示为:
Figure BDA0003723118040000047
步骤S240:结合视觉系统动态模型,得到视觉伺服系统整体动态模型,具体为:
Figure BDA0003723118040000048
其中z为相机到特征点的深度信息;
优选地,步骤S300中根据当前特征点和预设的期望特征点得到特征点位置误差向量,具体为:
z1=s-sd
s=(ui,vi)T,sd=(uid,vid)T,i=1,2,...,m
其中,z1为特征点位置误差向量,s为当前特征点,sd为期望特征点。
优选地,步骤S400包括:
步骤S410:选取障碍李雅普诺夫候选函数V1为:
Figure BDA0003723118040000051
其中,ka1=[ka11,ka12,...,ka1i]T,i=1,2,...,2m为图像特征点误差向量z1=[z11,z12,...,z1v]T∈Rv,v=2m的约束边界;
步骤S420:对V1进行对时间的微分,得到:
Figure BDA0003723118040000052
特征点z1误差关于时间的导数为
Figure BDA0003723118040000053
带入
Figure BDA0003723118040000054
并引入图像特征位置约束,设计α为:
Figure BDA0003723118040000055
其中,
Figure BDA0003723118040000056
为任务雅可比矩阵Js的Moore-Penrose伪逆形式,k1=[k11,k12,...,k1i]T,i=1,2,...,n为正常数;
步骤S430:选取Sawyer七自由度拟人机械臂的关节1为肩关节(S),关节3为肘关节(E),关节6为腕关节(W),计算臂角ψ:
Figure BDA0003723118040000057
其中,
Figure BDA0003723118040000058
表示从机械臂的基座到肩部的矢量,
Figure BDA0003723118040000059
是机械臂从肩部到肘部的矢量,
Figure BDA00037231180400000510
是机械臂从肩部到手腕的矢量,
Figure BDA00037231180400000511
是从机器人的肘部到手腕的矢量;
步骤S440:计算步骤S430所提到的三个关节组成的臂角平面线速度方向向量lψ∈R3×1,具体为:
Figure BDA00037231180400000512
步骤S450:利用臂角与零空间关节角速度的映射关系JE,得到零空间关节角速度
Figure BDA00037231180400000513
表达式:
Figure BDA0003723118040000061
其中,JE∈R3×3表示臂角与零空间关节速度之间的映射关系,该映射关系JE是从机器人的肘部到底座计算的,
Figure BDA0003723118040000062
是臂角ψ的微分;
步骤S460:通过机器人雅可比矩阵的零空间投影关系,得到具有臂角运动的视觉伺服视场约束控制器,将视觉伺服视场约束控制器α重写为:
Figure BDA0003723118040000063
其中,I∈R6×n为单位矩阵;
优选地,步骤S500包括:
步骤S510:选取障碍李雅普诺夫候选函数V2如下:
Figure BDA0003723118040000064
步骤S520:对V2进行时间的微分,得到
Figure BDA0003723118040000065
表达式以便分析系统稳定性与后续设计力矩控制器:
Figure BDA0003723118040000066
步骤S530:根据期望关节角速度和当前关节角速度误差向量,结合障碍李雅普诺夫函数设计机器人力矩控制器τ使系统稳定:
Figure BDA0003723118040000067
步骤S540:利用基于视觉伺服的滑模控制补偿力矩控制器中机器人未知参数项
Figure BDA0003723118040000068
增强系统鲁棒性,基于视觉伺服视场约束控制器设计滑模面,滑模力矩控制器设计为:
Figure BDA0003723118040000069
其中,
Figure BDA00037231180400000610
和k2=[k21,k22,...,k2i]T,i=1,2,...,n为正常数。
上述一种具有视场约束的拟人化机械手鲁棒视觉伺服控制方法,相机传感器用于采集工件上的二维码图像并发送给工控机;工控机实时识别图像特征以及生成7DOF机器人控制信号,并将该控制信号通过局域网络发送给机器人,完成对于视觉特征点的跟踪;为了让机械臂具备仿人特性,模仿人类7自由度手臂结构,定义7DOF拟人机械臂的肩关节、肘关节以及腕关节,计算臂角;将障碍李雅普诺夫函数与臂角相结合设计具有仿人特性的视觉伺服视场约束控制器,间接约束跟踪过程中特征点轨迹保留在相机视场范围内,同时机械臂能够实现基于臂角旋转的仿人运动;设计滑模(SMC)力矩控制器驱动机器人到达期望特征位置,滑模控制用于处理机器人建模以及相机系统模型重建带来的系统不确定性,增强系统的鲁棒性;本发明最后能够约束特征点不超出相机视野范围,提高视觉伺服任务成功率,以及实现仿人的臂角旋转运动,为人机协作提供更多可能性。
附图说明
图1为本发明一实施例中一种具有视场约束的拟人化机械手鲁棒视觉伺服控制方法流程图;
图2为本发明一实施例中视觉伺服系统软硬件平台架构图;
图3为本发明一实施例中定义在Sawyer机器人上的臂角示意图;
图4为本发明一实施例中视觉伺服视野约束控制方法执行效果示意图,其中,图(a)是经典视觉伺服控制方法与PID控制方法下的执行效果,图(b)是视觉伺服视场约束控制器与滑模力矩控制器下的执行效果;
图5为本发明一实施例中臂角值变化曲线。
具体实施方式
为了使本技术领域的人员更好地理解本发明的技术方案,下面结合附图对本发明作进一步的详细说明。
在一个实施例中,如图1所示,一种具有视场约束的拟人化机械手鲁棒视觉伺服控制方法,方法包括以下步骤:
步骤S100:利用N点法对视觉伺服系统进行标定,得到相机与末端坐标系之间的转换关系。
在一个实施例中,步骤S100包括:
步骤S110:准备一个带有N个点的标定板;
步骤S120:将标定板随机姿态放置在摄像头下方;
步骤S130:利用RealSense相机拍摄标定板图像;
步骤S140:计算图像中N个圆点的圆心像素坐标;
步骤S150:以四元数形式记录此时Sawyer机械臂末端执行器的三维位姿;
步骤S160:重复步骤S120-S150一共12次;
步骤S170:解算2D-3D数据,求出一组标定板与相机之间的坐标转换关系cTo
步骤S180:根据cTo,计算相机与机械臂末端坐标系的转换关系,具体为:
BTe2×eTc2×c2ToBTe1×eTc1×c1To
Figure BDA0003723118040000081
其中,BTe1BTe2分别为机械臂两组末端位姿相对于机械臂基座的坐标转换关系矩阵,c1Toc2To分别为机械臂两组不同末端位姿下相机与标定板之间的坐标转换关系,eTc1eTc2分别为所求的机械臂末端执行器与相机之间的坐标转换关系,满足eTc1eTc2
步骤S190:根据坐标变换关系等式求出机械臂末端与相机坐标系之间的转换关系eTc,具体为:
Figure BDA0003723118040000082
进一步地,在步骤S100之前,还包括步骤S000:搭建视觉伺服系统软硬件平台。具体如图2所示,Sawyer机器人的末端执行器配备了RealSenseD435i摄像头,采用眼在手结构。视觉部分包含RealSenseD435i摄像头、AprilTag二维码和视觉伺服平台(ViSP)。AprilTag图像由RealSenseD435i摄像头在线捕获并发送到ViSP。ViSP对标签进行解码,提取AprilTag的角点坐标作为特征点,计算视觉部分控制律。Sawyer机器人的力矩水平控制器是通过Intera_SDK实现。Intera_SDK和ViSP在配备Ubuntu18.04和ROSmelodic的计算机上运行。由于编程语言不兼容,因此使用ROS话题来传输两个编程平台之间交互的数据。
步骤S200:结合机械臂动态模型、视觉系统动态模型以及相机与末端坐标系之间的转换关系建立机器人视觉伺服系统整体动态模型。
在一个实施例中,步骤S200包括:
步骤S210:通过机械臂末端与相机坐标系之间的转换关系求出相机速度与末端速度之间转换关系矩阵,具体为:
Figure BDA0003723118040000091
步骤S220:特征点速度与相机速度之间存在如下关系:
Figure BDA0003723118040000092
其中,
Figure BDA0003723118040000093
为特征点速度,L为图像交互矩阵,Vc为相机速度;
机械臂关节角速度与末端速度存在转换关系,具体为:
Figure BDA0003723118040000094
其中,Ve为机械臂末端执行器速度,Jq∈R6×n为机械臂雅可比矩阵;通过机械臂末端与相机之间的速度转换矩阵Wce,有Vc=WceVe,可以得到视觉系统动态模型,具体为:
Figure BDA0003723118040000095
其中,Js=LWceJq为任务雅可比矩阵;
步骤S230:N连杆的刚性机器人系统的动力学模型,具体为:
Figure BDA0003723118040000096
其中,
Figure BDA0003723118040000097
分别表示关节角位置、关节角速度和关节角加速度变量,τ∈Rn是转矩控制输入变量,M(q)∈Rn×n是机器人的惯性矩阵,
Figure BDA0003723118040000098
是向心力和科氏力矩阵,G(q)∈Rn表示引力矩阵;
机械臂动态模型可表示为:
Figure BDA0003723118040000099
步骤S240:结合视觉系统动态模型,得到视觉伺服系统整体动态模型,具体为:
Figure BDA0003723118040000101
其中,z为相机到特征点的深度信息;
步骤S300:相机实时获取工件上的二维码图像,将二维码图像发送至工控机,工控机提取二维码图像的四个角点作为当前特征点,根据当前特征点和预设的期望特征点得到特征点位置误差向量。
在一个实施例中,步骤S300中根据当前特征点和预设的期望特征点得到特征点位置误差向量,具体为:
z1=s-sd
s=(ui,vi)T,sd=(uid,vid)T,i=1,2,...,m其中,z1为特征点位置误差向量,s为当前特征点,sd为期望特征点。
具体地,z1=[z11,z12,...,z1v]T∈Rv,v=2m,其中z1(v-1)=um-umd,z1v=vm-vmd,因此s=(ui,vi)T的维数为m,z的维数为2m。
相机视野下拍摄的二维码图像,利用VISP视觉伺服算法库处理AprilTag图像,提取二维码四个角点为特征点。
步骤S400:模仿7DOF人类手臂的特点选择机械臂的肩关节、肘关节以及腕关节,计算臂角的大小,利用零空间投影将臂角投影到机械臂零空间,通过臂角与零空间关节角速度之间的映射关系得出零空间关节角速度,根据零空间关节角速度和特征点位置误差向量,结合障碍李雅普诺夫函数设计具有仿人特性的视觉伺服视场约束控制器,得到期望关节角速度。
在一个实施例中,步骤S400包括:
步骤S410:选取障碍李雅普诺夫候选函数V1为:
Figure BDA0003723118040000102
其中,ka1=[ka11,ka12,...,ka1i]T,i=1,2,...,2m为图像特征点误差向量z1=[z11,z12,...,z1v]T∈Rv,v=2m的约束边界。
具体地,为了推动约束IBVS任务的过程,应用障碍李雅普诺夫函数设计IBVS控制策略并选择BLF候选函数。
步骤S420:对V1进行对时间的微分,得到:
Figure BDA0003723118040000111
特征点z1误差关于时间的导数为
Figure BDA0003723118040000112
带入
Figure BDA0003723118040000113
并引入图像特征位置约束,设计α为:
Figure BDA0003723118040000114
其中,
Figure BDA0003723118040000115
为任务雅可比矩阵Js的Moore-Penrose伪逆形式,k1=[k11,k12,...,k1i]T,i=1,2,...,n为正常数;
步骤S430:选取Sawyer七自由度拟人机械臂的关节1为肩关节(S),关节3为肘关节(E),关节6为腕关节(W),计算臂角ψ:
Figure BDA0003723118040000116
其中,
Figure BDA0003723118040000117
表示从机械臂的基座到肩部的矢量,
Figure BDA0003723118040000118
是机械臂从肩部到肘部的矢量,
Figure BDA0003723118040000119
是机械臂从肩部到手腕的矢量,
Figure BDA00037231180400001110
是从机器人的肘部到手腕的矢量。
具体地,图3为臂角示意图,为了冗余机械臂完成具有FOV约束的视觉伺服任务时同时具备仿人特性,采用臂角来完成仿人控制。臂角ψ由实际平面(SEW)和参考平面(BSW)围绕轴
Figure BDA00037231180400001111
所成的夹角组成。
步骤S440:计算步骤S430所提到的三个关节组成的臂角平面线速度方向向量lψ∈R3×1,具体为:
Figure BDA00037231180400001112
步骤S450:利用臂角与零空间关节角速度的映射关系JE,得到零空间关节角速度
Figure BDA00037231180400001113
表达式:
Figure BDA0003723118040000121
其中,JE∈R3×3表示臂角与零空间关节速度之间的映射关系,该映射关系JE是从机器人的肘部到基座计算的,
Figure BDA0003723118040000122
是臂角ψ的微分。
针对视觉伺服任务,提出视觉伺服视场约束控制器
Figure BDA0003723118040000123
来跟踪所需的特征点坐标并将其限制在相机FOV中,其表示为:
Figure BDA0003723118040000124
其中,k1=[k11,k12,...,k1i]T,i=1,2,...,n为正常数,
Figure BDA0003723118040000125
表示驱动机械臂达到指定位置所需的关节速度。
步骤S460:通过机器人雅可比矩阵的零空间投影关系,得到具有臂角运动的视觉伺服视场约束控制器,将视觉伺服视场约束控制器α重写为:
Figure BDA0003723118040000126
其中,I∈R6×n为单位矩阵;具体地,设计了具备仿人臂角运动的视觉伺服视场约束控制器如上,可稳定视觉伺服系统并约束相机视场中的图像特征点,并引入了仿人的臂角旋转运动。
步骤S500:获取当前关节角速度,根据期望关节角速度和当前关节角速度得到关节角速度误差向量,根据期望关节角速度和当前关节角速度误差向量,结合障碍李雅普诺夫函数设计机器人力矩控制器,并引入滑模控制对机器人模型未知参数变量进行补偿,得到控制信号。
具体地,根据期望关节角速度和当前关节角速度得到关节角速度误差向量,具体为:
Figure BDA0003723118040000127
其中,
Figure BDA0003723118040000128
为当前关节角速度,α为期望关节角速度,z2为关节角速度误差向量。
在一个实施例中,步骤S500包括:
步骤S510:选取障碍李雅普诺夫候选函数V2如下:
Figure BDA0003723118040000129
步骤S520:对V2进行时间的微分,得到
Figure BDA0003723118040000131
表达式以便分析系统稳定性与后续设计力矩控制器:
Figure BDA0003723118040000132
步骤S530:根据期望关节角速度和关节角速度误差向量,结合障碍李雅普诺夫函数设计机器人力矩控制器τ使系统稳定:
Figure BDA0003723118040000133
具体地,力矩控制器中的
Figure BDA0003723118040000134
项未知,会导致控制性能差。存在一种基于机器人机械手的参数矢量,以满足
Figure BDA0003723118040000135
其中,
Figure BDA0003723118040000136
是已知联合变量的回归矩阵,存在上限
Figure BDA0003723118040000137
满足
Figure BDA0003723118040000138
是描述机械臂质量的未知常数参数矢量,上限
Figure BDA0003723118040000139
满足
Figure BDA00037231180400001310
为了克服这个问题并提高控制精度,定义
Figure BDA00037231180400001311
作为滑模面。
步骤S540:利用基于视觉伺服的滑模控制补偿力矩控制器中机器人未知参数项
Figure BDA00037231180400001312
增强系统鲁棒性,基于视觉伺服视场约束控制器设计滑模面为
Figure BDA00037231180400001313
滑模力矩控制器设计为:
Figure BDA00037231180400001314
其中,
Figure BDA00037231180400001315
和k2=[k21,k22,...,k2i]T,i=1,2,...,n为正常数。
步骤S600:将控制信号发送给机器人,驱动机器人到达期望特征点位置并保证特征点轨迹不超出相机视场范围,机械臂在视觉引导过程中同时进行模仿人类臂角的旋转运动。
具体地,根据所设计的控制器在工控机中编写相关程序,计算控制变量。首先将提取出的当前特征点图像坐标以及图像交互矩阵L打包为ROS话题的形式发送到Intera_SDK编程平台,编写具有仿人行为的视觉伺服视场约束控制器与滑模力矩控制器,调试机器人找到合适的控制参数以及约束边界,最终将控制量通过局域网发送给机械臂控制机器人到达期望特征点位置,并同时完成仿人臂角旋转运动。
图4是实验效果展示,图4(a)代表经典视觉伺服与PID力矩控制器进行视觉伺服引导实验,虚线框代表相机视场范围,可以看出特征点1和2都超出了视场范围,代表视觉伺服任务失败,图4(b)是本发明的验证结果,所有特征点都被约束在相机的视场范围内,验证了本发明的有效性。图5为臂角运动过程中臂角的值变化曲线。
与现有技术相比,本发明的优点在于:(1)开发与基于图像的视觉伺服(IBVS)控制相结合的仿人控制算法,通过机械臂运动学实现类似人手臂的旋转运动,使人机协作能够用于大多数典型的工业串行机械手;(2)障碍李雅普诺夫函数被创新地引入设计视觉伺服控制。使用视场约束控制器,视觉伺服系统的控制变量在满足视场(FOV)约束的同时,全部限制在BLF形成的约束范围内,提高了视觉伺服任务的成功率;(3)本发明针对7自由度冗余机械臂系统存在的动态不确定性,在提高视觉伺服系统稳定性的同时,提出一种IBVS组合滑模控制律,提高了机器人视觉伺服系统的鲁棒性。
本发明公开了一种适用于具有视场约束和臂角运动的拟人化机械手鲁棒视觉伺服控制方法,该系统由7自由度(DOF)机械手和安装在末端执行器上的相机传感器(眼在手)以及工控机组成,相机传感器用于采集工件上的二维码图像并发送给工控机;工控机实时识别图像特征以及生成7DOF机器人控制信号,并将该控制信号通过局域网络发送给机器人,完成对于视觉特征点的跟踪;为了让机械臂具备仿人特性,模仿人类7自由度手臂结构,定义7DOF拟人机械臂的肩关节、肘关节以及腕关节,计算臂角;将障碍李雅普诺夫函数与臂角相结合设计具有仿人特性的视觉伺服视场约束控制器,间接约束跟踪过程中特征点轨迹保留在相机视场范围内,同时机械臂能够实现基于臂角旋转的仿人运动;设计滑模(SMC)力矩控制器驱动机器人到达期望特征位置,滑模控制用于处理机器人建模以及相机系统模型重建带来的系统不确定性,增强系统的鲁棒性;本发明最后能够约束特征点不超出相机视野范围,提高视觉伺服任务成功率,以及实现仿人的臂角旋转运动,为人机协作提供更多可能性。
以上对本发明所提供的一种具有视场约束的拟人化机械手鲁棒视觉伺服控制方法进行了详细介绍。本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。

Claims (6)

1.一种具有视场约束的拟人化机械手鲁棒视觉伺服控制方法,其特征在于,所述方法包括以下步骤:
步骤S100:利用N点法对视觉伺服系统进行标定,得到相机与末端坐标系之间的转换关系;
步骤S200:结合机械臂动态模型、视觉系统动态模型以及所述相机与末端坐标系之间的转换关系建立机器人视觉伺服系统整体动态模型;
步骤S300:相机实时获取工件上的二维码图像,将所述二维码图像发送至工控机,所述工控机提取所述二维码图像的四个角点作为当前特征点,根据所述当前特征点和预设的期望特征点得到特征点位置误差向量;
步骤S400:模仿7DOF人类手臂的特点选择机械臂的肩关节、肘关节以及腕关节,计算臂角的大小,利用零空间投影将所述臂角投影到机械臂零空间,通过所述臂角与零空间关节角速度之间的映射关系得出零空间关节角速度,根据所述零空间关节角速度和所述特征点位置误差向量,结合障碍李雅普诺夫函数设计具有仿人特性的视觉伺服视场约束控制器,得到期望关节角速度;
步骤S500:获取当前关节角速度,根据所述期望关节角速度和所述当前关节角速度得到关节角速度误差向量,根据所述期望关节角速度和所述当前关节角速度误差向量,结合障碍李雅普诺夫函数设计机器人力矩控制器,并引入滑模控制对机器人模型未知参数变量进行补偿,得到控制信号;
步骤S600:将所述控制信号发送给机器人,驱动机器人到达期望特征点位置并保证特征点轨迹不超出相机视场范围,机械臂在视觉引导过程中同时进行模仿人类臂角的旋转运动。
2.根据权利要求1所述的方法,其特征在于,步骤S100包括:
步骤S110:准备一个带有N个点的标定板;
步骤S120:将标定板随机姿态放置在摄像头下方;
步骤S130:利用RealSense相机拍摄标定板图像;
步骤S140:计算图像中N个圆点的圆心像素坐标;
步骤S150:以四元数形式记录此时Sawyer机械臂末端执行器的三维位姿;
步骤S160:重复步骤S120-S150一共12次;
步骤S170:解算2D-3D数据,求出一组标定板与相机之间的坐标转换关系cTo
步骤S180:根据所述cTo,计算相机与机械臂末端坐标系的转换关系,具体为:
BTe2×eTc2×c2ToBTe1×eTc1×c1To
Figure FDA0003723118030000021
其中,BTe1BTe2分别为机械臂两组末端位姿相对于机械臂基座的坐标转换关系矩阵,c1Toc2To分别为机械臂两组不同末端位姿下相机与标定板之间的坐标转换关系,eTc1eTc2分别为所求的机械臂末端执行器与相机之间的坐标转换关系,满足eTc1eTc2
步骤S190:根据坐标变换关系等式求出机械臂末端与相机坐标系之间的转换关系eTc,具体为:
Figure FDA0003723118030000022
3.根据权利要求1所述的方法,其特征在于,步骤S200包括:
步骤S210:通过所述机械臂末端与相机坐标系之间的转换关系求出相机速度与末端速度之间转换关系矩阵,具体为:
Figure FDA0003723118030000023
步骤S220:特征点速度与相机速度之间存在如下关系:
Figure FDA0003723118030000024
其中,
Figure FDA0003723118030000025
为特征点速度,L为图像交互矩阵,Vc为相机速度;
机械臂关节角速度与末端速度存在转换关系,具体为:
Figure FDA0003723118030000026
其中,Ve为机械臂末端执行器速度,Jq∈R6×n为机械臂雅可比矩阵;通过机械臂末端与相机之间的速度转换矩阵Wce,有Vc=WceVe,可以得到视觉系统动态模型,具体为:
Figure FDA0003723118030000027
其中,Js=LWceJq为任务雅可比矩阵;
步骤S230:N连杆的刚性机器人系统的动力学模型,具体为:
Figure FDA0003723118030000031
其中,q,
Figure FDA0003723118030000032
分别表示关节角位置、关节角速度和关节角加速度变量,τ∈Rn是转矩控制输入变量,M(q)∈Rn×n是机器人的惯性矩阵,
Figure FDA0003723118030000033
是向心力和科氏力矩阵,G(q)∈Rn表示引力矩阵;
机械臂动态模型可表示为:
Figure FDA0003723118030000034
步骤S240:结合所述视觉系统动态模型,得到视觉伺服系统整体动态模型,具体为:
Figure FDA0003723118030000035
其中z为相机到特征点的深度变量。
4.根据权利要求3所述的方法,其特征在于,步骤S300中根据所述当前特征点和预设的期望特征点得到特征点位置误差向量,具体为:
z1=s-sd
s=(ui,vi)T,sd=(uid,vid)T,i=1,2,...,m
其中,z1为特征点位置误差向量,s为当前特征点,sd为期望特征点。
5.根据权利要求4所述的方法,其特征在于,步骤S400包括:
步骤S410:选取障碍李雅普诺夫候选函数V1为:
Figure FDA0003723118030000036
其中,ka1=[ka11,ka12,...,ka1i]T,i=1,2,...,2m为图像特征点误差向量z1=[z11,z12,...,z1v]T∈Rv,v=2m的约束边界;
步骤S420:对V1进行对时间的微分,得到:
Figure FDA0003723118030000041
特征点z1误差关于时间的导数为
Figure FDA0003723118030000042
带入
Figure FDA0003723118030000043
并引入图像特征位置约束,设计α为:
Figure FDA0003723118030000044
其中
Figure FDA0003723118030000045
为任务雅可比矩阵Js的Moore-Penrose伪逆形式,k1=[k11,k12,...,k1i]T,i=1,2,...,n为正常数;
步骤S430:选取Sawyer七自由度拟人机械臂的关节1为肩关节(S),关节3为肘关节(E),关节6为腕关节(W),计算臂角ψ:
Figure FDA0003723118030000046
其中,
Figure FDA0003723118030000047
表示从机械臂的基座到肩部的矢量,
Figure FDA0003723118030000048
是机械臂从肩部到肘部的矢量,
Figure FDA0003723118030000049
是机械臂从肩部到手腕的矢量,
Figure FDA00037231180300000410
是从机器人的肘部到手腕的矢量;
步骤S440:计算步骤S430所提到的三个关节组成的臂角平面线速度方向向量lψ∈R3×1,具体为:
Figure FDA00037231180300000411
步骤S450:利用臂角与零空间关节角速度的映射关系JE,得到零空间关节角速度
Figure FDA00037231180300000412
表达式:
Figure FDA00037231180300000413
其中,JE∈R3×3表示臂角与零空间关节速度之间的映射关系,该映射关系JE是从机器人的肘部到底座计算的,
Figure FDA00037231180300000414
是臂角ψ的微分;
步骤S460:通过机器人雅可比矩阵的零空间投影关系,得到具有臂角运动的视觉伺服视场约束控制器,将视觉伺服视场约束控制器α重写为:
Figure FDA0003723118030000051
其中,I∈R6×n为单位矩阵。
6.根据权利要求5所述的方法,其特征在于,步骤S500包括:
步骤S510:选取障碍李雅普诺夫候选函数V2如下:
Figure FDA0003723118030000052
步骤S520:对V2进行时间的微分,得到
Figure FDA0003723118030000053
表达式以便分析系统稳定性与后续设计力矩控制器:
Figure FDA0003723118030000054
步骤S530:根据所述期望关节角速度和所述当前关节角速度误差向量,结合障碍李雅普诺夫函数设计机器人力矩控制器τ使系统稳定:
Figure FDA0003723118030000055
步骤S540:利用基于视觉伺服的滑模控制补偿力矩控制器中机器人未知参数项
Figure FDA0003723118030000056
增强系统鲁棒性,基于视觉伺服视场约束控制器设计滑模面,滑模力矩控制器设计为:
Figure FDA0003723118030000057
其中,
Figure FDA0003723118030000058
和k2=[k21,k22,...,k2i]T,i=1,2,...,n为正常数。
CN202210757608.3A 2022-06-30 2022-06-30 一种具有视场约束的拟人化机械手鲁棒视觉伺服控制方法 Pending CN115122325A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210757608.3A CN115122325A (zh) 2022-06-30 2022-06-30 一种具有视场约束的拟人化机械手鲁棒视觉伺服控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210757608.3A CN115122325A (zh) 2022-06-30 2022-06-30 一种具有视场约束的拟人化机械手鲁棒视觉伺服控制方法

Publications (1)

Publication Number Publication Date
CN115122325A true CN115122325A (zh) 2022-09-30

Family

ID=83382400

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210757608.3A Pending CN115122325A (zh) 2022-06-30 2022-06-30 一种具有视场约束的拟人化机械手鲁棒视觉伺服控制方法

Country Status (1)

Country Link
CN (1) CN115122325A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116587323A (zh) * 2023-05-12 2023-08-15 广东德中众惠智能装备科技有限公司 基于机器视觉的机械臂动态仿真系统
CN117506937A (zh) * 2024-01-04 2024-02-06 中铁十四局集团大盾构工程有限公司 一种基于多阶段视觉伺服控制的焊件自主摆放方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116587323A (zh) * 2023-05-12 2023-08-15 广东德中众惠智能装备科技有限公司 基于机器视觉的机械臂动态仿真系统
CN116587323B (zh) * 2023-05-12 2023-11-21 德中(深圳)激光智能科技有限公司 基于机器视觉的机械臂动态仿真系统
CN117506937A (zh) * 2024-01-04 2024-02-06 中铁十四局集团大盾构工程有限公司 一种基于多阶段视觉伺服控制的焊件自主摆放方法
CN117506937B (zh) * 2024-01-04 2024-03-12 中铁十四局集团大盾构工程有限公司 一种基于多阶段视觉伺服控制的焊件自主摆放方法

Similar Documents

Publication Publication Date Title
CN108241339B (zh) 仿人机械臂的运动求解和构型控制方法
Liu et al. Uncalibrated visual servoing of robots using a depth-independent interaction matrix
Chaumette et al. Visual servo control. I. Basic approaches
Jiang et al. State-of-the-Art control strategies for robotic PiH assembly
US9120227B2 (en) Human motion tracking control with strict contact force constraints for floating-base humanoid robots
Corke et al. Real-time vision, tracking and control
Dallej et al. Towards vision-based control of cable-driven parallel robots
Neto et al. High‐level robot programming based on CAD: dealing with unpredictable environments
CN115122325A (zh) 一种具有视场约束的拟人化机械手鲁棒视觉伺服控制方法
Scherzinger et al. Contact skill imitation learning for robot-independent assembly programming
CN111325768B (zh) 一种基于3d视觉和模仿学习的自由漂浮目标抓捕方法
JP2008238396A (ja) ロボットのモーションの発生及び制御のための装置ならびに方法
CN112207835B (zh) 一种基于示教学习实现双臂协同作业任务的方法
CN110385694A (zh) 机器人的动作示教装置、机器人系统以及机器人控制装置
Li et al. A hybrid visual servo control method for simultaneously controlling a nonholonomic mobile and a manipulator
Siradjuddin et al. Image Based Visual Servoing of a 7 DOF robot manipulator using a distributed fuzzy proportional controller
CN115351780A (zh) 用于控制机器人设备的方法
Inaba et al. Vision-based adaptive and interactive behaviors in mechanical animals using the remote-brained approach
Song et al. On-line stable evolutionary recognition based on unit quaternion representation by motion-feedforward compensation
Lai et al. Image dynamics-based visual servo control for unmanned aerial manipulatorl with a virtual camera
Lai et al. An onboard-eye-to-hand visual servo and task coordination control for aerial manipulator based on a spherical model
Tong et al. Neural network based visual servo control under the condition of heavy loading
Li et al. A novel semi-autonomous teleoperation method for the tiangong-2 manipulator system
CN116714780A (zh) 一种旋翼飞行机械臂及空中快速抓取的规划和控制方法
Al-Qurashi et al. Recurrent neural networks for hierarchically mapping human-robot poses

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination