CN115122325A - 一种具有视场约束的拟人化机械手鲁棒视觉伺服控制方法 - Google Patents
一种具有视场约束的拟人化机械手鲁棒视觉伺服控制方法 Download PDFInfo
- Publication number
- CN115122325A CN115122325A CN202210757608.3A CN202210757608A CN115122325A CN 115122325 A CN115122325 A CN 115122325A CN 202210757608 A CN202210757608 A CN 202210757608A CN 115122325 A CN115122325 A CN 115122325A
- Authority
- CN
- China
- Prior art keywords
- robot
- joint
- camera
- arm
- mechanical arm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/1605—Simulation of manipulator lay-out, design, modelling of manipulator
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K7/00—Methods or arrangements for sensing record carriers, e.g. for reading patterns
- G06K7/10—Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
- G06K7/10544—Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
- G06K7/10821—Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices
- G06K7/10861—Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices sensing of data fields affixed to objects or articles, e.g. coded labels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K7/00—Methods or arrangements for sensing record carriers, e.g. for reading patterns
- G06K7/10—Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
- G06K7/14—Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
- G06K7/1404—Methods for optical code recognition
- G06K7/1408—Methods for optical code recognition the method being specifically adapted for the type of code
- G06K7/1417—2D bar codes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K7/00—Methods or arrangements for sensing record carriers, e.g. for reading patterns
- G06K7/10—Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
- G06K7/14—Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
- G06K7/1404—Methods for optical code recognition
- G06K7/1439—Methods for optical code recognition including a method step for retrieval of the optical code
- G06K7/1452—Methods for optical code recognition including a method step for retrieval of the optical code detecting bar code edges
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
Abstract
本发明公开了一种具有视场约束的拟人化机械手鲁棒视觉伺服控制方法,通过安装在机器人手腕的相机传感器采集工件上的二维码图像并发送给工控机;工控机实时识别图像特征以及生成7DOF机器人控制信号,并将该控制信号发送给机器人,完成对视觉特征点的跟踪;模仿人类7自由度手臂结构定义7DOF拟人机械臂的肩、肘和腕关节,计算臂角;将障碍李雅普诺夫函数与臂角相结合设计具有仿人特性的视觉伺服视场约束控制器,间接约束跟踪过程中特征点轨迹保留在相机视场范围内,同时机械臂能够实现基于臂角旋转的仿人运动,设计滑模力矩控制器驱动机器人到达期望特征位置,最后约束特征点不超出相机视野范围,提高视觉伺服任务成功率,以及实现仿人的臂角旋转运动。
Description
技术领域
本发明涉及机器人视觉引导技术领域,特别是涉及一种具有视场约束的拟人化机械手鲁棒视觉伺服控制方法。
背景技术
针对视觉伺服任务过程中视觉特征丢失问题的研究工作已经提出许多。一些研究工作试图使用路径规划来避免图像特征轨迹超出相机FOV。有学者设计了在虚拟图像平面中定义的图像矩的轨迹,以解决四旋翼飞行器的基于图像的控制任务。还有学者通过对相机的速度旋量进行参数化,并通过所提出的深度估计技术提供精确的初始深度,从而克服了视觉伺服的缺点,开发了一种轨迹规划算法。混合视觉伺服方案也被应用于约束特征点不超出相机视场范围。有学者设计了一个控制框架,该框架结合了基于位置和基于图像的视觉伺服的优势,以控制配备机械臂的飞行器,而不会在操作过程中丢失特征。有学者针对移动机器人的视觉伺服提出了一种新的无线混合控制算法,该混合算法利用基于位置的视觉伺服(PBVS)方法进行全局路由,利用IBVS方法进行精细导航。上述策略可以保证视觉伺服任务过程中的视场约束,但存在大量的在线非线性优化问题,其在机器人系统中的实时可行性值得怀疑。
障碍李雅普诺夫函数近年来被广泛用于约束非线性系统的性能,在李雅普诺夫稳定性分析过程中直接给出了控制律。有学者采用BLF来确保单输入输出非线性系统保持在输出约束范围内。受这些想法的启发,为解决上述缺陷并保证视觉伺服任务的成功,考虑将BLF与基于图像的视觉伺服相结合,以约束图像特征点停留在FOV内并保证视觉伺服系统的稳定性。
另一个问题是由于机器人系统建模不准确而导致的系统动力学不确定性,影响了视觉伺服控制系统的稳定性和控制精度。针对这个问题已经提出了各种解决方案,滑模控制是提高控制系统鲁棒性的可行方法。有学者提出一种结合滑模控制(SMC)和Takagi-Sugeno模糊系统模型的控制方法,可以有效补偿机器人系统的非线性扰动和不确定性。有学者设计了一种快速集成终端滑模控制,以处理机器人机械手的系统不确定性。在这项研究中,提出了与IBVS相结合的SMC控制定律,以处理7-DOF冗余机器人操纵器的不确定性。
针对现有技术中视觉伺服存在视觉特征丢失从而导致视觉引导任务失败,以及系统建模带来的不确定性问题,提出本申请的专利。
发明内容
针对以上技术问题,本发明提供了一种具有视场约束的拟人化机械手鲁棒视觉伺服控制方法。
本发明解决其技术问题采用的技术方案是:
一种具有视场约束的拟人化机械手鲁棒视觉伺服控制方法,方法包括以下步骤:
步骤S100:利用N点法对视觉伺服系统进行标定,得到相机与末端坐标系之间的转换关系;
步骤S200:结合机械臂动态模型、视觉系统动态模型以及相机与末端坐标系之间的转换关系建立机器人视觉伺服系统整体动态模型;
步骤S300:相机实时获取工件上的二维码图像,将二维码图像发送至工控机,工控机提取二维码图像的四个角点作为当前特征点,根据当前特征点和预设的期望特征点得到特征点位置误差向量;
步骤S400:模仿7DOF人类手臂的特点选择机械臂的肩关节、肘关节以及腕关节,计算臂角的大小,利用零空间投影将臂角投影到机械臂零空间,通过臂角与零空间关节角速度之间的映射关系得出零空间关节角速度,根据零空间关节角速度和特征点位置误差向量,结合障碍李雅普诺夫函数设计具有仿人特性的视觉伺服视场约束控制器,得到期望关节角速度;
步骤S500:获取当前关节角速度,根据期望关节角速度和当前关节角速度得到关节角速度误差向量,根据期望关节角速度和当前关节角速度误差向量,结合障碍李雅普诺夫函数设计机器人力矩控制器,并引入滑模控制对机器人模型未知参数变量进行补偿,得到控制信号;
步骤S600:将控制信号发送给机器人,驱动机器人到达期望特征点位置并保证特征点轨迹不超出相机视场范围,机械臂在视觉引导过程中同时进行模仿人类臂角的旋转运动。
优选地,步骤S100包括:
步骤S110:准备一个带有N个点的标定板;
步骤S120:将标定板随机姿态放置在摄像头下方;
步骤S130:利用RealSense相机拍摄标定板图像;
步骤S140:计算图像中N个圆点的圆心像素坐标;
步骤S150:以四元数形式记录此时Sawyer机械臂末端执行器的三维位姿;
步骤S160:重复步骤S120-S150一共12次;
步骤S170:解算2D-3D数据,求出一组标定板与相机之间的坐标转换关系cTo;
步骤S180:根据cTo,计算相机与机械臂末端坐标系的转换关系,具体为:
BTe2×eTc2×c2To=BTe1×eTc1×c1To
其中,BTe1和BTe2分别为机械臂两组末端位姿相对于机械臂基座的坐标转换关系矩阵,c1To和c2To分别为机械臂两组不同末端位姿下相机与标定板之间的坐标转换关系,eTc1和eTc2分别为所求的机械臂末端执行器与相机之间的坐标转换关系,满足eTc1=eTc2;
步骤S190:根据坐标变换关系等式求出机械臂末端与相机坐标系之间的转换关系eTc具体为:
优选地,步骤S200包括:
步骤S210:通过机械臂末端与相机坐标系之间的转换关系求出相机速度与末端速度之间转换关系矩阵,具体为:
步骤S220:特征点速度与相机速度之间存在如下关系:
机械臂关节角速度与末端速度存在转换关系,具体为:
其中,Ve为机械臂末端执行器速度,Jq∈R6×n为机械臂雅可比矩阵;通过机械臂末端与相机之间的速度转换矩阵Wce,有Vc=WceVe,可以得到视觉系统动态模型,具体为:
其中,Js=LWceJq为任务雅可比矩阵;
步骤S230:N连杆的刚性机器人系统的动力学模型,具体为:
机械臂动态模型可表示为:
步骤S240:结合视觉系统动态模型,得到视觉伺服系统整体动态模型,具体为:
其中z为相机到特征点的深度信息;
优选地,步骤S300中根据当前特征点和预设的期望特征点得到特征点位置误差向量,具体为:
z1=s-sd
s=(ui,vi)T,sd=(uid,vid)T,i=1,2,...,m
其中,z1为特征点位置误差向量,s为当前特征点,sd为期望特征点。
优选地,步骤S400包括:
步骤S410:选取障碍李雅普诺夫候选函数V1为:
其中,ka1=[ka11,ka12,...,ka1i]T,i=1,2,...,2m为图像特征点误差向量z1=[z11,z12,...,z1v]T∈Rv,v=2m的约束边界;
步骤S420:对V1进行对时间的微分,得到:
步骤S430:选取Sawyer七自由度拟人机械臂的关节1为肩关节(S),关节3为肘关节(E),关节6为腕关节(W),计算臂角ψ:
步骤S440:计算步骤S430所提到的三个关节组成的臂角平面线速度方向向量lψ∈R3×1,具体为:
步骤S460:通过机器人雅可比矩阵的零空间投影关系,得到具有臂角运动的视觉伺服视场约束控制器,将视觉伺服视场约束控制器α重写为:
其中,I∈R6×n为单位矩阵;
优选地,步骤S500包括:
步骤S510:选取障碍李雅普诺夫候选函数V2如下:
步骤S530:根据期望关节角速度和当前关节角速度误差向量,结合障碍李雅普诺夫函数设计机器人力矩控制器τ使系统稳定:
上述一种具有视场约束的拟人化机械手鲁棒视觉伺服控制方法,相机传感器用于采集工件上的二维码图像并发送给工控机;工控机实时识别图像特征以及生成7DOF机器人控制信号,并将该控制信号通过局域网络发送给机器人,完成对于视觉特征点的跟踪;为了让机械臂具备仿人特性,模仿人类7自由度手臂结构,定义7DOF拟人机械臂的肩关节、肘关节以及腕关节,计算臂角;将障碍李雅普诺夫函数与臂角相结合设计具有仿人特性的视觉伺服视场约束控制器,间接约束跟踪过程中特征点轨迹保留在相机视场范围内,同时机械臂能够实现基于臂角旋转的仿人运动;设计滑模(SMC)力矩控制器驱动机器人到达期望特征位置,滑模控制用于处理机器人建模以及相机系统模型重建带来的系统不确定性,增强系统的鲁棒性;本发明最后能够约束特征点不超出相机视野范围,提高视觉伺服任务成功率,以及实现仿人的臂角旋转运动,为人机协作提供更多可能性。
附图说明
图1为本发明一实施例中一种具有视场约束的拟人化机械手鲁棒视觉伺服控制方法流程图;
图2为本发明一实施例中视觉伺服系统软硬件平台架构图;
图3为本发明一实施例中定义在Sawyer机器人上的臂角示意图;
图4为本发明一实施例中视觉伺服视野约束控制方法执行效果示意图,其中,图(a)是经典视觉伺服控制方法与PID控制方法下的执行效果,图(b)是视觉伺服视场约束控制器与滑模力矩控制器下的执行效果;
图5为本发明一实施例中臂角值变化曲线。
具体实施方式
为了使本技术领域的人员更好地理解本发明的技术方案,下面结合附图对本发明作进一步的详细说明。
在一个实施例中,如图1所示,一种具有视场约束的拟人化机械手鲁棒视觉伺服控制方法,方法包括以下步骤:
步骤S100:利用N点法对视觉伺服系统进行标定,得到相机与末端坐标系之间的转换关系。
在一个实施例中,步骤S100包括:
步骤S110:准备一个带有N个点的标定板;
步骤S120:将标定板随机姿态放置在摄像头下方;
步骤S130:利用RealSense相机拍摄标定板图像;
步骤S140:计算图像中N个圆点的圆心像素坐标;
步骤S150:以四元数形式记录此时Sawyer机械臂末端执行器的三维位姿;
步骤S160:重复步骤S120-S150一共12次;
步骤S170:解算2D-3D数据,求出一组标定板与相机之间的坐标转换关系cTo;
步骤S180:根据cTo,计算相机与机械臂末端坐标系的转换关系,具体为:
BTe2×eTc2×c2To=BTe1×eTc1×c1To
其中,BTe1和BTe2分别为机械臂两组末端位姿相对于机械臂基座的坐标转换关系矩阵,c1To和c2To分别为机械臂两组不同末端位姿下相机与标定板之间的坐标转换关系,eTc1和eTc2分别为所求的机械臂末端执行器与相机之间的坐标转换关系,满足eTc1=eTc2。
步骤S190:根据坐标变换关系等式求出机械臂末端与相机坐标系之间的转换关系eTc,具体为:
进一步地,在步骤S100之前,还包括步骤S000:搭建视觉伺服系统软硬件平台。具体如图2所示,Sawyer机器人的末端执行器配备了RealSenseD435i摄像头,采用眼在手结构。视觉部分包含RealSenseD435i摄像头、AprilTag二维码和视觉伺服平台(ViSP)。AprilTag图像由RealSenseD435i摄像头在线捕获并发送到ViSP。ViSP对标签进行解码,提取AprilTag的角点坐标作为特征点,计算视觉部分控制律。Sawyer机器人的力矩水平控制器是通过Intera_SDK实现。Intera_SDK和ViSP在配备Ubuntu18.04和ROSmelodic的计算机上运行。由于编程语言不兼容,因此使用ROS话题来传输两个编程平台之间交互的数据。
步骤S200:结合机械臂动态模型、视觉系统动态模型以及相机与末端坐标系之间的转换关系建立机器人视觉伺服系统整体动态模型。
在一个实施例中,步骤S200包括:
步骤S210:通过机械臂末端与相机坐标系之间的转换关系求出相机速度与末端速度之间转换关系矩阵,具体为:
步骤S220:特征点速度与相机速度之间存在如下关系:
机械臂关节角速度与末端速度存在转换关系,具体为:
其中,Ve为机械臂末端执行器速度,Jq∈R6×n为机械臂雅可比矩阵;通过机械臂末端与相机之间的速度转换矩阵Wce,有Vc=WceVe,可以得到视觉系统动态模型,具体为:
其中,Js=LWceJq为任务雅可比矩阵;
步骤S230:N连杆的刚性机器人系统的动力学模型,具体为:
机械臂动态模型可表示为:
步骤S240:结合视觉系统动态模型,得到视觉伺服系统整体动态模型,具体为:
其中,z为相机到特征点的深度信息;
步骤S300:相机实时获取工件上的二维码图像,将二维码图像发送至工控机,工控机提取二维码图像的四个角点作为当前特征点,根据当前特征点和预设的期望特征点得到特征点位置误差向量。
在一个实施例中,步骤S300中根据当前特征点和预设的期望特征点得到特征点位置误差向量,具体为:
z1=s-sd
s=(ui,vi)T,sd=(uid,vid)T,i=1,2,...,m其中,z1为特征点位置误差向量,s为当前特征点,sd为期望特征点。
具体地,z1=[z11,z12,...,z1v]T∈Rv,v=2m,其中z1(v-1)=um-umd,z1v=vm-vmd,因此s=(ui,vi)T的维数为m,z的维数为2m。
相机视野下拍摄的二维码图像,利用VISP视觉伺服算法库处理AprilTag图像,提取二维码四个角点为特征点。
步骤S400:模仿7DOF人类手臂的特点选择机械臂的肩关节、肘关节以及腕关节,计算臂角的大小,利用零空间投影将臂角投影到机械臂零空间,通过臂角与零空间关节角速度之间的映射关系得出零空间关节角速度,根据零空间关节角速度和特征点位置误差向量,结合障碍李雅普诺夫函数设计具有仿人特性的视觉伺服视场约束控制器,得到期望关节角速度。
在一个实施例中,步骤S400包括:
步骤S410:选取障碍李雅普诺夫候选函数V1为:
其中,ka1=[ka11,ka12,...,ka1i]T,i=1,2,...,2m为图像特征点误差向量z1=[z11,z12,...,z1v]T∈Rv,v=2m的约束边界。
具体地,为了推动约束IBVS任务的过程,应用障碍李雅普诺夫函数设计IBVS控制策略并选择BLF候选函数。
步骤S420:对V1进行对时间的微分,得到:
步骤S430:选取Sawyer七自由度拟人机械臂的关节1为肩关节(S),关节3为肘关节(E),关节6为腕关节(W),计算臂角ψ:
步骤S440:计算步骤S430所提到的三个关节组成的臂角平面线速度方向向量lψ∈R3×1,具体为:
步骤S460:通过机器人雅可比矩阵的零空间投影关系,得到具有臂角运动的视觉伺服视场约束控制器,将视觉伺服视场约束控制器α重写为:
其中,I∈R6×n为单位矩阵;具体地,设计了具备仿人臂角运动的视觉伺服视场约束控制器如上,可稳定视觉伺服系统并约束相机视场中的图像特征点,并引入了仿人的臂角旋转运动。
步骤S500:获取当前关节角速度,根据期望关节角速度和当前关节角速度得到关节角速度误差向量,根据期望关节角速度和当前关节角速度误差向量,结合障碍李雅普诺夫函数设计机器人力矩控制器,并引入滑模控制对机器人模型未知参数变量进行补偿,得到控制信号。
具体地,根据期望关节角速度和当前关节角速度得到关节角速度误差向量,具体为:
在一个实施例中,步骤S500包括:
步骤S510:选取障碍李雅普诺夫候选函数V2如下:
步骤S530:根据期望关节角速度和关节角速度误差向量,结合障碍李雅普诺夫函数设计机器人力矩控制器τ使系统稳定:
具体地,力矩控制器中的项未知,会导致控制性能差。存在一种基于机器人机械手的参数矢量,以满足其中,是已知联合变量的回归矩阵,存在上限满足是描述机械臂质量的未知常数参数矢量,上限满足为了克服这个问题并提高控制精度,定义作为滑模面。
步骤S600:将控制信号发送给机器人,驱动机器人到达期望特征点位置并保证特征点轨迹不超出相机视场范围,机械臂在视觉引导过程中同时进行模仿人类臂角的旋转运动。
具体地,根据所设计的控制器在工控机中编写相关程序,计算控制变量。首先将提取出的当前特征点图像坐标以及图像交互矩阵L打包为ROS话题的形式发送到Intera_SDK编程平台,编写具有仿人行为的视觉伺服视场约束控制器与滑模力矩控制器,调试机器人找到合适的控制参数以及约束边界,最终将控制量通过局域网发送给机械臂控制机器人到达期望特征点位置,并同时完成仿人臂角旋转运动。
图4是实验效果展示,图4(a)代表经典视觉伺服与PID力矩控制器进行视觉伺服引导实验,虚线框代表相机视场范围,可以看出特征点1和2都超出了视场范围,代表视觉伺服任务失败,图4(b)是本发明的验证结果,所有特征点都被约束在相机的视场范围内,验证了本发明的有效性。图5为臂角运动过程中臂角的值变化曲线。
与现有技术相比,本发明的优点在于:(1)开发与基于图像的视觉伺服(IBVS)控制相结合的仿人控制算法,通过机械臂运动学实现类似人手臂的旋转运动,使人机协作能够用于大多数典型的工业串行机械手;(2)障碍李雅普诺夫函数被创新地引入设计视觉伺服控制。使用视场约束控制器,视觉伺服系统的控制变量在满足视场(FOV)约束的同时,全部限制在BLF形成的约束范围内,提高了视觉伺服任务的成功率;(3)本发明针对7自由度冗余机械臂系统存在的动态不确定性,在提高视觉伺服系统稳定性的同时,提出一种IBVS组合滑模控制律,提高了机器人视觉伺服系统的鲁棒性。
本发明公开了一种适用于具有视场约束和臂角运动的拟人化机械手鲁棒视觉伺服控制方法,该系统由7自由度(DOF)机械手和安装在末端执行器上的相机传感器(眼在手)以及工控机组成,相机传感器用于采集工件上的二维码图像并发送给工控机;工控机实时识别图像特征以及生成7DOF机器人控制信号,并将该控制信号通过局域网络发送给机器人,完成对于视觉特征点的跟踪;为了让机械臂具备仿人特性,模仿人类7自由度手臂结构,定义7DOF拟人机械臂的肩关节、肘关节以及腕关节,计算臂角;将障碍李雅普诺夫函数与臂角相结合设计具有仿人特性的视觉伺服视场约束控制器,间接约束跟踪过程中特征点轨迹保留在相机视场范围内,同时机械臂能够实现基于臂角旋转的仿人运动;设计滑模(SMC)力矩控制器驱动机器人到达期望特征位置,滑模控制用于处理机器人建模以及相机系统模型重建带来的系统不确定性,增强系统的鲁棒性;本发明最后能够约束特征点不超出相机视野范围,提高视觉伺服任务成功率,以及实现仿人的臂角旋转运动,为人机协作提供更多可能性。
以上对本发明所提供的一种具有视场约束的拟人化机械手鲁棒视觉伺服控制方法进行了详细介绍。本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。
Claims (6)
1.一种具有视场约束的拟人化机械手鲁棒视觉伺服控制方法,其特征在于,所述方法包括以下步骤:
步骤S100:利用N点法对视觉伺服系统进行标定,得到相机与末端坐标系之间的转换关系;
步骤S200:结合机械臂动态模型、视觉系统动态模型以及所述相机与末端坐标系之间的转换关系建立机器人视觉伺服系统整体动态模型;
步骤S300:相机实时获取工件上的二维码图像,将所述二维码图像发送至工控机,所述工控机提取所述二维码图像的四个角点作为当前特征点,根据所述当前特征点和预设的期望特征点得到特征点位置误差向量;
步骤S400:模仿7DOF人类手臂的特点选择机械臂的肩关节、肘关节以及腕关节,计算臂角的大小,利用零空间投影将所述臂角投影到机械臂零空间,通过所述臂角与零空间关节角速度之间的映射关系得出零空间关节角速度,根据所述零空间关节角速度和所述特征点位置误差向量,结合障碍李雅普诺夫函数设计具有仿人特性的视觉伺服视场约束控制器,得到期望关节角速度;
步骤S500:获取当前关节角速度,根据所述期望关节角速度和所述当前关节角速度得到关节角速度误差向量,根据所述期望关节角速度和所述当前关节角速度误差向量,结合障碍李雅普诺夫函数设计机器人力矩控制器,并引入滑模控制对机器人模型未知参数变量进行补偿,得到控制信号;
步骤S600:将所述控制信号发送给机器人,驱动机器人到达期望特征点位置并保证特征点轨迹不超出相机视场范围,机械臂在视觉引导过程中同时进行模仿人类臂角的旋转运动。
2.根据权利要求1所述的方法,其特征在于,步骤S100包括:
步骤S110:准备一个带有N个点的标定板;
步骤S120:将标定板随机姿态放置在摄像头下方;
步骤S130:利用RealSense相机拍摄标定板图像;
步骤S140:计算图像中N个圆点的圆心像素坐标;
步骤S150:以四元数形式记录此时Sawyer机械臂末端执行器的三维位姿;
步骤S160:重复步骤S120-S150一共12次;
步骤S170:解算2D-3D数据,求出一组标定板与相机之间的坐标转换关系cTo;
步骤S180:根据所述cTo,计算相机与机械臂末端坐标系的转换关系,具体为:
BTe2×eTc2×c2To=BTe1×eTc1×c1To
其中,BTe1和BTe2分别为机械臂两组末端位姿相对于机械臂基座的坐标转换关系矩阵,c1To和c2To分别为机械臂两组不同末端位姿下相机与标定板之间的坐标转换关系,eTc1和eTc2分别为所求的机械臂末端执行器与相机之间的坐标转换关系,满足eTc1=eTc2;
步骤S190:根据坐标变换关系等式求出机械臂末端与相机坐标系之间的转换关系eTc,具体为:
3.根据权利要求1所述的方法,其特征在于,步骤S200包括:
步骤S210:通过所述机械臂末端与相机坐标系之间的转换关系求出相机速度与末端速度之间转换关系矩阵,具体为:
步骤S220:特征点速度与相机速度之间存在如下关系:
机械臂关节角速度与末端速度存在转换关系,具体为:
其中,Ve为机械臂末端执行器速度,Jq∈R6×n为机械臂雅可比矩阵;通过机械臂末端与相机之间的速度转换矩阵Wce,有Vc=WceVe,可以得到视觉系统动态模型,具体为:
其中,Js=LWceJq为任务雅可比矩阵;
步骤S230:N连杆的刚性机器人系统的动力学模型,具体为:
机械臂动态模型可表示为:
步骤S240:结合所述视觉系统动态模型,得到视觉伺服系统整体动态模型,具体为:
其中z为相机到特征点的深度变量。
4.根据权利要求3所述的方法,其特征在于,步骤S300中根据所述当前特征点和预设的期望特征点得到特征点位置误差向量,具体为:
z1=s-sd
s=(ui,vi)T,sd=(uid,vid)T,i=1,2,...,m
其中,z1为特征点位置误差向量,s为当前特征点,sd为期望特征点。
5.根据权利要求4所述的方法,其特征在于,步骤S400包括:
步骤S410:选取障碍李雅普诺夫候选函数V1为:
其中,ka1=[ka11,ka12,...,ka1i]T,i=1,2,...,2m为图像特征点误差向量z1=[z11,z12,...,z1v]T∈Rv,v=2m的约束边界;
步骤S420:对V1进行对时间的微分,得到:
步骤S430:选取Sawyer七自由度拟人机械臂的关节1为肩关节(S),关节3为肘关节(E),关节6为腕关节(W),计算臂角ψ:
步骤S440:计算步骤S430所提到的三个关节组成的臂角平面线速度方向向量lψ∈R3×1,具体为:
步骤S460:通过机器人雅可比矩阵的零空间投影关系,得到具有臂角运动的视觉伺服视场约束控制器,将视觉伺服视场约束控制器α重写为:
其中,I∈R6×n为单位矩阵。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210757608.3A CN115122325A (zh) | 2022-06-30 | 2022-06-30 | 一种具有视场约束的拟人化机械手鲁棒视觉伺服控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210757608.3A CN115122325A (zh) | 2022-06-30 | 2022-06-30 | 一种具有视场约束的拟人化机械手鲁棒视觉伺服控制方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115122325A true CN115122325A (zh) | 2022-09-30 |
Family
ID=83382400
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210757608.3A Pending CN115122325A (zh) | 2022-06-30 | 2022-06-30 | 一种具有视场约束的拟人化机械手鲁棒视觉伺服控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115122325A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116587323A (zh) * | 2023-05-12 | 2023-08-15 | 广东德中众惠智能装备科技有限公司 | 基于机器视觉的机械臂动态仿真系统 |
CN117506937A (zh) * | 2024-01-04 | 2024-02-06 | 中铁十四局集团大盾构工程有限公司 | 一种基于多阶段视觉伺服控制的焊件自主摆放方法 |
-
2022
- 2022-06-30 CN CN202210757608.3A patent/CN115122325A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116587323A (zh) * | 2023-05-12 | 2023-08-15 | 广东德中众惠智能装备科技有限公司 | 基于机器视觉的机械臂动态仿真系统 |
CN116587323B (zh) * | 2023-05-12 | 2023-11-21 | 德中(深圳)激光智能科技有限公司 | 基于机器视觉的机械臂动态仿真系统 |
CN117506937A (zh) * | 2024-01-04 | 2024-02-06 | 中铁十四局集团大盾构工程有限公司 | 一种基于多阶段视觉伺服控制的焊件自主摆放方法 |
CN117506937B (zh) * | 2024-01-04 | 2024-03-12 | 中铁十四局集团大盾构工程有限公司 | 一种基于多阶段视觉伺服控制的焊件自主摆放方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108241339B (zh) | 仿人机械臂的运动求解和构型控制方法 | |
Liu et al. | Uncalibrated visual servoing of robots using a depth-independent interaction matrix | |
Chaumette et al. | Visual servo control. I. Basic approaches | |
Jiang et al. | State-of-the-Art control strategies for robotic PiH assembly | |
US9120227B2 (en) | Human motion tracking control with strict contact force constraints for floating-base humanoid robots | |
Corke et al. | Real-time vision, tracking and control | |
Dallej et al. | Towards vision-based control of cable-driven parallel robots | |
Neto et al. | High‐level robot programming based on CAD: dealing with unpredictable environments | |
CN115122325A (zh) | 一种具有视场约束的拟人化机械手鲁棒视觉伺服控制方法 | |
Scherzinger et al. | Contact skill imitation learning for robot-independent assembly programming | |
CN111325768B (zh) | 一种基于3d视觉和模仿学习的自由漂浮目标抓捕方法 | |
JP2008238396A (ja) | ロボットのモーションの発生及び制御のための装置ならびに方法 | |
CN112207835B (zh) | 一种基于示教学习实现双臂协同作业任务的方法 | |
CN110385694A (zh) | 机器人的动作示教装置、机器人系统以及机器人控制装置 | |
Li et al. | A hybrid visual servo control method for simultaneously controlling a nonholonomic mobile and a manipulator | |
Siradjuddin et al. | Image Based Visual Servoing of a 7 DOF robot manipulator using a distributed fuzzy proportional controller | |
CN115351780A (zh) | 用于控制机器人设备的方法 | |
Inaba et al. | Vision-based adaptive and interactive behaviors in mechanical animals using the remote-brained approach | |
Song et al. | On-line stable evolutionary recognition based on unit quaternion representation by motion-feedforward compensation | |
Lai et al. | Image dynamics-based visual servo control for unmanned aerial manipulatorl with a virtual camera | |
Lai et al. | An onboard-eye-to-hand visual servo and task coordination control for aerial manipulator based on a spherical model | |
Tong et al. | Neural network based visual servo control under the condition of heavy loading | |
Li et al. | A novel semi-autonomous teleoperation method for the tiangong-2 manipulator system | |
CN116714780A (zh) | 一种旋翼飞行机械臂及空中快速抓取的规划和控制方法 | |
Al-Qurashi et al. | Recurrent neural networks for hierarchically mapping human-robot poses |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |