CN109434839A - 一种基于单目视觉辅助定位的机器人自标定方法 - Google Patents
一种基于单目视觉辅助定位的机器人自标定方法 Download PDFInfo
- Publication number
- CN109434839A CN109434839A CN201811588906.4A CN201811588906A CN109434839A CN 109434839 A CN109434839 A CN 109434839A CN 201811588906 A CN201811588906 A CN 201811588906A CN 109434839 A CN109434839 A CN 109434839A
- Authority
- CN
- China
- Prior art keywords
- robot
- plane
- constraint plane
- self
- auxiliary positioning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1692—Calibration of manipulator
Abstract
本发明公开了一种基于单目视觉辅助定位的机器人自标定方法,包括以下步骤,建立机器人运动学模型、末端位置误差模型以及基于平面约束的机器人连杆参数误差模型;定位约束平面;将立体匹配后得到的约束平面位置值输入到机器人控制系统中,驱动机器人对所述约束平面进行测量;进行机器人连杆参数辨识,通过修正连杆参数达到机器人的标定精度;且将上述步骤进行代码编写实现集成和封装,能够实现机器人全自动化的一键自标定。本发明的有益效果:一是通过附加单目视觉系统,自动获取约束平面位置,从而避免手动示教测量。
Description
技术领域
本发明涉及机器人自标定方法的技术领域,尤其涉及一种基于单目视觉辅 助定位的机器人自标定方法。
背景技术
近年来机器人定位精度是衡量其工作性能的一个重要指标,目前,国内外 厂家生产出来的机器人由于制造、安装等因素,大多绝对定位精度不高,无法 满足高精加工以及离线编程的需要,因此,对引起机器人定位误差的各种因素 进行分析,最大可能地提高机器人绝对定位精度已经成为机器人技术研究中的 核心内容。
目前,国内外常用的机器人标定方法通常需要借助于外界先进的测量设备, 成本高,且测量过程复杂,需要专业人员进行操作;同时,由于涉及到测量坐 标系与机器人基坐标系的转换过程,容易引入坐标系环误差,且该误差与机器 人连杆参数误差不属于同类误差,需要单独处理,过程较复杂。
为了降低成本等因素,很多研究人员提出了闭环法标定,即给机器人末端 附加一约束,用的较多的是面约束(平面或球面),然而在对这些面进行接触 式测量时,大多采用人工手动示教的方式,测量过程费时费力,效率很低。为 了提高标定的效率,有研究人员提出了双目视觉辅助定位等方法,测量效率有 所提高,但无法实现完全的自动化标定。
发明内容
本部分的目的在于概述本发明的实施例的一些方面以及简要介绍一些较 佳实施例。在本部分以及本申请的说明书摘要和发明名称中可能会做些简化或 省略以避免使本部分、说明书摘要和发明名称的目的模糊,而这种简化或省略 不能用于限制本发明的范围。
鉴于上述现有存在的问题,提出了本发明。
因此,本发明目的是在一般平面约束(手动示教进行接触式测量)及视觉 辅助定位的基础上,提供一种基于单目视觉辅助定位的机器人自标定方法,该 方法首先通过单目视觉在机器人工作空间中获取图像,进行图像处理判断约束 图像是否在视野中,使机器人自动对任意放置在工作空间中的约束平面进行寻 找;然后再通过单目视觉对约束平面进行定位,获得其坐标信息,输入到机器 人控制系统,控制机器人自动对约束平面进行接触式测量,在继承一般平面约 束标定方法优点的同时,又大大提高了标定效率;全部过程可编程实现,即实 现了真正的一键式自标定,并且,可通过编程使约束点按一定规律有序排列, 可为后期研究约束点对机器人标定结果的影响奠定基础;同时,单目视觉相对 于双目视觉而言,极大地降低了对相机等硬件设备的要求,成本低,标定简单, 且单目视觉的计算量相对较小。
为解决上述技术问题,本发明提供如下技术方案:一种基于单目视觉辅助 定位的机器人自标定方法,包括以下步骤,
建立机器人运动学模型、末端位置误差模型以及基于平面约束的机器人连 杆参数误差模型;
定位约束平面,包括将给定已知特征的约束平面放置于机器人工作空间内, 通过单目视觉系统辅助捕捉具有完整已知特征所述约束平面的图像,并通过已 知特征与图像进行立体匹配,获取所述约束平面在机器人坐标系下的三维位置 信息;
将立体匹配后得到的约束平面位置值输入到机器人控制系统中,驱动机器 人对所述约束平面进行测量;
进行机器人连杆参数辨识,通过修正连杆参数达到机器人的标定精度;且 将上述步骤进行代码编写实现集成和封装,能够实现机器人全自动化的一键自 标定。
作为本发明所述的基于单目视觉的机器人一键自标定方法的一种优选方 案,其中:所述建立机器人运动学模型包括,
建立D-H法与MD-H法相结合的机器人运动学模型,将坐标系i-1到坐标 系i的变换过程描述为Ai,Ai=f(αi-1,ai-1,di,θi,βi),则机器人末端坐标系n相对于 基坐标系的位姿矩阵0Tn为:
0Tn=A0·A1·...·An
作为本发明所述的基于单目视觉的机器人一键自标定方法的一种优选方 案,其中:所述建立机器人末端位置误差模型包括,
按照微分变换的思想对Ai进行全微分,得到由连杆几何参数误差造成的相 邻坐标系间的微分摄动齐次矩阵dAi:
δAi是关节坐标系i相对于坐标系i-1的微分变换,则机器人相邻两连杆之 间的实际齐次坐标变换即Ai+AiδAi,那么机器人末端坐标系相对于 基坐标系的实际齐次变换矩阵TR为:
将上式展开,并略去高阶摄动项,化简后得到下式:
其中,△P=[dPx dPy dPz]T是机器人位置误差矩阵,J为3×(4n+1)连杆参数的 微分变换雅可比矩阵,△X=[△α △a △θ △d △β]T为(4n+1)×1连杆参数误差矩阵;
作为本发明所述的基于单目视觉的机器人一键自标定方法的一种优选方 案,其中:所述建立基于平面约束的机器人连杆参数误差模型包括,
设为约束平面上第i个接触点的名义位置值,可通过机器 人正运动学直接计算,Ji为该位置处的雅克比矩阵,可通过关节角度值计算得 到,实际位置Pi R=Pi N+Ji△X,则相邻两接触点间的偏差向量:
其中,
同样地,那么由相邻的两个偏差向量可构建一垂直于平面的名义法向量:
同样地,那么:
作为本发明所述的基于单目视觉的机器人一键自标定方法的一种优选方 案,其中:所述定位约束平面还包括,
对相机进行张正友内参标定及手眼标定,控制相机在机器人工作空间内捕 捉图像,对获得的图像进行分析处理;
若该图像中无约束平面特征,则控制机器人移动,然后重新获取新位置的 图像;若该图像中约束平面特征不完整,则根据图中特征对机器人位置进行调 整,然后重新获取新位置的图像;
若该图像中有完整的约束平面特征,则通过已知特征与图像进行立体匹配, 从而获得约束平面在机器人坐标系下的三维位置信息。
作为本发明所述的基于单目视觉的机器人一键自标定方法的一种优选方 案,其中:所述驱动机器人对约束平面进行测量包括,
将立体匹配后得到的约束平面位置值输入到机器人控制系统,驱动机器人 对约束平面进行接触式测量,当测量头输出有接触信号时,立即记录当前各关 节角度值,并对下一个约束点进行测量,若采集N+3个点:N0,N1,…,NN+2,则有:
H△X+S=0
其中,则可产生 3N个方程。
作为本发明所述的基于单目视觉的机器人一键自标定方法的一种优选方 案,其中:所述机器人连杆参数辨识包括,
通过改进的最小二乘法,对机器人运动学参数误差进行辨识,如下:
△X=-(HTH+μI)-1HTS
约束点的数量要满足3N≥4n+1。
作为本发明所述的基于单目视觉的机器人一键自标定方法的一种优选方 案,其中:所述建立机器人运动学模型还区分为,
当相邻关节轴线不平行时采用Craig提出的经典D-H法,其齐次坐标变换 矩阵为:
Ai=Rot(xi-1,αi-1)Trans(ai-1,0,di)Rot(zi-1,θi)
当相邻关节轴线近似平行时采用在Craig法基础上提出的改进MD-H法, 其齐次坐标变换矩阵为:
Ai=Rot(xi-1,αi-1)Trans(ai-1,0,0)Rot(yi-1,βi)Trans(0,0,di)Rot(zi-1,θi)
作为本发明所述的基于单目视觉的机器人一键自标定方法的一种优选方 案,其中:所述约束平面上的测量点,能够通过编程方式实现按一定规律有序 排列,为研究约束点对标定结果的影响奠定基础。
作为本发明所述的基于单目视觉的机器人一键自标定方法的一种优选方 案,其中:所述给定已知特征的约束平面的特征顶点能够是任意四边形,只需 要各边长及夹角特征已知。
本发明的有益效果:本发明提供的一种基于单目视觉的机器人一键自标定 方法,成本低、精度高、测量效率高;一是通过附加单目视觉系统,自动获取 约束平面位置,从而避免手动示教测量;二是能够通过编程方式实现约束点按 一定规律有序排列,为研究约束点对标定结果的影响奠定基础,能够实现一键 全自动化的标定;四是标定的精度完全取决于平面度,与单目视觉定位精度无 关;五是对大理石平面无摆放要求,只需要在机器人工作空间内且测头可安全 接触平面即可,不需要让约束平面与基坐标系的某个轴垂直。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需 要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的 一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下, 还可以根据这些附图获得其它的附图。其中:
图1为本发明所述基于单目视觉的机器人自标定方法的标定现场示意图;
图2为本发明所述基于单目视觉的机器人自标定方法的流程图;
图3为本发明第二种实施例所述单目摄像的机器人的整体结构示意图;
图4为本发明第二种实施例所述单目摄像的机器人中机械手与摄像机本体 的安装结构示意图;
图5为本发明第三种实施例所述单目摄像的机器人中机械手与摄像机本体 的爆炸结构示意图;
图6为本发明第三种实施例所述安装座的结构示意图;
图7为本发明第三种实施例所述摄像机本体的结构示意图;
图8为本发明第三种实施例所述锁定组件的结构示意图;
图9为本发明第三种实施例所述升降组件的结构示意图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合说明书 附图对本发明的具体实施方式做详细的说明,显然所描述的实施例是本发明的 一部分实施例,而不是全部实施例。基于本发明中的实施例,本领域普通人员 在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明的 保护的范围。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是本发明 还可以采用其他不同于在此描述的其它方式来实施,本领域技术人员可以在不 违背本发明内涵的情况下做类似推广,因此本发明不受下面公开的具体实施例 的限制。
其次,此处所称的“一个实施例”或“实施例”是指可包含于本发明至少 一个实现方式中的特定特征、结构或特性。在本说明书中不同地方出现的“在 一个实施例中”并非均指同一个实施例,也不是单独的或选择性的与其他实施 例互相排斥的实施例。
再其次,本发明结合示意图进行详细描述,在详述本发明实施例时,为便 于说明,表示器件结构的剖面图会不依一般比例作局部放大,而且所述示意图 只是示例,其在此不应限制本发明保护的范围。此外,在实际制作中应包含长 度、宽度及深度的三维空间尺寸。
同时在本发明的描述中,需要说明的是,术语中的“上、下、内和外”等 指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述 本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、 以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第 一、第二或第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
本发明中除非另有明确的规定和限定,术语“安装、相连、连接”应做广 义理解,例如:可以是固定连接、可拆卸连接或一体式连接;同样可以是机械 连接、电连接或直接连接,也可以通过中间媒介间接相连,也可以是两个元件 内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在 本发明中的具体含义。
实施例1
参见附图1~2的示意,本发明的基于单目视觉的机器人自标定方法,包括 以下几个步骤:
(1)建立机器人运动学模型
建立D-H法与MD-H法相结合的机器人运动学模型,将坐标系i-1到坐标 系i的变换过程描述为Ai,Ai=f(αi-1,ai-1,di,θi,βi),则机器人末端坐标系n相对于 基坐标系的位姿矩阵0Tn为:
0Tn=A0·A1·...·An
(2)建立机器人末端位置误差模型
按照微分变换的思想对Ai进行全微分,得到由连杆几何参数误差造成的相 邻坐标系间的微分摄动齐次矩阵dAi:
δAi是关节坐标系i相对于坐标系i-1的微分变换,则机器人相邻两连杆之 间的实际齐次坐标变换即Ai+AiδAi,那么机器人末端坐标系相对于 基坐标系的实际齐次变换矩阵TR为:
将上式展开,并略去高阶摄动项,化简后得到下式:
其中,△P=[dPx dPy dPz]T是机器人位置误差矩阵,J为3×(4n+1)连杆参数的 微分变换雅可比矩阵,△X=[△α △a △θ △d △β]T为(4n+1)×1连杆参数误差矩阵;
(3)建立基于平面约束的机器人连杆参数误差模型
设为约束平面上第i个接触点的名义位置值,可通过机器 人正运动学直接计算,Ji为该位置处的雅克比矩阵,可通过关节角度值计算得 到,实际位置Pi R=Pi N+Ji△X,则相邻两接触点间的偏差向量:
其中,
同样地,那么由相邻的两个偏差向量可构建一垂直于平面的名义法向量:
同样地,那么:
(4)定位约束平面
首先对相机进行张正友内参标定,得到四参数内参矩阵:
其中,fx,fy分别是x方向和y方向的尺度因子,[u0,y0]是相机的主点坐标;
然后对相机进行手眼标定,即确定摄像机坐标系相对于机器人末端法兰坐 标系的齐次转换矩阵,利用传统手眼标定方法AX=XB,至少使机器人运动到三 个不同的姿态,计算获得相机的手眼矩阵X;
为使本领域技术人员更好的理解本步骤,下面将单目与现有双目进行详细 的比对说明,不难发现二者采用了两种完全不同的辅助定位方式。首先在双目 通过目标点在两个不同相机中的图像来计算得到其实际位置,类似于人体双眼 定位的原理,而单目只通过一个相机的图像计算得到实际位置。
使用的约束平面为平行四边形,且各边长及夹角等特征已知。记平行四边 形的4个顶点为P1、P2、P3、P4,在该平行四边形上建立世界坐标系,则4个 顶点在世界坐标系中的坐标已知。将该约束平面置于机器人工作空间内某处。 控制机器人在工作空间内移动,在某一位置控制相机进行拍照。
若图像中无特征点,则控制机器人向随机方向进行快速移动,并且在新位 置重新获取图像;
若图像中出现特征点,但数量低于4个,则控制机器人向图像中特征点偏 离图像中心的方向进行慢速移动;
若图像中出现全部特征点,控制机器人停止运动,进行下一步。
设定Oc-xcyczc为相机坐标系,通过图像处理算法获得平行四边形四个顶点 Q1、Q2、Q3、Q4的像素坐标,记Q1Q2与Q3Q4的交点为V1,Q1Q4与Q2Q3的交点为V2, V1和V2即为该平行四边形两组平行边对应的消隐点,记ra为V1到Oc的矢量,rb为 V2到Oc的矢量,则相机坐标系下平行四边形所在平面的法线n=ra×rb/|ra×rb|。记 Pwi=(xwi,ywi,zwi)T为点Pi在世界坐标系中的坐标,Pci=(xci,yci,zci)T为点Pi在相机坐 标系中的坐标,P0=(0,0,z)T为平行四边形所在平面内的一个点P0在相机坐标系 中的坐标,Qci=(xi,yi,f)T表示点Qi在相机坐标系中的坐标,令 则由(Pci-P0)·n=0可得
记Pci=(xci,yci,zci)T=z(ui vi 1)T,则根据摄像机成像原理可得:
通过牛顿迭代法,可求得约束平面的位姿[R t],即可得摄像机坐标系与 世界坐标系之间的关系,进而获得约束平面在机器人基坐标系下的三维位置信 息。
(5)驱动机器人对约束平面进行测量
将立体匹配后得到的约束平面位置值输入到机器人控制系统,驱动机器人 对约束平面进行接触式测量,当测量头输出有接触信号时,立即记录当前各关 节角度值,并对下一个约束点进行测量,若采集N+3个点:N0,N1,…,NN+2,则有:
H△X+S=0
其中,则可产生3N个方程;
(6)机器人连杆参数辨识
通过改进的最小二乘法,对机器人运动学参数误差进行辨识,如下:
△X=-(HTH+μI)-1HTS
约束点的数量要满足3N≥4n+1。
由此,可辨识出机器人所有的连杆参数误差。
(8)将上述过程进行代码编写实现集成和封装,即可实现机器人全自动 化的一键自标定。本实施例机器人全自动化的一键自标定指的是能够通过编程 方式实现约束点按一定规律有序排列,因此根据已编定的程序,进行一键式的 操作,从而实现一键自标定。当然的,此处需要说明的是,机器人包括机械系 统、驱动系统、控制系统和感知系统。其中机械系统包括机身、臂部、手腕、 末端操作器和行走机构等部分,每一部分都有若干自由度,从而构成一个多自 由度的机械系统。驱动系统主要是指驱动机械系统动作的驱动装置,根据驱动 源的不同,驱动系统可分为电气、液压和气压三种以及把它们结合起来应用的 综合系统,该部分的作用相当于人的肌肉。控制系统的任务是根据机器人的作 业指令程序及从传感器反馈回来的信号控制机器人的执行机构,使其完成规定 的运动和功能;由计算机硬件和控制软件组成,软件主要由人与机器人进行联 系的人机交互系统和控制算法等组成,该部分的作用相当于人的大脑,因此能 够实现上述过程进行代码编写实现集成和封装,具有编程能力和操作功能。此 处不做详述。
实施例2
参照图3~4的示意,示意出了本实施例提供的一种单目摄像机器人,能够 应用于第一个实施例所述的基于单目视觉的机器人自标定方法中,在机器人标 定的方法中将单目摄像机设置于机器臂的接触头端进行图像的采集。但是由于 在实际的机器人自标定的操作情况下,单目摄像机仅在需要进行标定时安装至 机器臂上,因此标定操作的前后需要将单目摄像机安装和拆卸,便于维护拆卸 和独立工作的开展。该机器人包括机械手100和摄像机本体200。本实施例中 为了实现机械手100和摄像机本体200间的便捷安装和拆卸,从而满足和摄像 机本体200的维护和更换且能够实现单目摄像机和机器人之前独立工作的开展。 例如机械手100需要单独展开工作时,便需要将摄像机本体200拆下,或者当 摄像机本体200需要更换维护以及在摄像机需要拆下进行作业时。
因此本实施例中安装座101还包括夹板101a、延伸板101b、支撑板101c、 活动板101d、锁定组件101e和升降组件101f。具体的,机械手100与摄像机 本体200连接,且摄像机本体200设置于机械手100的下方。底座300、下部 关节臂400、中部关节臂500以及上部关节臂600由下至上依次连接,且机械 手100与上部关节臂600连接;其中下部关节臂400相对底座300能够发生水 平转动,中部关节臂500相对下部关节臂400竖直旋转,上部关节臂600与中 部关节臂500相对竖直旋转,以及机械手100与上部关节臂600能够发生相对 竖直转动,且上部关节臂600能够发生自身的转动,从而通过底座300、下部 关节臂400、中部关节臂500以及上部关节臂600的联动实现机械手100和摄 像机本体200在三维空间内的移动。
进一步的,机械手100还包括安装座101、末端102、夹持端103和驱动端 104。其中机械手100上方设置安装座101;摄像机本体200,摄像机本体200 的下方设置定位架201,定位架201安装于安装座101上。夹持端103和末端 102分别设置于驱动端104的前后方,驱动端104能够驱动夹持端103执行夹 持动作。
需要说明的是,机器人当然还包括运行的执行机构、驱动机构、控制系统 等以及它们之间的电气连接,不难理解的是,执行机构为本实施例中的机械手 100、驱动机构为本实施例中下部关节臂400、中部关节臂500以及上部关节臂 600,通过驱动引导机械手100准确地抓住工件,并运送到所需的位置上。为 了使机械手100确地工作,手臂的三个自由度都要精确地定位。因此一般都需 要进行机器人的标定。而驱动机构可以是液压驱动式、气压驱动式、电气驱动 式和机械驱动式等,其中液压驱动式机械手通常由液动机、伺服阀、油泵、油 箱等组成驱动系统,由驱动机械手执行机构进行工作。通常它的具有很大的抓 举能力,其特点是结构紧凑、动作平稳、耐冲击、耐震动、防爆性好,但液压 元件要求有较高的制造精度和密封性能,否则漏油将污染环境。气压驱动式为 其驱动系统通常由气缸、气阀、气罐和空压机组成,其特点是气源方便、动作 迅速、结构简单、造价较低、维修方便。但难以进行速度控制,气压不可太高, 故抓举能力较低。电气驱动式是机械手使用得最多的一种驱动方式。其特点是 电源方便,响应快,驱动力较大,信号检测、传动、处理方便,并可采用多种 灵活的控制方案。驱动电机一般采用步进电机,直流伺服电机为主要的驱动方 式。由于电机速度高,通常须采用减速机构,如谐波传动、RV摆线针轮传动、 齿轮传动、螺旋传动和多杆机构等。有些机械手已开始采用无减速机构的大转 矩、低转速电机进行直接驱动这既可使机构简化,又可提高控制精度。
进一步的,机械手100的控制要素包括工作顺序、到达位置、动作时间、 运动速度、加减速度等,机械手100的控制分为点位控制和连续轨迹控制两种。 并且控制系统可根据动作的要求,设计采用数字顺序控制。它首先要编制程序 加以存储,然后再根据规定的程序,控制机械手100进行工作程序的存储方式 有分离存储和集中存储两种。分离存储是将各种控制因素的信息分别存储于两 种以上的存储装置中,如顺序信息存储于插销板、凸轮转鼓、穿孔带内;位置 信息存储于时间继电器、定速回转鼓等;集中存储是将各种控制因素的信息全 部存储于一种存储装置内,如磁带、磁鼓等。这种方式使用于顺序、位置、时 间、速度等必须同时控制的场合,即连续控制的情况下使用。其中插销板使用 于需要迅速改变程序的场合。换一种程序只需抽换一种插销板限可,而同一插 件又可以反复使用;穿孔带容纳的程序长度可不受限制,但如果发生错误时就 要全部更换;穿孔卡的信息容量有限,但便于更换、保存,可重复使用;磁蕊 和磁鼓仅适用于存储容量较大的场合。至于选择哪一种控制元件,则根据动作 的复杂程序和精确程序来确定。对动作复杂的机械手100,采用示教再现型控 制系统。更复杂的机械手100采用数字控制系统、小型计算机或微处理机控制的系统。控制系统以插销板用的最多,其次是凸轮转鼓。它装有许多凸轮,每 一个凸轮分配给一个运动轴,转鼓运动一周便完成一个循环。上述对于机器人 的控制系统可以参照现有技术实现,此处不再做详述。
实施例3
参照图5~9的示意,本实施例中为了实现机械手100和摄像机本体200间 的便捷安装和拆卸,从而满足和摄像机本体200的维护和更换且能够实现单目 摄像机和机器人之前独立工作的开展。例如机械手100需要单独展开工作时, 便需要将摄像机本体200拆下,或者当摄像机本体200需要更换维护以及在摄 像机需要拆下进行作业时。因此本实施例中安装座101还包括夹板101a、延伸 板101b、支撑板101c、活动板101d、锁定组件101e和升降组件101f。具体的, 机械手100与摄像机本体200连接,且摄像机本体200设置于机械手100的下 方。底座300、下部关节臂400、中部关节臂500以及上部关节臂600由下至上 依次连接,且机械手100与上部关节臂600连接;其中下部关节臂400相对底 座300能够发生水平转动,中部关节臂500相对下部关节臂400竖直旋转,上 部关节臂600与中部关节臂500相对竖直旋转,以及机械手100与上部关节臂 600能够发生相对竖直转动,且上部关节臂600能够发生自身的转动,从而通 过底座300、下部关节臂400、中部关节臂500以及上部关节臂600的联动实现 机械手100和摄像机本体200在三维空间内的移动。
进一步的,机械手100还包括安装座101、末端102、夹持端103和驱动端 104。其中机械手100上方设置安装座101;摄像机本体200,摄像机本体200 的下方设置定位架201,定位架201安装于安装座101上。夹持端103和末端 102分别设置于驱动端104的前后方,驱动端104能够驱动夹持端103执行夹 持动作。
需要说明的是,机器人当然还包括运行的执行机构、驱动机构、控制系统 等以及它们之间的电气连接,不难理解的是,执行机构为本实施例中的机械手 100、驱动机构为本实施例中下部关节臂400、中部关节臂500以及上部关节臂 600,通过驱动引导机械手100准确地抓住工件,并运送到所需的位置上。为 了使机械手100确地工作,手臂的三个自由度都要精确地定位。因此一般都需 要进行机器人的标定。而驱动机构可以是液压驱动式、气压驱动式、电气驱动 式和机械驱动式等,其中液压驱动式机械手通常由液动机、伺服阀、油泵、油 箱等组成驱动系统,由驱动机械手执行机构进行工作。通常它的具有很大的抓 举能力,其特点是结构紧凑、动作平稳、耐冲击、耐震动、防爆性好,但液压 元件要求有较高的制造精度和密封性能,否则漏油将污染环境。气压驱动式为 其驱动系统通常由气缸、气阀、气罐和空压机组成,其特点是气源方便、动作 迅速、结构简单、造价较低、维修方便。但难以进行速度控制,气压不可太高, 故抓举能力较低。电气驱动式是机械手使用得最多的一种驱动方式。其特点是 电源方便,响应快,驱动力较大,信号检测、传动、处理方便,并可采用多种 灵活的控制方案。驱动电机一般采用步进电机,直流伺服电机为主要的驱动方 式。由于电机速度高,通常须采用减速机构,如谐波传动、RV摆线针轮传动、 齿轮传动、螺旋传动和多杆机构等。有些机械手已开始采用无减速机构的大转 矩、低转速电机进行直接驱动这既可使机构简化,又可提高控制精度。
进一步的,机械手100的控制要素包括工作顺序、到达位置、动作时间、 运动速度、加减速度等,机械手100的控制分为点位控制和连续轨迹控制两种。 并且控制系统可根据动作的要求,设计采用数字顺序控制。它首先要编制程序 加以存储,然后再根据规定的程序,控制机械手100进行工作程序的存储方式 有分离存储和集中存储两种。分离存储是将各种控制因素的信息分别存储于两 种以上的存储装置中,如顺序信息存储于插销板、凸轮转鼓、穿孔带内;位置 信息存储于时间继电器、定速回转鼓等;集中存储是将各种控制因素的信息全 部存储于一种存储装置内,如磁带、磁鼓等。这种方式使用于顺序、位置、时 间、速度等必须同时控制的场合,即连续控制的情况下使用。其中插销板使用 于需要迅速改变程序的场合。换一种程序只需抽换一种插销板限可,而同一插 件又可以反复使用;穿孔带容纳的程序长度可不受限制,但如果发生错误时就 要全部更换;穿孔卡的信息容量有限,但便于更换、保存,可重复使用;磁蕊 和磁鼓仅适用于存储容量较大的场合。至于选择哪一种控制元件,则根据动作 的复杂程序和精确程序来确定。对动作复杂的机械手100,采用示教再现型控 制系统。更复杂的机械手100采用数字控制系统、小型计算机或微处理机控制的系统。控制系统以插销板用的最多,其次是凸轮转鼓。它装有许多凸轮,每 一个凸轮分配给一个运动轴,转鼓运动一周便完成一个循环。上述对于机器人 的控制系统可以参照现有技术实现,此处不再做详述。
其中,本实施例的安装座101还包括夹板101a、延伸板101b、支撑板101c 以及活动板101d;夹持端103设置于夹板101a内,延伸板101b将夹板101a 和支撑板101c连接,活动板101d与支撑板101c下方连接。且安装座101还包 括锁定组件101e和升降组件101f;锁定组件101e设置于支撑板101c上;升降 组件101f两端连接活动板101d和支撑板101c,用于活动板101d的上下升降。
进一步的,摄像机本体200还包括摄像头202、转动台203、倒钩204和填 充板205;摄像头202与转动台203连接,倒钩204由转动台203向下延伸并 向内收缩将定位架201钩住,且填充板205设置于定位架201与转动台203之 间。锁定组件101e还包括柱槽101e-1、锁定件101e-2和弹片101e-3;柱槽101e-1 设置于支撑板101c上;相对的锁定件101e-2设置于柱槽101e-1内且还包括位 于柱槽101e-1外的限位头101e-21和位于柱槽101e-1内的抵触板101e-22,弹片 101e-3抵触于抵触板101e-22和柱槽101e-1的内壁间。升降组件101f还包括连 接架101f-1、动力装置101f-2以及顶柱101f-3;连接架101f-1的两端分别连接 支撑板101c和动力装置101f-2,顶柱101f-3设置于活动板101d上且与柱槽 101e-1相对应。锁定组件101e能够对应插入定位孔201a中,相对的抵触板 101e-22间通过弹片101e-3的作用相抵触,顶柱101f-3通过上下升降能够插入 两抵触板101e-22间,能够将限位头101e-21向两侧抵开后与定位孔201a限位。 需要说明的是,动力装置101f-2本实施例中可以是电机驱动、液压驱动等,可 以接入机器人的驱动系统中,实现带动活动板101d的上下升降。
本实施例中安装座101和定位架201之间配合锁定过程为:初始状态下, 两个相对的锁定件101e-2间内的抵触板101e-22相互背对抵触,因此此时相对 的限位头101e-21合并状态,二者构成的柱体能够定位孔201a中,且限位头 101e-21能够伸出定位孔201a,限位头101e-21的底面高于定位孔201的顶面; 接着通过活动板101d被动力装置101f-2的驱动后进行向上升,顶柱101f-3具 有导向面,该导向面为圆锥面,从而顶柱101f-3上升的过程中,插入底部相对 限位头101e-21之间,将限位头101e-21由两端抵开,此时限位头101e-21将定 位孔201的钩住锁定,完成机械手100和摄像机本体200的安装。需要拆卸时, 活动板101d下降,顶柱101f-3由限位头101e-21之间降出,抵触板101e-22内 弹力复位,限位头101e-21再次呈合并状态,此时可将锁定件101e-2从定位孔 201a中拔出,完成拆卸的过程。
应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参 照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可 以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的精 神和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (10)
1.一种基于单目视觉辅助定位的机器人自标定方法,其特征在于:包括以下步骤,
建立机器人运动学模型、末端位置误差模型以及基于平面约束的机器人连杆参数误差模型;
定位约束平面,包括将给定已知特征的约束平面放置于机器人工作空间内,通过单目视觉系统辅助捕捉具有完整已知特征所述约束平面的图像,并通过已知特征与图像进行立体匹配,获取所述约束平面在机器人坐标系下的三维位置信息;
将立体匹配后得到的约束平面位置值输入到机器人控制系统中,驱动机器人对所述约束平面进行测量;
进行机器人连杆参数辨识,通过修正连杆参数达到机器人的标定精度;且将上述步骤进行代码编写实现集成和封装,能够实现机器人全自动化的一键自标定。
2.如权利要求1所述的基于单目视觉辅助定位的机器人自标定方法,其特征在于:所述建立机器人运动学模型包括,
建立D-H法与MD-H法相结合的机器人运动学模型,将坐标系i-1到坐标系i的变换过程描述为Ai,Ai=f(αi-1,ai-1,di,θi,βi),则机器人末端坐标系n相对于基坐标系的位姿矩阵0Tn为:
0Tn=A0·A1·...·An。
3.如权利要求1或2所述的基于单目视觉辅助定位的机器人自标定方法,其特征在于:所述建立机器人末端位置误差模型包括,
按照微分变换的思想对Ai进行全微分,得到由连杆几何参数误差造成的相邻坐标系间的微分摄动齐次矩阵dAi:
δAi是关节坐标系i相对于坐标系i-1的微分变换,则机器人相邻两连杆之间的实际齐次坐标变换即Ai+AiδAi,那么机器人末端坐标系相对于基坐标系的实际齐次变换矩阵TR为:
将上式展开,并略去高阶摄动项,化简后得到下式:
其中,△P=[dPx dPy dPz]T是机器人位置误差矩阵,J为3×(4n+1)连杆参数的微分变换雅可比矩阵,△X=[△α △a △θ △d △β]T为(4n+1)×1连杆参数误差矩阵。
4.如权利要求3所述的基于单目视觉辅助定位的机器人自标定方法,其特征在于:所述建立基于平面约束的机器人连杆参数误差模型包括,
设为约束平面上第i个接触点的名义位置值,可通过机器人正运动学直接计算,Ji为该位置处的雅克比矩阵,可通过关节角度值计算得到,实际位置Pi R=Pi N+Ji△X,则相邻两接触点间的偏差向量:
其中,
同样地,那么由相邻的两个偏差向量可构建一垂直于平面的名义法向量:
同样地,那么:
。
5.如权利要求1、2或4任一所述的基于单目视觉辅助定位的机器人自标定方法,其特征在于:所述定位约束平面还包括,
对相机进行张正友内参标定及手眼标定,控制相机在机器人工作空间内捕捉图像,对获得的图像进行分析处理;
若该图像中无约束平面特征,则控制机器人移动,然后重新获取新位置的图像;若该图像中约束平面特征不完整,则根据图中特征对机器人位置进行调整,然后重新获取新位置的图像;
若该图像中有完整的约束平面特征,则通过已知特征与图像进行立体匹配,从而获得约束平面在机器人坐标系下的三维位置信息。
6.如权利要求5所述的基于单目视觉辅助定位的机器人自标定方法,其特征在于:所述驱动机器人对约束平面进行测量包括,
将立体匹配后得到的约束平面位置值输入到机器人控制系统,驱动机器人对约束平面进行接触式测量,当测量头输出有接触信号时,立即记录当前各关节角度值,并对下一个约束点进行测量,若采集N+3个点:N0,N1,…,NN+2,则有:
H△X+S=0
其中,则可产生3N个方程。
7.如权利要求6所述的基于单目视觉辅助定位的机器人自标定方法,其特征在于:所述机器人连杆参数辨识包括,
通过改进的最小二乘法,对机器人运动学参数误差进行辨识,如下:
△X=-(HTH+μI)-1HTS
约束点的数量要满足3N≥4n+1。
8.根据权利要求2、6或7任一所述的基于视觉辅助定位的机器人一键自标定方法,其特征在于:所述建立机器人运动学模型还区分为,
当相邻关节轴线不平行时采用Craig提出的经典D-H法,其齐次坐标变换矩阵为:
Ai=Rot(xi-1,αi-1)Trans(ai-1,0,di)Rot(zi-1,θi)
当相邻关节轴线近似平行时采用在Craig法基础上提出的改进MD-H法,其齐次坐标变换矩阵为:
Ai=Rot(xi-1,αi-1)Trans(ai-1,0,0)Rot(yi-1,βi)Trans(0,0,di)Rot(zi-1,θi) 。
9.根据权利要求6所述的基于视觉辅助定位的机器人一键自标定方法,其特征在于:所述约束平面上的测量点,能够通过编程方式实现按一定规律有序排列,为研究约束点对标定结果的影响奠定基础。
10.根据权利要求1所述的基于视觉辅助定位的机器人一键自标定方法,其特征在于:所述给定已知特征的约束平面的特征顶点能够是任意四边形,只需要各边长及夹角特征已知。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811588906.4A CN109434839A (zh) | 2018-12-25 | 2018-12-25 | 一种基于单目视觉辅助定位的机器人自标定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811588906.4A CN109434839A (zh) | 2018-12-25 | 2018-12-25 | 一种基于单目视觉辅助定位的机器人自标定方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109434839A true CN109434839A (zh) | 2019-03-08 |
Family
ID=65535390
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811588906.4A Pending CN109434839A (zh) | 2018-12-25 | 2018-12-25 | 一种基于单目视觉辅助定位的机器人自标定方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109434839A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109807605A (zh) * | 2019-03-25 | 2019-05-28 | 广东利迅达机器人系统股份有限公司 | 一种手机安装设备的斜安装方法 |
CN110170995A (zh) * | 2019-05-09 | 2019-08-27 | 广西安博特智能科技有限公司 | 一种基于立体视觉的机器人快速示教方法 |
CN110340887A (zh) * | 2019-06-12 | 2019-10-18 | 西安交通大学 | 一种基于图像的加油机器人视觉引导的方法 |
CN111716346A (zh) * | 2019-03-20 | 2020-09-29 | 台达电子工业股份有限公司 | 机械手臂工具校正方法及其校正装置 |
CN113305851A (zh) * | 2021-06-17 | 2021-08-27 | 东莞理工学院 | 一种机器人微装配用在线检测装置 |
CN113514034A (zh) * | 2021-04-30 | 2021-10-19 | 中国船舶重工集团公司第七一三研究所 | 一种便携自稳定实时位姿测量装置 |
CN113733088A (zh) * | 2021-09-07 | 2021-12-03 | 河南大学 | 一种基于双目视觉的机械臂运动学自标定方法 |
CN115781766A (zh) * | 2023-02-13 | 2023-03-14 | 安徽文达信息工程学院 | 一种配置视觉定位系统的机械手 |
CN113733088B (zh) * | 2021-09-07 | 2024-05-14 | 河南大学 | 一种基于双目视觉的机械臂运动学自标定方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3394278B2 (ja) * | 1992-12-03 | 2003-04-07 | ファナック株式会社 | 視覚センサ座標系設定治具及び設定方法 |
US20100141776A1 (en) * | 2008-12-10 | 2010-06-10 | Fanuc Ltd | Calibrating device for calibration and image measurement system comprising calibrating device |
CN104616292A (zh) * | 2015-01-19 | 2015-05-13 | 南开大学 | 基于全局单应矩阵的单目视觉测量方法 |
CN106553195A (zh) * | 2016-11-25 | 2017-04-05 | 中国科学技术大学 | 工业机器人抓取过程中的物体6自由度定位方法及系统 |
CN107081755A (zh) * | 2017-01-25 | 2017-08-22 | 上海电气集团股份有限公司 | 一种机器人单目视觉引导系统的自动标定装置 |
CN107214703A (zh) * | 2017-07-11 | 2017-09-29 | 江南大学 | 一种基于视觉辅助定位的机器人自标定方法 |
-
2018
- 2018-12-25 CN CN201811588906.4A patent/CN109434839A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3394278B2 (ja) * | 1992-12-03 | 2003-04-07 | ファナック株式会社 | 視覚センサ座標系設定治具及び設定方法 |
US20100141776A1 (en) * | 2008-12-10 | 2010-06-10 | Fanuc Ltd | Calibrating device for calibration and image measurement system comprising calibrating device |
CN104616292A (zh) * | 2015-01-19 | 2015-05-13 | 南开大学 | 基于全局单应矩阵的单目视觉测量方法 |
CN106553195A (zh) * | 2016-11-25 | 2017-04-05 | 中国科学技术大学 | 工业机器人抓取过程中的物体6自由度定位方法及系统 |
CN107081755A (zh) * | 2017-01-25 | 2017-08-22 | 上海电气集团股份有限公司 | 一种机器人单目视觉引导系统的自动标定装置 |
CN107214703A (zh) * | 2017-07-11 | 2017-09-29 | 江南大学 | 一种基于视觉辅助定位的机器人自标定方法 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111716346A (zh) * | 2019-03-20 | 2020-09-29 | 台达电子工业股份有限公司 | 机械手臂工具校正方法及其校正装置 |
CN109807605A (zh) * | 2019-03-25 | 2019-05-28 | 广东利迅达机器人系统股份有限公司 | 一种手机安装设备的斜安装方法 |
CN110170995A (zh) * | 2019-05-09 | 2019-08-27 | 广西安博特智能科技有限公司 | 一种基于立体视觉的机器人快速示教方法 |
CN110340887A (zh) * | 2019-06-12 | 2019-10-18 | 西安交通大学 | 一种基于图像的加油机器人视觉引导的方法 |
CN113514034A (zh) * | 2021-04-30 | 2021-10-19 | 中国船舶重工集团公司第七一三研究所 | 一种便携自稳定实时位姿测量装置 |
CN113305851A (zh) * | 2021-06-17 | 2021-08-27 | 东莞理工学院 | 一种机器人微装配用在线检测装置 |
CN113733088A (zh) * | 2021-09-07 | 2021-12-03 | 河南大学 | 一种基于双目视觉的机械臂运动学自标定方法 |
CN113733088B (zh) * | 2021-09-07 | 2024-05-14 | 河南大学 | 一种基于双目视觉的机械臂运动学自标定方法 |
CN115781766A (zh) * | 2023-02-13 | 2023-03-14 | 安徽文达信息工程学院 | 一种配置视觉定位系统的机械手 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109434839A (zh) | 一种基于单目视觉辅助定位的机器人自标定方法 | |
CN111360827B (zh) | 一种视觉伺服切换控制方法及系统 | |
CN110039542B (zh) | 具有速度方向控制的视觉伺服跟踪控制方法及机器人系统 | |
Malis | Visual servoing invariant to changes in camera-intrinsic parameters | |
CN107175660B (zh) | 一种基于单目视觉的六自由度机器人运动学标定方法 | |
JP5852364B2 (ja) | 情報処理装置、情報処理装置の制御方法、およびプログラム | |
EP3407088A1 (en) | Systems and methods for tracking location of movable target object | |
CN111801198B (zh) | 一种手眼标定方法、系统及计算机存储介质 | |
CN109658460A (zh) | 一种机械臂末端相机手眼标定方法和系统 | |
Qin et al. | Robotic skill learning for precision assembly with microscopic vision and force feedback | |
CN108789404A (zh) | 一种基于视觉的串联机器人运动学参数标定方法 | |
Yesin et al. | A CAD model based tracking system for visually guided microassembly | |
Ponte et al. | Visual sensing for developing autonomous behavior in snake robots | |
CN106003020A (zh) | 机器人、机器人控制装置以及机器人系统 | |
CN111267073A (zh) | 一种基于增强现实技术的工业机器人示教系统及方法 | |
CN115179294A (zh) | 机器人控制方法、系统、计算机设备、存储介质 | |
Gratal et al. | Visual servoing on unknown objects | |
Jing et al. | Model-based coverage motion planning for industrial 3D shape inspection applications | |
CN114536346B (zh) | 一种基于人机协作和视觉检测的机械臂精确路径规划方法 | |
CN108656120B (zh) | 一种基于图像对比的示教、加工方法 | |
JPH07237158A (ja) | 位置・姿勢検出方法及びその装置並びにフレキシブル生産システム | |
CN114800523B (zh) | 机械臂轨迹修正方法、系统、计算机及可读存储介质 | |
Morel et al. | Robust visual servoing: Bounding the task function tracking errors | |
Đurović et al. | Low cost robot arm with visual guided positioning | |
CN109542094B (zh) | 无期望图像的移动机器人视觉镇定控制 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20190308 |
|
WD01 | Invention patent application deemed withdrawn after publication |