CN107214703B - 一种基于视觉辅助定位的机器人自标定方法 - Google Patents
一种基于视觉辅助定位的机器人自标定方法 Download PDFInfo
- Publication number
- CN107214703B CN107214703B CN201710560011.9A CN201710560011A CN107214703B CN 107214703 B CN107214703 B CN 107214703B CN 201710560011 A CN201710560011 A CN 201710560011A CN 107214703 B CN107214703 B CN 107214703B
- Authority
- CN
- China
- Prior art keywords
- robot
- plane
- constraint
- coordinate system
- vision
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/1605—Simulation of manipulator lay-out, design, modelling of manipulator
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Manipulator (AREA)
- Numerical Control (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明涉及一种基于平面约束以及视觉辅助定位的机器人自标定方法,用于获取机器人真实的连杆参数。首先建立D‑H法与MD‑H法相结合的机器人运动学模型;其次建立机器人末端位置误差模型;然后建立基于平面约束的机器人连杆参数误差模型;通过双目视觉获取约束平面在左右相机中的图像并提取单幅图像中的目标点信息,通过立体匹配定位约束平面在机器人基坐标系下的三维位置信息;将该位置信息输入给机器人控制系统,驱动机器人对约束平面进行测量;最终将测量得到的数据代入平面约束误差模型,辨识出机器人真实的几何连杆参数,修正后重复测量约束平面并辨识,直到达到精度要求。本发明方法具有成本低、精度高、效率高的特点。
Description
技术领域
本发明涉及一种机器人自标定方法,特别涉及一种基于平面约束以及视觉辅助定位的机器人自标定方法。
背景技术
1.机器人定位精度是衡量其工作性能的一个重要指标,目前,国内外厂家生产出来的机器人由于制造、安装等因素,大多绝对定位精度不高,无法满足高精加工以及离线编程的需要,因此,对引起机器人定位误差的各种因素进行分析,最大可能地提高机器人绝对定位精度已经成为机器人技术研究中的核心内容。
2.目前,国内外常用的机器人标定方法通常需要借助于外界先进的测量设备,成本高,且测量过程复杂,需要专业人员进行操作;同时,由于涉及到测量坐标系与机器人基坐标系的转换过程,容易引入坐标系环误差,且该误差与机器人连杆参数误差不属于同类误差,需要单独处理,过程较复杂。
3.为了降低成本等因素,很多研究人员提出了闭环法标定,即给机器人末端附加一约束,用的较多的是面约束(平面或球面),然而在对这些面进行接触式测量时,大多采用人工手动示教的方式,测量过程费时费力,效率很低。
4.针对上述技术情况,本发明在一般平面约束(手动示教进行接触式测量)的基础上,提出一种基于视觉辅助定位的机器人自标定方法。
发明内容
针对上述现有技术存在的不足,本发明在一般平面约束(手动示教进行接触式测量)的基础上,提供一种基于视觉辅助定位的机器人自标定方法,该方法通过双目视觉定位约束平面的位置,输入到机器人控制系统,控制机器人自动对约束平面进行接触式测量,在继承一般平面约束标定方法优点的同时,又大大提高了标定效率,并且,可通过编程使约束点按一定规律有序排列,可为后期研究约束点对机器人标定结果的影响奠定基础。
本发明技术方案步骤如下:
(1)建立机器人运动学模型
建立D-H法与MD-H法相结合的机器人运动学模型,将坐标系i-1到坐标系i的变换过程描述为Ai,Ai=f(αi-1,ai-1,di,θi,βi),则机器人末端坐标系n相对于基坐标系的位姿矩阵0Tn为:
0Tn=A0·A1·...·An
(2)建立机器人末端位置误差模型
按照微分变换的思想对Ai进行全微分,得到由连杆几何参数误差造成的相邻坐标系间的微分摄动齐次矩阵dAi:
将上式展开,并略去高阶摄动项,化简后得到下式:
其中,ΔP=[dPx dPy dPz]T是机器人位置误差矩阵,J为3×(4n+1)连杆参数的微分变换雅可比矩阵,ΔX=[Δα Δa Δθ Δd Δβ]T为(4n+1)×1连杆参数误差矩阵;
(3)建立基于平面约束的机器人连杆参数误差模型
(4)定位约束平面
对每个相机进行张正友内参标定及手眼标定,通过双目视觉获取约束平面在左右相机中的图像并提取单幅图像中的目标点信息,通过立体匹配即可定位约束平面在机器人基坐标系下的三维位置信息;
(5)驱动机器人对约束平面进行测量
将立体匹配后得到的约束平面位置值输入到机器人控制系统,驱动机器人对约束平面进行接触式测量,当测量头输出有接触信号时,立即记录当前各关节角度值,并对下一个约束点进行测量,若采集N+3个点:N0,N1,…,NN+2,则有:
HΔX+S=0
(6)机器人连杆参数辨识
通过改进的最小二乘法,对机器人运动学参数误差进行辨识,如下:
ΔX=-(HTH+μI)-1HTS
约束点的数量要满足3N≥4n+1。
本发明的有益效果是:本发明提供的一种基于视觉辅助定位的机器人自标定方法,成本低、精度高、测量效率高。通过附加双目视觉系统,自动获取约束平面位置,从而避免手动示教测量;可以通过编程手段实现约束点按一定规律有序排列,为研究约束点对标定结果的影响奠定基础;标定的精度完全取决于平面度,与双目视觉定位精度无关;对大理石平面的摆放要求,只需要满足在机器人工作空间内同时测头可安全接触平面,不需要让约束平面与基坐标系的某个轴垂直。
本发明的其他特征和优点将在随后的说明书中阐述,部分地从说明书中变得显而易见,或者通过实施本发明,并与其他方法比较后而了解。
附图说明
下面结合附图对本发明的具体实施方式作进一步说明。
图1是标定现场简图;
图2是粘贴靶点后的平面示意图;
图3是基于视觉辅助定位的机器人自标定方法流程图。
具体实施方式
以下结合附图对本发明的优先实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
参见附图1~3,本发明的基于视觉辅助定位的机器人自标定方法,包括以下几个步骤:
(1)建立机器人运动学模型
建立D-H法与MD-H法相结合的机器人运动学模型,将坐标系i-1到坐标系i的变换过程描述为Ai,Ai=f(αi-1,ai-1,di,θi,βi),则机器人末端坐标系n相对于基坐标系的位姿矩阵0Tn为:
0Tn=A0·A1·...·An
(2)建立机器人末端位置误差模型
按照微分变换的思想对Ai进行全微分,得到由连杆几何参数误差造成的相邻坐标系间的微分摄动齐次矩阵dAi:
将上式展开,并略去高阶摄动项,化简后得到下式:
其中,ΔP=[dPx dPy dPz]T是机器人位置误差矩阵,J为3×(4n+1)连杆参数的微分变换雅可比矩阵,ΔX=[Δα Δa Δθ Δd Δβ]T为(4n+1)×1连杆参数误差矩阵;
(3)建立基于平面约束的机器人连杆参数误差模型
(4)定位约束平面
对左右两个相机分别进行张正友内参标定,得到四参数内参矩阵:
其中,fxi,fyi(i=1,2)分别是x方向和y方向的尺度因子,[ui0,yi0](i=1,2)分别是左右两相机的主点坐标;
对左右两个相机分别进行手眼标定,即确定摄像机坐标系相对于机器人末端法兰坐标系的齐次转换矩阵,利用传统手眼标定方法AX=XB,至少使机器人运动到三个不同的姿态,分别计算获得左右两个相机的手眼矩阵X1,X2;
设目标点在末端法兰坐标系(世界坐标系)中的三维位置坐标为P=[Xw Yw Zw]T,可建立三维定位模型,如下:
Zl,Zr分别是目标点在摄像机坐标系下的深度信息,联立以上两个方程,可得:
其中,[ul vl]T,[ur vr]T分别是目标点在左右两像素坐标系中的位置值,由此,可计算得到[Xw Yw Zw]T,即通过立体匹配定位约束平面在机器人基坐标系下的三维位置信息;
(5)驱动机器人对约束平面进行测量
将立体匹配后得到的约束平面位置值输入到机器人控制系统,驱动机器人对约束平面进行接触式测量,当测量头输出有接触信号时,立即记录当前各关节角度值,并对下一个约束点进行测量,若采集N+3个点:N0,N1,…,NN+2,则有:
HΔX+S=0
(7)机器人连杆参数辨识
通过改进的最小二乘法,对机器人运动学参数误差进行辨识,如下:
ΔX=-(HTH+μI)-1HTS
约束点的数量要满足3N≥4n+1。
由此,可辨识出机器人所有的连杆参数误差。
上述虽然结合附图对本发明的具体实施方式进行了描述,但并非对本发明保护范围的限制,所属领域技术人员应该明白,在本发明的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本发明的保护范围以内。
Claims (7)
1.一种基于视觉辅助定位的机器人自标定方法,其特征在于:包括以下步骤:
(1)建立机器人运动学模型
建立D-H法与MD-H法相结合的机器人运动学模型,将关节坐标系i-1到关节坐标系i的变换过程描述为Ai,Ai=f(αi-1,ai-1,di,θi,βi),则机器人末端坐标系n相对于基坐标系的位姿矩阵0Tn为:
0Tn=A0·A1·...·An
由D-H法,上式中ai-1表示相邻两个关节的关节轴线Ji-1与Ji的公垂线距离,αi-1表示由Ji-1与上述公垂线构成平面P,Ji与平面P的夹角,di表示一个关节前后相邻两条公垂线之间的距离,θi表示一个关节前后相邻两条公垂线在以关节轴线Ji为法线的平面上的投影的夹角,由MD-H法,相邻两平行轴实际无法绝对平行,Ji轴实际位置应在与之有微小转角的J'i轴处,βi表示实际J'i轴与Ji-1轴之间存在的微小转角偏差;
(2)建立机器人末端位置误差模型
按照微分变换的思想对Ai进行全微分,得到由连杆几何参数误差造成的相邻关节坐标系间的微分摄动齐次矩阵dAi:
其中,T表示机器人末端坐标系相对于基坐标系的名义齐次变换矩阵,将上式展开,并略去高阶摄动项,化简后得到下式:
其中,ΔP=[dPx dPy dPz]T是机器人位置误差矩阵,其中各下标分别表示位置误差在x,y,z方向的分量;J为3×(4n+1)连杆参数的微分变换雅可比矩阵,其中,J的下标分别表示雅克比矩阵关于D-H各参数α,a,d,θ,β和关于x,y,z方向的分量;ΔX=[Δα ΔaΔθ Δd Δβ]T为(4n+1)×1连杆参数误差矩阵;
(3)建立基于平面约束的机器人连杆参数误差模型
由于ΔNi和ΔNi+1都垂直于平面,那么:
(4)定位约束平面
对每个相机进行张正友内参标定及手眼标定,通过双目视觉获取约束平面在左右相机中的图像并提取单幅图像中的目标点信息,通过立体匹配即可定位约束平面在机器人基坐标系下的三维位置信息;
(5)驱动机器人对约束平面进行测量
将立体匹配后得到的约束平面位置值输入到机器人控制系统,驱动机器人对约束平面进行接触式测量,当测量头输出有接触信号时,立即记录当前各关节角度值,并对下一个约束点进行测量,若采集N+3个点:N0,N1,…,NN+2,则有:
HΔX+S=0
其中,N表示在初始采集3个点的基础上另外连续采集的测量点数量,由于每4个点可构成步骤(3)中的一个等式,且每个等式中在x,y,z方向各能产生一个方程,若共采集N+3个点,则可产生3N个方程,系统一共有4n+1个未知参数,因此约束点的数量要满足3N≥4n+1;
(6)机器人连杆参数辨识
通过改进的最小二乘法,对机器人运动学参数误差进行辨识,如下:
ΔX=-(HTH+μI)-1HTS
其中,μ叫做组合系数;I为单位矩阵。
2.根据权利要求1所述的基于视觉辅助定位的机器人自标定方法,其特征在于:所述步骤(1)中,相邻关节轴线不平行时采用Craig提出的经典D-H法,其齐次坐标变换矩阵为:
Ai=Rot(xi-1,αi-1)Trans(ai-1,0,di)Rot(zi-1,θi)
相邻关节轴线近似平行时采用在Craig法基础上提出的改进MD-H法,其齐次坐标变换矩阵为:
Ai=Rot(xi-1,αi-1)Trans(ai-1,0,0)Rot(yi-1,βi)Trans(0,0,di)Rot(zi-1,θi)
其中xi-1,yi-1,zi-1表示变换绕着或沿着的轴线。
3.根据权利要求1所述的基于视觉辅助定位的机器人自标定方法,其特征在于:对约束平面进行接触式测量时,通过双目视觉对其进行定位,避免了手动示教的测量方式。
4.根据权利要求1所述的基于视觉辅助定位的机器人自标定方法,其特征在于:约束平面上的测量点,可以通过编程手段实现按一定规律有序排列。
5.根据权利要求1所述的基于视觉辅助定位的机器人自标定方法,其特征在于:所使用的约束平面是一加工精度达到平面度0.035mm的大理石平面,标定的精度完全取决于平面度,与双目视觉定位精度无关。
6.根据权利要求1所述的基于视觉辅助定位的机器人自标定方法,其特征在于:在大理石平面上粘贴直径为8mm的标准靶点,双目视觉捕捉目标靶点而不需要捕捉整块大理石,以此弥补定焦双目视觉视野范围狭小的弊端。
7.根据权利要求1所述的基于视觉辅助定位的机器人自标定方法,其特征在于:对大理石平面的摆放要求,只需要满足在机器人工作空间内同时测头可安全接触平面,不需要让约束平面与基坐标系的某个轴垂直。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710560011.9A CN107214703B (zh) | 2017-07-11 | 2017-07-11 | 一种基于视觉辅助定位的机器人自标定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710560011.9A CN107214703B (zh) | 2017-07-11 | 2017-07-11 | 一种基于视觉辅助定位的机器人自标定方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107214703A CN107214703A (zh) | 2017-09-29 |
CN107214703B true CN107214703B (zh) | 2020-08-14 |
Family
ID=59952572
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710560011.9A Expired - Fee Related CN107214703B (zh) | 2017-07-11 | 2017-07-11 | 一种基于视觉辅助定位的机器人自标定方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107214703B (zh) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108044651A (zh) * | 2017-10-19 | 2018-05-18 | 北京航空航天大学 | 一种基于双目视觉的空间机械臂运动学参数在轨标定方法 |
CN109074661A (zh) * | 2017-12-28 | 2018-12-21 | 深圳市大疆创新科技有限公司 | 图像处理方法和设备 |
CN108406771B (zh) * | 2018-03-09 | 2021-03-16 | 江南大学 | 一种机器人自标定方法 |
CN108638060B (zh) * | 2018-05-03 | 2021-09-28 | 大连理工大学 | 多自由度机器人参数标定中冗余参数分析剔除方法 |
CN108789404B (zh) * | 2018-05-25 | 2021-06-18 | 哈尔滨工程大学 | 一种基于视觉的串联机器人运动学参数标定方法 |
CN109077822B (zh) * | 2018-06-22 | 2020-11-03 | 雅客智慧(北京)科技有限公司 | 一种基于视觉测量的牙科种植手机标定系统及方法 |
CN109389647B (zh) * | 2018-09-04 | 2020-09-04 | 中国地质大学(武汉) | 一种相机拍摄角标校方法、设备及存储设备 |
CN109434839A (zh) * | 2018-12-25 | 2019-03-08 | 江南大学 | 一种基于单目视觉辅助定位的机器人自标定方法 |
CN110480658B (zh) * | 2019-08-15 | 2022-10-25 | 同济大学 | 一种融合视觉自标定的六轴机器人控制系统 |
CN110456392B (zh) * | 2019-08-23 | 2021-05-11 | 北京建筑大学 | 一种建筑塔机横臂位置精准定位可靠性验证方法 |
CN111591474B (zh) * | 2020-02-28 | 2021-12-07 | 上海航天控制技术研究所 | 一种航天器在轨操作系统对准式手眼标定方法 |
CN112381887B (zh) * | 2020-11-17 | 2021-09-03 | 南方电网电力科技股份有限公司 | 一种多深度相机标定方法、装置、设备和介质 |
CN112621743B (zh) * | 2020-11-19 | 2022-11-25 | 深圳众为兴技术股份有限公司 | 机器人及其相机固定于末端的手眼标定方法及存储介质 |
CN112223302B (zh) * | 2020-12-17 | 2021-02-26 | 国网瑞嘉(天津)智能机器人有限公司 | 基于多传感器的带电作业机器人的快速标定方法及装置 |
CN112743524B (zh) * | 2021-01-27 | 2022-11-25 | 上海应用技术大学 | 一种标靶装置、基于双目视觉测量的位姿检测系统及方法 |
CN113386130B (zh) * | 2021-05-21 | 2023-02-03 | 北部湾大学 | 一种仿生蛇形机器人控制系统及其控制方法 |
CN113450378B (zh) * | 2021-06-28 | 2022-06-03 | 河北工业大学 | 一种判断触点组差平面高度数据匹配程度的方法 |
CN113752297B (zh) * | 2021-09-07 | 2023-03-03 | 浙江理工大学 | 基于圆周封闭原则的工业机器人自校准装置及方法 |
CN113733088B (zh) * | 2021-09-07 | 2024-05-14 | 河南大学 | 一种基于双目视觉的机械臂运动学自标定方法 |
CN113634958A (zh) * | 2021-09-27 | 2021-11-12 | 西安知象光电科技有限公司 | 一种基于三维视觉的大型结构件自动化焊接系统及方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5365218B2 (ja) * | 2009-01-28 | 2013-12-11 | 富士電機株式会社 | ロボットビジョンシステムおよび自動キャリブレーション方法 |
CN102818524A (zh) * | 2012-07-31 | 2012-12-12 | 华南理工大学 | 一种基于视觉测量的在线机器人参数校准方法 |
CN103231375A (zh) * | 2013-04-28 | 2013-08-07 | 苏州大学 | 基于距离误差模型的工业机器人标定方法 |
CN105773609A (zh) * | 2016-03-16 | 2016-07-20 | 南京工业大学 | 一种基于视觉测量及距离误差模型的机器人运动学标定方法 |
-
2017
- 2017-07-11 CN CN201710560011.9A patent/CN107214703B/zh not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
CN107214703A (zh) | 2017-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107214703B (zh) | 一种基于视觉辅助定位的机器人自标定方法 | |
CN110370286B (zh) | 基于工业机器人和单目相机的定轴运动刚体空间位置识别方法 | |
CN111775146B (zh) | 一种工业机械臂多工位作业下的视觉对准方法 | |
CN109794938B (zh) | 一种适用于曲面结构的机器人制孔误差补偿装置及其方法 | |
CN110421562B (zh) | 基于四目立体视觉的机械臂标定系统和标定方法 | |
CN111531547B (zh) | 一种基于视觉测量的机器人标定及检测方法 | |
CN111531407B (zh) | 一种基于图像处理的工件姿态快速测量方法 | |
CN111415391A (zh) | 一种采用互拍法的多目相机外部方位参数标定方法 | |
CN114378822B (zh) | 一种基于视觉的机器人机械臂末端位姿的调整方法 | |
CN109465830B (zh) | 机器人单目立体视觉标定系统及方法 | |
CN112894209A (zh) | 一种基于十字激光的管板智能焊接机器人自动平面校正方法 | |
CN112958960B (zh) | 一种基于光学靶标的机器人手眼标定装置 | |
CN110202560A (zh) | 一种基于单个特征点的手眼标定方法 | |
CN114001651B (zh) | 一种基于双目视觉测量和先验检测数据的大型细长筒类构件位姿原位测量方法 | |
CN111008602B (zh) | 一种小曲率薄壁零件用二维和三维视觉结合的划线特征提取方法 | |
CN111452045B (zh) | 一种基于立体视觉的钢筋识别标记系统和方法 | |
CN112658643A (zh) | 接插件装配方法 | |
CN112828878B (zh) | 一种大型设备对接过程三维测量与跟踪方法 | |
CN115741720A (zh) | 基于双目视觉技术及lm算法的机器人的零点标定系统及其方法 | |
CN115042175A (zh) | 一种机器人机械臂末端姿态的调整方法 | |
CN114092552A (zh) | 一种基于固定端图像进行大型刚体构件对接的方法 | |
CN113012238A (zh) | 一种多深度相机快速标定与数据融合的方法 | |
CN113240751B (zh) | 一种机器人末端相机的标定方法 | |
CN111716340B (zh) | 3d相机与机械手臂坐标系统的校正装置及方法 | |
CN115578465B (zh) | 一种基于双目视觉的激光定位与标注方法及产品和应用 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20200814 Termination date: 20210711 |
|
CF01 | Termination of patent right due to non-payment of annual fee |