CN112975973B - 一种应用于柔性机器人的混合标定方法及装置 - Google Patents
一种应用于柔性机器人的混合标定方法及装置 Download PDFInfo
- Publication number
- CN112975973B CN112975973B CN202110228577.8A CN202110228577A CN112975973B CN 112975973 B CN112975973 B CN 112975973B CN 202110228577 A CN202110228577 A CN 202110228577A CN 112975973 B CN112975973 B CN 112975973B
- Authority
- CN
- China
- Prior art keywords
- tail end
- flexible robot
- calibration
- pose
- hand
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000005457 optimization Methods 0.000 claims description 37
- 239000011159 matrix material Substances 0.000 claims description 30
- 230000009466 transformation Effects 0.000 claims description 30
- 238000005259 measurement Methods 0.000 claims description 18
- 238000004422 calculation algorithm Methods 0.000 claims description 17
- 238000006243 chemical reaction Methods 0.000 claims description 15
- 239000002245 particle Substances 0.000 claims description 15
- 238000013178 mathematical model Methods 0.000 claims description 14
- 230000000007 visual effect Effects 0.000 claims description 12
- 238000000605 extraction Methods 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 238000009795 derivation Methods 0.000 description 3
- 230000007547 defect Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000002324 minimally invasive surgery Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/1653—Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/1607—Calculation of inertia, jacobian matrixes and inverses
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1615—Programme controls characterised by special kind of manipulator, e.g. planar, scara, gantry, cantilever, space, closed chain, passive/active joints and tendon driven manipulators
- B25J9/1625—Truss-manipulator for snake-like motion
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Automation & Control Theory (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种应用于柔性机器人的混合标定方法及装置,设有柔性机器人、固定基座、手眼相机、全局相机、外部基座标定板以及末端标定板,所述手眼相机和所述末端标定板与所述柔性机器人的末端连接,所述全局相机与所述外部基座标定板固定于所述所述固定基座的一侧;其中,所述手眼相机用于拍摄所述外部基座标定板,获取相对位姿信息,所述全局相机用于拍摄所述末端标定板,获取相对位姿信息。本发明用于在未知机器人末端与基座的正运动学关系的情况下,获取末端相对于基座位姿信息,并与输入的期望末端位姿进行对比,进而对机器人的运动学参数进行标定,能够解决柔性机器人末端定位精度不高等问题。
Description
技术领域
本发明涉及机器人视觉测量领域,尤其应用于关节型柔性机器人的末端位姿视觉标定。
技术背景
随着科学技术的快速发展,对智能机器人的环境适应性以及环境限制的克服能力有着越来越高的要求。尤其在航空航天和核电站检修、抢险救灾、微创手术等领域中,面临狭小管道空间以及非结构化环境,要求智能机器人能够在这些复杂环境下感知外界变化,回避障碍自主完成任务。
由于传统的6自由度工业机械臂的臂段尺寸较大、自由度少导致灵活性差的缺点,在受限狭小环境中不能很好完成任务,不适合非结构化的工作环境。而绳索驱动的超冗余自由度柔性机械臂具有臂段轻便尺寸小、运动灵巧、工作空间大,非常适合在这些复杂的非结构化环境下工作。特别是近些年来,基于主被动混合驱动的分段联动式绳索驱动柔性机器人能在较少驱动单元的情况下获得好的表现,因此具有广泛的应用前景。然而,绳索驱动的柔性机器人通过绳索的拉力驱动关节的运动,存在着运动学的多层级耦合、绳索摩擦等问题,以至于柔性机械臂普遍存在建模难、末端运动精度差等问题。针对该问题可以通过相机视觉系统对机器人末端运动进行标定。相机视觉系统具有布置简单并且测量准确度较高的特点,在该问题上实用性强。本发明通过两套手眼视觉系统及混合标定方法,能够在未知机器人末端与基座的正运动学关系的情况下,获取末端相对于基座位姿信息,进而对机器人运动参数进行标定,能够解决柔性机器人正运动学参数不准确,导致末端定位精度不高问题。综上所述,研究一种应用于柔性机器人的混合标定方法及装置具有重要的现实意义。
发明内容
鉴于现有技术的缺陷,本发明旨在于提供一种应用于柔性机器人的混合标定方法及装置。通过本发明的方法能够针对目前绳索驱动柔性机器人普遍存在的运动学参数难以准确获取,末端控制精度低等问题。用于在未知机器人末端与基座的正运动学关系的情况下,获取末端相对于基座位姿信息,并与输入的期望末端位姿进行对比,进而对机器人的运动学参数进行标定,能够解决柔性机器人末端定位精度不高等问题。
为了实现上述目的,本发明采用的技术方案如下:
一种应用于柔性机器人的混合标定的装置,具有固定基座、设置于所述固定基座上的柔性机器人、视觉系统以及控制系统,所述视觉系统设有手眼相机、全局相机、外部基座标定板以及末端标定板,所述手眼相机和所述末端标定板与所述柔性机器人的末端连接,所述全局相机与所述外部基座标定板固定于所述固定基座的一侧;其中,所述手眼相机用于拍摄所述外部基座标定板,获取相对位姿信息,所述全局相机用于拍摄所述末端标定板,获取相对位姿信息。
优选的,所述控制系统包括:
特征提取模块,用于通过视觉特征获取相机与标定板之间的位姿特征信息;
位姿求解模块,用于对已获取相机与标定板之间的位姿特征信息,采用XBX-1=YCY-1或XBY=CZ混合标定数学模型求解柔性机器人末端与手眼相机、末端标定板的相对位姿;
标定转换模块,用于通过坐标系转换,由已得到柔性机器人末端与手眼相机、末端标定板的相对位姿信息,进而得到柔性机器人末端相对于基座的位姿;
运动学参数更新模块,用于根据所获取误差模型,使用粒子群算法求解所设计优化模型,求得最优运动学参数。
本发明还提供一种应用于柔性机器人的混合标定的装置的混合标定方法,所述方法包括以下步骤:
S1通过视觉系统,分别获取柔性机器人末端手眼相机到外部基座标定板,以及全局相机到柔性机器人的末端标定板的位姿转换关系;
S2通过混合手眼标定数学模型,求解得到柔性机器人上的手眼相机、外部基座标定板、末端标定板与柔性机器人本体末端之间的位姿转换关系;
S3通过坐标系转换,获得手眼相机、全局相机测量下的柔性机器人末端相对于固定基座的齐次变换矩阵;
S4通过将手眼相机、全局相机测量下与基于正运动学递推得到的柔性机器人末端相对于固定基座的位姿进行对比,得到柔性机器人末端位姿的误差模型,并根据此建立优化模型,最小化误差;
S5通过粒子群优化算法对优化模型进行求解,得到最优D-H参数,对柔性机器人运动学参数进行标定,提高柔性机器人末端位姿的控制精度。
优选的,所述步骤S2中的混合手眼标定数学模型包括XBX-1=YCY-1和XBY=CZ,求解柔性机器人末端相对于手眼相机、柔性机器人末端相对于末端标定板齐次变换矩阵。
优选的,所述步骤S3中通过柔性机器人末端的连续运动,视觉标定系统获得多组位姿信息,借助李代数的指数映射迭代求解柔性机器人末端相对于手眼相机、柔性机器人末端相对于末端标定板齐次变换矩阵;再通过D-H参数法获得机器人末端相对于基座的齐次变换矩阵。
优选的,所述步骤S5中以D-H参数的变化值为参数,以最小化末端位置与姿态差的加权和为目标,建立优化模型;并通过粒子群优化算法迭代计算优化模型,得出最优D-H参数,标定柔性机器人的正运动学参数。
本发明的有益效果在于,通过视觉标定的方法对绳索驱动柔性机器人的运动学参数进行标定,解决了柔性机器人末端位姿难以准确获取、末端位姿跟踪误差大的问题。通过所布置的由手眼相机、全局相机及它们对应的标定板所组成的“手在眼”和“眼看手”视觉系统,测量获取相机与标定板之间的位姿特征信息。再通过本方法所建立的XBX-1=YCY-1或XBY=CZ混合标定数学模型,计算出相机相对于标定板的位姿转换关系,并通过坐标系的转换关系,获得柔性机器人末端相对于基座的位姿转换关系,实现通过视觉测量动态地、准确地获取柔性机器人末端位姿。进一步地,将所获取的柔性机器人末端位姿信息与所输入的柔性机器人期望末端位姿进行对比,建立柔性机器人末端位姿的误差模型。同时以D-H参数的变化值为参数,以最小化末端位置与姿态误差的加权和为目标,建立起优化模型。并通过粒子群优化算法迭代计算优化模型,得出最优D-H参数,校正柔性机器人的正运动学计算,实现对机器人末端运动精度的提升。
相比于现有技术,本发明能够不借助传统的机器人正运动学计算的方法获取末端位姿,并通过优化模型计算标定运动学参数,有效提升柔性机器人的末端位姿跟踪精度。
附图说明
图1为本发明的柔性机器人视觉测量系统三维示意图;
图2为本发明柔性机器人混合标定方法流程示意图;
图3为本发明的混合标定装置及柔性机器人之间坐标系转换关系示意图;
图4为本发明的混合标定数学模型计算程序流程图;
图5为本发明的对机器人正运动学参数优化模型的粒子群优化计算程序流程图。
具体实施例
以下将结合附图对本发明作进一步的描述,需要说明的是,本实施例以本技术方案为前提,给出了详细的实施方式和具体的操作过程,但本发明的保护范围并不限于本实施例。
本发明为一种应用于柔性机器人的混合标定的装置,具有固定基座、设置于所述固定基座上的柔性机器人、视觉系统以及控制系统,所述视觉系统设有手眼相机、全局相机、外部基座标定板以及末端标定板,所述手眼相机和所述末端标定板与所述柔性机器人的末端连接,所述全局相机与所述外部基座标定板固定于所述固定基座的一侧;其中,所述手眼相机用于拍摄所述外部基座标定板,获取相对位姿信息,所述全局相机用于拍摄所述末端标定板,获取相对位姿信息。
优选的,所述控制系统包括:
特征提取模块,用于通过视觉特征获取相机与标定板之间的位姿特征信息;
位姿求解模块,用于对已获取相机与标定板之间的位姿特征信息,采用XBX-1=YCY-1或XBY=CZ混合标定数学模型求解柔性机器人末端与手眼相机、末端标定板的相对位姿;
标定转换模块,用于通过坐标系转换,由已得到柔性机器人末端与手眼相机、末端标定板的相对位姿信息,进而得到柔性机器人末端相对于基座的位姿;
运动学参数更新模块,用于根据所获取误差模型,使用粒子群算法求解所设计优化模型,求得最优运动学参数。
本发明还提供一种应用于柔性机器人的混合标定的装置的混合标定方法,所述方法包括以下步骤:
S1通过视觉系统,分别获取柔性机器人末端手眼相机到外部基座标定板,以及全局相机到柔性机器人的末端标定板的位姿转换关系;
S2通过混合手眼标定数学模型,求解得到柔性机器人上的手眼相机、外部基座标定板、末端标定板与柔性机器人本体末端之间的位姿转换关系;
S3通过坐标系转换,获得手眼相机、全局相机测量下的柔性机器人末端相对于固定基座的齐次变换矩阵;
S4通过将手眼相机、全局相机测量下与基于正运动学递推得到的柔性机器人末端相对于固定基座的位姿进行对比,得到柔性机器人末端位姿的误差模型,并根据此建立优化模型,最小化误差;
S5通过粒子群优化算法对优化模型进行求解,得到最优D-H参数,对柔性机器人运动学参数进行标定,提高柔性机器人末端位姿的控制精度。
优选的,所述步骤S2中的混合手眼标定数学模型包括XBX-1=YCY-1和XBY=CZ,求解柔性机器人末端相对于手眼相机、柔性机器人末端相对于末端标定板齐次变换矩阵。
优选的,所述步骤S3中通过柔性机器人末端的连续运动,视觉标定系统获得多组位姿信息,借助李代数的指数映射迭代求解柔性机器人末端相对于手眼相机、柔性机器人末端相对于末端标定板齐次变换矩阵;再通过D-H参数法获得机器人末端相对于基座的齐次变换矩阵。
优选的,所述步骤S5中以D-H参数的变化值为参数,以最小化末端位置与姿态差的加权和为目标,建立优化模型;并通过粒子群优化算法迭代计算优化模型,得出最优D-H参数,标定柔性机器人的正运动学参数。
实施例一
如图1所示,为本发明实施例提供的一种用于柔性机器人的混合标定的视觉测量系统立体示意图,其包括柔性机器人1、外部标定板2、全局相机3、手眼相机4、末端标定板5、固定基座6、微处理器(图中未表示);柔性机器人1、全局相机3及外部标定板2设置于所述固定基座6上;柔性机器人的末端设置手眼相机4,并使其与柔性机器人末端保持固定连接,手眼相机4用于拍摄外部标定板2,以测量其在手眼相机坐标系下的位姿信息;同时柔性机器人的末端设置末端标定板5,并使其与柔性机器人末端保持固定连接,全局相机3用于拍摄末端标定板5,以测量其在全局相机坐标系下的位姿信息;
上述标定板区域用于对手眼相机与全局相机的内参与外参进行精确标定;
借助上述视觉测量系统可实现柔性机器人末端位姿测量以及柔性机器人正运动学的参数标定的功能。
实施例二
本发明实施例一提供一种应用于柔性机器人的混合标定装置,本实施例适用于柔性机器人末端位姿测量和柔性机器人末端运动控制领域。柔性机器人的混合标定装置可以分为以下模块:特征提取模块、位姿求解模块、标定转换模块、运动学参数更新模块。
特征提取模块,用于通过视觉特征获取相机与标定板之间的位姿特征信息;
位姿求解模块,用于对已获取相机与标定板之间的位姿特征信息,采用XBX-1=YCY-1或XBY=CZ混合标定数学模型求解柔性机器人末端与手眼相机、末端标定板的相对位姿;
标定转换模块,用于通过坐标系转换,由已得到柔性机器人末端与手眼相机、末端标定板的相对位姿信息,进而得到柔性机器人末端相对于基座的位姿;
运动学参数更新模块,用于根据所获取误差模型,使用粒子群算法求解所设计优化模型,求得最优运动学参数;
实施例三
本发明实施例一提供一种应用于柔性机器人的混合标定方法,本实施例适用于柔性机器人末端位姿测量和柔性机器人末端运动控制领域。
图2为本发明实施例提供的一种应用于柔性机器人的混合标定方法的实现流程图,该方法主要包括以下步骤:
S1:获取位姿特征信息。通过手眼及全局相机拍摄其对应标定板,获取手眼及全局相机坐标系下标定板的位姿信息(即相机的外参);
S2:标定目标位姿关系。建立柔性机器人基座到外部标定板或求解相机的坐标系递推关系,结合由“眼在手”和“眼看手”视觉测量系统获取数据,将其中柔性机器人末端相对于基座的位姿关系消去,推导得XBX-1=YCY-1或XBY=CZ两种混合手眼标定数学模型。通过指数映射迭代求解手眼相机及末端标定板相对于柔性机器人末端的位姿转换关系。
S3:计算末端位姿。由柔性机器人基座到外部标定板或求解相机的坐标系递推关系,通过坐标系转换,获取柔性机器人末端相对于基座的位姿转换关系,同时通过正运动学递推,获得期望的末端相对于基座的位姿。
S4:优化机器人正运动学参数。计算机器人末端位姿误差,并以5个D-H参数的变化值为参数,以最小化末端位置与姿态差的加权和为目标,建立优化模型。通过粒子群优化算法迭代计算所建立优化模型,得到优化模型条件下最优D-H参数,并使用所得参数替代控制算法当中的参数,以减小柔性机器人末端运动误差。
下面详细描述本实施例的“XBX-1=YCY-1”混合标定数学模型计算过程。
根据图3所示的“眼在手”视觉系统的位姿转换关系可得:
其中:bTcb为标定板系相对于基座坐标系的位姿变换矩阵,b为基座坐标系,cb为标定板系,eh为末端系,cl手眼相机系。
对式(1)进行化简可得:
Aeh·X=X·Bcl (2)
同样地,根据“眼看手”视觉系统的位姿转换关系可得:
对式(3)进行化简,同理可得:
Aeh·Y=Y·Cmk (4)
联立式(1)和式(3)可得:
X·Bcl·X-1=Y·Cmk·Y-1 (5)
对于式(6)、(7)中旋转变换矩阵R(·)的求解,可以借助李代数。由于旋转矩阵R(·)∈SO(3),因此可以通过其李代数r%来指数映射,即有:
对式(8)进行泰勒展开,可以得到:
P·rXY=Q (13)
根据以上推导,要想准确解出rXY,至少需要进行N≥3次测量,每次测量都可以得到式(13),将这些方程组进行组装可得:
其中,
根据式(17)可得:
于是可求得,
当求解得到旋转矩阵RX和RY后,对式(7)进行化简可得:
式(22)可以进一步简化为:
K·tXY=b (23)
因此由每次测量数据都可得到式(23)。同样地,可以将这些方程组进行组装,得到:
其中,
根据式(24)可得:
上述的“XBX-1=YCY-1”混合标定算法的整体流程如图4所示。
下面详细描述本实施例的“XBY=CZ”标定数学模型计算过程。
根据图3所示的“眼在手”,“眼看手”视觉系统的位姿转换关系可得:
联立两式得到:
XBclY=CgcZ (29)
其中,X=gcTcb,Y=clTeh,Z=mkTeh,Bcl=cbTcl,Cgc=gcTmk。
对式(29)进行展开化简可得:
根据前文提到的李代数迭代求解方法,可以将式(36)进一步展开为:
对式(32)忽略二次微小量,进一步整理为:
P·rXYZ=Q (33)
其中,
通过N次测量,每次测量都能得到方程(33),对同类方程组进行组装得到:
当求解得到旋转矩阵RX、RY和RZ后,对式(31)进行化简可得:
类似地,式(39)可进一步化简为:
K·tXYZ=b (40)
根据上文的推导,每次测量都可以得到式(40),将这些方程组进行组装可以得到:
进一步可以求得:
下面是柔性机器人末端位姿误差模型的详细推导过程。
在使用D-H参数法建立柔性机器人的正运动学时,为了避免两个轴之间的共同法线不平行而导致欧拉距离突然变化,引入了一个额外变量β。于是,相邻关节之间的理论齐次变换矩阵可表示为:
根据式(43),可得:
结合式(44)、(45),柔性机器人的末端位姿误差可以表示为:
于是可以建立如下优化模型,以得到最优的D-H参数:
上述的式(47)运动参数优化模型可以通过粒子群优化算法进行求解。基于粒子群搜索的运动学标定算法的具体步骤如图5所示。
为评估柔性机器人的正运动学参数优化效果,可以用每个刚性臂杆的平均误差和均方根误差来描述运动学参数的标定误差,即有:
其中,κ=θ,d,a,α。
本发明实现柔性机器人的“眼在手”和“眼看手”两套视觉系统的混合标定,获取手眼相机及全局相机坐标系下的标定板位姿信息。通过坐标系的转换,实现通过视觉系统准确获取柔性机器人末端的位姿信息的功能。同时,将所获取柔性机器人末端的位姿信息与期望末端位姿进行比较,建立误差模型。根据所建立柔性机器人末端位姿误差模型,以5个D-H参数的变化值为参数,以最小化末端位置与姿态差的加权和为目标,建立优化模型。最后通过粒子群优化算法对优化模型求解,对柔性机器人的运动学参数进行优化,实现对末端位姿的视觉标定,有效地提高柔性机器人末端的位姿跟踪精度。相比于现有技术,本发明不依赖于柔性机器人的正运动学递推关系获取柔性机器人末端位姿,而使用测量误差更小的视觉系统,通过混合标定算法计算柔性机器人末端位姿,并对柔性机器人的运动学参数进行优化,使得柔性机器人末端位姿跟踪精度得到有效提升,可广泛应用于一种用于柔性机器人的混合标定与控制领域。
对于本领域的技术人员来说,可以根据以上的技术方案和构思,给出各种相应的改变,而所有的这些改变,都应该包括在本发明权利要求的保护范围之内。
Claims (5)
1.一种应用于柔性机器人的混合标定的装置,具有固定基座、设置于所述固定基座上的柔性机器人、视觉系统以及控制系统,其特征在于,所述视觉系统设有手眼相机、全局相机、外部基座标定板以及末端标定板,所述手眼相机和所述末端标定板与所述柔性机器人的末端连接,所述全局相机与所述外部基座标定板固定于所述固定基座的一侧;其中,所述手眼相机用于拍摄所述外部基座标定板,获取相对位姿信息,所述全局相机用于拍摄所述末端标定板,获取相对位姿信息;其中,所述控制系统包括:
特征提取模块,用于通过视觉特征获取相机与标定板之间的位姿特征信息;
位姿求解模块,用于对已获取相机与标定板之间的位姿特征信息,采用XBX-1=YCY-1或XBY=CZ混合标定数学模型求解柔性机器人末端与手眼相机、末端标定板的相对位姿;其中,在XBX-1=YCY-1中, 在XBY=CZ中,X=gcTcb,Y=clTeh,Z=mkTeh,Bcl=cbTcl,Cgc=gcTmk;
标定转换模块,用于通过坐标系转换,由已得到柔性机器人末端与手眼相机、末端标定板的相对位姿信息,进而得到柔性机器人末端相对于基座的位姿;
运动学参数更新模块,用于根据所获取误差模型,使用粒子群算法求解所设计优化模型,求得最优运动学参数。
2.一种利用如权利要求1所述的应用于柔性机器人的混合标定的装置的进行混合标定的混合标定方法,其特征在于,所述方法包括以下步骤:
S1通过视觉系统,分别获取柔性机器人末端手眼相机到外部基座标定板,以及全局相机到柔性机器人的末端标定板的位姿转换关系;
S2通过混合手眼标定数学模型,求解得到柔性机器人上的手眼相机、外部基座标定板、末端标定板与柔性机器人末端之间的位姿转换关系;
S3通过坐标系转换,获得手眼相机、全局相机测量下的柔性机器人末端相对于固定基座的齐次变换矩阵;
S4通过将手眼相机、全局相机测量下与基于正运动学递推得到的柔性机器人末端相对于固定基座的位姿进行对比,得到柔性机器人末端位姿的误差模型,并根据此建立优化模型,最小化误差;
S5通过粒子群优化算法对优化模型进行求解,得到最优D-H参数,对柔性机器人运动学参数进行标定,提高柔性机器人末端位姿的控制精度。
3.根据权利要求2所述的一种应用于柔性机器人的混合标定的装置的进行混合标定的混合标定方法,其特征在于,所述步骤S2中的混合手眼标定数学模型包括XBX-1=YCY-1和XBY=CZ,求解柔性机器人末端相对于手眼相机、柔性机器人末端相对于末端标定板齐次变换矩阵。
4.根据权利要求2所述的一种应用于柔性机器人的混合标定的装置的进行混合标定的混合标定方法,其特征在于,所述步骤S3中通过柔性机器人末端的连续运动,视觉标定系统获得多组位姿信息,借助李代数的指数映射迭代求解柔性机器人末端相对于手眼相机、柔性机器人末端相对于末端标定板齐次变换矩阵;再通过D-H参数法获得机器人末端相对于基座的齐次变换矩阵。
5.根据权利要求2所述的一种应用于柔性机器人的混合标定的装置的进行混合标定的混合标定方法,其特征在于,所述步骤S5中以D-H参数的变化值为参数,以最小化柔性机器人末端位置与姿态差的加权和为目标,建立优化模型;并通过粒子群优化算法迭代计算优化模型,得出最优D-H参数,标定柔性机器人的正运动学参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110228577.8A CN112975973B (zh) | 2021-03-02 | 2021-03-02 | 一种应用于柔性机器人的混合标定方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110228577.8A CN112975973B (zh) | 2021-03-02 | 2021-03-02 | 一种应用于柔性机器人的混合标定方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112975973A CN112975973A (zh) | 2021-06-18 |
CN112975973B true CN112975973B (zh) | 2022-07-26 |
Family
ID=76351917
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110228577.8A Active CN112975973B (zh) | 2021-03-02 | 2021-03-02 | 一种应用于柔性机器人的混合标定方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112975973B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113459108B (zh) * | 2021-09-02 | 2021-11-12 | 杭州灵西机器人智能科技有限公司 | 基于插值补偿的手眼标定方法、系统、装置和介质 |
CN114161411B (zh) * | 2021-11-18 | 2023-09-01 | 浙江大学 | 一种基于视觉的多足机器人运动学参数标定方法 |
CN114211503B (zh) * | 2022-01-20 | 2023-12-22 | 中山大学 | 基于视觉反馈的绳驱柔性机器人轨迹控制方法及系统 |
CN114227700B (zh) * | 2022-02-23 | 2022-05-20 | 杭州灵西机器人智能科技有限公司 | 机器人的手眼标定方法和系统 |
CN114734444B (zh) * | 2022-04-27 | 2023-06-27 | 博众精工科技股份有限公司 | 一种目标定位方法、装置、电子设备及存储介质 |
TWI799310B (zh) * | 2022-06-30 | 2023-04-11 | 國立清華大學 | 機器人及機器人手眼校正方法 |
CN115890683A (zh) * | 2022-12-14 | 2023-04-04 | 珠海优特电力科技股份有限公司 | 智能机器人控制方法、装置、设备及存储介质 |
CN116276993B (zh) * | 2023-03-03 | 2023-12-05 | 中国人民解放军军事科学院国防科技创新研究院 | 基于合作标志的气囊型软体机械臂手眼标定与测量方法 |
CN117671012B (zh) * | 2024-01-31 | 2024-04-30 | 临沂大学 | 术中内窥镜绝对与相对位姿计算的方法、装置及设备 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9393694B2 (en) * | 2010-05-14 | 2016-07-19 | Cognex Corporation | System and method for robust calibration between a machine vision system and a robot |
CN107369184B (zh) * | 2017-06-23 | 2020-02-28 | 中国科学院自动化研究所 | 混合双目工业机器人系统同步标定方法及其它装置 |
CN110695993B (zh) * | 2019-09-27 | 2021-02-02 | 哈尔滨工业大学(深圳) | 一种柔性机械臂同步测量方法、系统及装置 |
CN110842914B (zh) * | 2019-10-15 | 2022-09-23 | 上海交通大学 | 基于差分进化算法的手眼标定参数辨识方法、系统及介质 |
-
2021
- 2021-03-02 CN CN202110228577.8A patent/CN112975973B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN112975973A (zh) | 2021-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112975973B (zh) | 一种应用于柔性机器人的混合标定方法及装置 | |
CN107738254B (zh) | 一种机械臂坐标系的转换标定方法与系统 | |
Zhang et al. | Stereo vision based autonomous robot calibration | |
CN109304730B (zh) | 一种基于激光测距仪的机器人运动学参数标定方法 | |
CN113386136B (zh) | 一种基于标准球阵目标估计的机器人位姿矫正方法及系统 | |
CN111546328B (zh) | 基于三维视觉测量的手眼标定方法 | |
CN110421566B (zh) | 一种基于近似度加权平均插值法的机器人精度补偿方法 | |
CN113160334B (zh) | 一种基于手眼相机的双机器人系统标定方法 | |
CN106406277A (zh) | 机器人运动学参数误差优化补偿方法及装置 | |
Li et al. | Efficient industrial robot calibration via a novel unscented Kalman filter-incorporated variable step-size Levenberg–Marquardt algorithm | |
CN109048897B (zh) | 一种主从机器人遥操作的方法 | |
CN111113425B (zh) | 一种有寄生运动的五自由度串并联机器人运动学逆解求解方法 | |
CN105444672A (zh) | 激光测距仪和机械臂末端关系的正交平面标定方法及系统 | |
CN113858217B (zh) | 多机器人交互的三维视觉位姿感知方法及系统 | |
CN110967017A (zh) | 一种用于双移动机器人刚体协作搬运的协同定位方法 | |
Peng et al. | A hybrid hand–eye calibration method for multilink cable-driven hyper-redundant manipulators | |
Zhang et al. | A simultaneous optimization method of calibration and measurement for a typical hand–eye positioning system | |
CN115229796A (zh) | 一种面向航空大构件铣削的机器人末端位姿跟踪补偿方法 | |
Zhao et al. | A novel accurate positioning method for object pose estimation in robotic manipulation based on vision and tactile sensors | |
CN115816448A (zh) | 基于光学定位仪的机械臂标定方法、装置、设备及介质 | |
CN114131601B (zh) | 偏置腕6r工业机械手笛卡尔轨迹跟踪逆运动学算法 | |
CN113084791A (zh) | 机械臂控制方法、机械臂控制装置及终端设备 | |
CN111504276B (zh) | 一种基于视觉投影尺度因子集的联合目标函数多推进器姿态角获取方法 | |
CN111399210B (zh) | 大口径大视场望远镜粗对准方法、装置、设备及存储介质 | |
CN109291047B (zh) | 基于轴不变量及dh参数1r/2r/3r逆解建模方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |