CN116352710A - 一种用于大型航天构件的机器人自动标定与三维测量方法 - Google Patents

一种用于大型航天构件的机器人自动标定与三维测量方法 Download PDF

Info

Publication number
CN116352710A
CN116352710A CN202310297058.6A CN202310297058A CN116352710A CN 116352710 A CN116352710 A CN 116352710A CN 202310297058 A CN202310297058 A CN 202310297058A CN 116352710 A CN116352710 A CN 116352710A
Authority
CN
China
Prior art keywords
matrix
robot
hand
eye
point cloud
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310297058.6A
Other languages
English (en)
Inventor
殷春
高延
闫中宝
程玉华
邱根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202310297058.6A priority Critical patent/CN116352710A/zh
Publication of CN116352710A publication Critical patent/CN116352710A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种用于大型航天构件的机器人自动标定与三维测量方法。首先,基于Kronecker积和Moore‑Penrose逆对手眼关系方程进行线性求解,在保证更准确的封闭解的同时更有针对性地减少标定过程中系统噪声、计算带来的误差影响,并且采用Rodrigues公式对所求解手眼关系矩阵Hcg的旋转部分进行正交化以消除测量噪声的影响,提高算法运行效率;然后,为了进一步提高手眼标定精度,提升点云配准误差,引入基于最小化欧式变换误差的差分进化(DE)算法应用于手眼标定,以解决由于缺少对旋转矩阵的约束条件导致手眼方程解的不稳定性;最后,采集大型航天构件的多幅单元测量点云数据,完成大型航天构件作为待测物的三维形貌测量任务。

Description

一种用于大型航天构件的机器人自动标定与三维测量方法
技术领域
本发明属于三维形貌测量技术领域,更为具体地讲,涉及一种用于大型航天构件的机器人自动标定与三维测量方法。
背景技术
航空航天领域的关键零部件通常为尺寸较大、形状复杂的大型航天构件,一般的结构光相机或者激光扫描仪等三维测量设备的视场有限,单一视角下往往只能采集到大型测量对象的局部点云数据。为了重构出大型航天构件的三维形貌,需要将每个单元测量所得的局部点云数据统一在同一基准坐标系下。因此,基于工业机器人约束位姿的三维重建技术为大型航天构件的非接触式测量提供了新思路。
基于工业机器人的三维重建技术利用工业机器人作为运动载体,通过机器人各轴关节坐标系之间的约束来确定各视角的单元测量坐标系的位姿关系,使测量系统在保留视觉测量技术非接触、快速等特点的同时,机器人快速灵活的特性增强了整个测量系统的柔性。
工业机器人目前手眼标定的方式主要通过相机拍摄标定物进行位姿识别,获取相机参数以及机器人姿态信息,建立手眼标定方程,然后进行手眼方程解算。目前主要通过不同的数学工具如旋量、四元数、对偶四元数、来描述空间运动,或者是加不同的运动约束如纯移动或者纯转动来将旋转和平移解耦开来,获取手眼关系矩阵。然而,上述方法只考虑到了最小化代数误差来计算手眼关系矩阵,完成手眼标定,并未考虑到图像噪声对手眼标定精度的影响,这就导致线性求解得到姿态关系的标定精度低,从而影响三维形貌测量的准确性和完整性。
此外,手眼关系的求解精度所带来的问题以及相关的测量任务的完成效率等方面,是本类测量装置当前面临的一个很严峻的问题。为了进一步解决三维测量任务的精度需求,需要对手眼方程结算结果进行补偿。由于实际世界坐标和标定结果计算得到的世界坐标之间存在误差,如按照2022年12月30日公布的、公布号为CN115546289A的中国发明专利申请《一种基于机器人的复杂结构件三维形貌测量方法》,只是对该误差进行均值补差达不到测量任务需要。
发明内容
本发明的目的在于克服现有技术的不足,提供一种用于大型航天构件的机器人自动标定与三维测量方法,以线性求解出更准确的封闭解,简化计算并提高了效率,并更有针对性地减少标定过程中系统噪声、计算带来的误差影响,同时修正手眼关系精度,以保证多视角点云数据的配准精度,很大程度上提高多视角三维形貌测量的效率。
为实现上述发明目的,本发明用于大型航天构件的机器人自动标定与三维测量方法,其特征在于,包括:
(1)、建立手眼标定方程
将双目相机安装于机器人末端法兰处,控制机器人运动至第i个拍摄位姿,对棋盘格标定板上一角点进行拍摄,在该拍摄位姿获得标定板图片,同时记录机器人位姿信息以及角点在相机坐标系中的位置Pi,这样对n个拍摄位姿进行拍摄,得到n组标定板图片和相对应机器人姿态信息;
根据张氏标定法获得每组标定板图片中标定板相对于相机的旋转向量Rci和平移向量Tci,并转换成旋转平移矩阵,即得到相机外参矩阵Hci,i=1,2,...,n,根据机器人位姿信息计算相对于基座的旋转向量Rgi和平移向量Tgi,得到机器人位姿矩阵Hgi,i=1,2,...,n,其中:
Figure BDA0004143532960000021
对于任意两次变换拍摄位姿u,v之间相机外参矩阵、机器人位姿矩阵,建立手眼标定方程:
Figure BDA0004143532960000022
其中:
Figure BDA0004143532960000023
其中,Rgu,v表示矩阵
Figure BDA0004143532960000024
中的旋转矩阵,Tgu,v表示矩阵/>
Figure BDA0004143532960000025
中的平移向量,Rcg表示手眼关系矩阵Hcg中的旋转矩阵,Tcg表示手眼关系矩阵中的平移向量,Rcu,v表示矩阵/>
Figure BDA0004143532960000031
的旋转矩阵,Tcu,v表示矩阵/>
Figure BDA0004143532960000032
中的平移向量;
(2)、利用Kronecker积和Moore-Penrose逆将手眼标定方程转化为最小二乘问题并利用奇异值分解计算出手眼关系矩阵Hcg
建立线性方程组:
Figure BDA0004143532960000033
其中,I为单位矩阵,
Figure BDA0004143532960000034
表示Kronecker积,vec表示向量化操作;
将所有两次变换拍摄位姿u,v下的矩阵:
Figure BDA0004143532960000035
按列放置,得到一个矩阵R;
对矩阵R进行奇异值分解,得到U矩阵即左奇异矩阵、奇异值矩阵∑以及V矩阵即右奇异矩阵;
将所有两次变换拍摄位姿u,v下的矩阵:
Figure BDA0004143532960000036
按列放置,得到一个矩阵Tg
取列向量V∑-1UTTg的前9个元素还原成3×3矩阵形式,得到矩阵
Figure BDA0004143532960000037
然后,对矩阵
Figure BDA0004143532960000038
进行正交化奇异值分解即/>
Figure BDA0004143532960000039
其中,UR为右奇异矩阵,∑R为奇异值矩阵,VR为左奇异矩阵,得到手眼关系矩阵Hcg的旋转矩阵Rcg即/>
Figure BDA00041435329600000310
将所有两次变换拍摄位姿u,v下的矩阵(Rgu,v-I)按列放置,得到一个矩阵Rg,将所有两次变换拍摄位姿u,v下的矩阵(RcgTcu,v-Tgu,v)按列放置,得到一个矩阵T,
根据旋转矩阵Rcg计算得到手眼关系矩阵Hcg的平移向量Tcg
Tcg=Rg -1T
(3)、对计算出的手眼关系矩阵Hcg进行修正,得到用于多视角点云粗配准的手眼关系矩阵
Figure BDA00041435329600000311
3.1)、获取J组角点真实坐标和点云坐标之间的对应点集
3.1.1)、用探针装置固定于机器人末端法兰上,通过五点法和示教器建立工具坐标,得到探针末端相对于机器人末端法兰坐标系的位置坐标ΔP0,机器人带动探针移动至标定板左上角的第一个方格的四个角点正上方处,从示教器上记录此时机器人末端法兰相对于基座坐标系的坐标,不断带动探针移动到标定板的方格的四个角点正上方处,得到角点正上方处机器人末端法兰相对于基座坐标系的坐标
Figure BDA0004143532960000041
并且推算出标定板所有角点的真实坐标:
Figure BDA0004143532960000042
其中,
Figure BDA0004143532960000043
为第l个角点正上方处机器人末端法兰相对于基座坐标系的三维坐标,Δx0,Δy0,Δz0为探针末端相对于机器人末端法兰坐标系的位置坐标,L标定板上角点的数量,T表示转置,B表示机器人基座坐标系;
3.1.2)、在一确定的机器人位姿下拍摄并重建标定板三维点云,重建得到标定板三维点云,依次点击并获取所述标定板左上角的第一个方格的四个角点相对于双目相机坐标系的点云坐标,根据推算可以获得同所述角点真实坐标相对应的所有标定板角点的点云坐标P1 l
Figure BDA0004143532960000044
其中,
Figure BDA0004143532960000045
为点云坐标P1 l的三维坐标表示,C表示双目相机坐标系;
3.1.3)、根据机器人位姿信息,得到拍摄标定板点云时的机器人位姿矩阵为Hg,由已知的角点真实坐标P0 l,得到转换至该机器人姿态的法兰坐标系下的角点坐标
Figure BDA0004143532960000047
Figure BDA0004143532960000048
其中,
Figure BDA0004143532960000049
为角点坐标/>
Figure BDA00041435329600000410
的三维坐标表示,G表示机器人末端法兰坐标系;
由此得到一组对应点集
Figure BDA00041435329600000411
3.1.4)、改变机器人位姿J-1次,重复步骤3.1.2)、3.1.3),得到第j组对应点集重新记为
Figure BDA00041435329600000412
这样得到J组角点真实坐标和点云坐标之间的对应点集的集合P;
3.2)、基于最小化欧式变换误差优化手眼关系矩阵Hcg
3.2.1)、以手眼关系矩阵Hcg初始化种群
构建规模为M的种群,并初始化每个个体xh为:
Figure BDA0004143532960000051
其中,h表示为个体编号,h=1,2,…M,0表示第0代种群,下标数字为个体中分量编号,[rox,roy,roz]为手眼关系矩阵Hcg中旋转矩阵Rcg对应的旋转向量,[xo,yo,zo]为手眼关系矩阵Hcg中的平移向量Tcg的转置,即:
Figure BDA0004143532960000052
其中,Rodrigues()表示旋转向量转旋转矩阵操作;
rand(0,1)表示取0到1之间的随机数操作;
rxmaxmin,rymaxmin,rzmaxmin,xmaxmin,ymaxmin,zmaxmin分别表示手眼关系矩阵中旋转向量x、y、z以及手眼关系矩阵中平移向量x、y、z的最大值最小值之差;
3.2.2)、个体变异与交叉
对种群中个体进行变异和交叉:
Figure BDA0004143532960000053
Figure BDA0004143532960000054
其中,
Figure BDA0004143532960000055
为第t代种群中第h个个体的第k个分量,Mutation()为变异操作,/>
Figure BDA0004143532960000056
为第t代第h个变异个体的第k个分量,Crossover()为交叉操作,/>
Figure BDA0004143532960000057
为第t代第h个实验个体的第k个分量,k=1,2,…,6;
3.2.3)、利用贪婪算法来选择进入下一代种群的个体xh(t+1):
Figure BDA0004143532960000058
其中:
Figure BDA0004143532960000059
Figure BDA00041435329600000510
Figure BDA00041435329600000511
Figure BDA00041435329600000512
其中,
Figure BDA0004143532960000061
分别为第t代种群中第h个个体xh(t)对应的旋转矩阵:
Figure BDA0004143532960000062
Figure BDA0004143532960000063
其中,
Figure BDA0004143532960000064
分别为第t代种群中第h个个体uh(t)对应的旋转矩阵:
Figure BDA0004143532960000065
Figure BDA0004143532960000066
3.2.4)、t=t+1,返回步骤3.2.2),直到达到设定的终止条件为止;
3.2.5)、比较M个个体xh(t+1),h=1,2,…,M的适应度函数值f(xh+1(t),P),将最小适应度函数值对应个体记为x′(t)={x′1(t),x′2(t),x′3(t),x′4(t),x′5(t),x′6(t)},则修正后手眼标定矩阵
Figure BDA0004143532960000067
为:
Figure BDA0004143532960000068
R′cg=Rodrigues([x′1(t),x′2(t),x′3(t)]),T′cg=[x′4(t),x′5(t),x′6(t)]T
(4)、三维形貌测量
调试所述双目相机,使其能清晰地拍摄到测量对象即需要进行测量的大型航天构件,使得左右相机保持在同一水平位置,并且保留一定距离,并完成双目标定;调试所述机器人,使其能承载双目相机进行三维测量任务,保证拍摄完测量对象的全貌;
在每个测量位姿进行结构光图像拍摄,并重构出测量对象的单元测量点云数据
Figure BDA0004143532960000069
记录测量位姿并计算得到该测量位姿机器人的位姿矩阵
Figure BDA00041435329600000610
其中,m为对测量对象进行三维形貌测量的测量位姿数量
根据获得的单元测量点云数据
Figure BDA00041435329600000611
各视角位姿矩阵
Figure BDA00041435329600000612
以及步骤(4)得到的优化后的手眼关系矩阵/>
Figure BDA00041435329600000613
计算出每幅单元测量点云数据从双目相机坐标系到机器人基座坐标系的刚体变换矩阵:
Figure BDA00041435329600000614
将双目相机获取的单元测量点云数据转换至机器人基座统一坐标系下,得到配准后的第q个测量位姿下的单视角点云
Figure BDA00041435329600000615
Figure BDA00041435329600000616
实现多视角点云数据的配准,从而完成大型航天构件的三维形貌测量。
本发明的发明目的是这样实现的:
为了提高大型航天构件的三维形貌测量的准确性和完整性,本发明用于大型航天构件的机器人自动标定与三维测量方法包括:首先,基于Kronecker积和Moore-Penrose逆对手眼关系方程进行线性求解,在保证更准确的封闭解的同时更有针对性地减少标定过程中系统噪声、计算带来的误差影响,并且采用Rodrigues公式对所求解手眼关系矩阵Hcg的旋转部分进行正交化以消除测量噪声的影响,提高算法运行效率;然后,为了进一步提高手眼标定精度,提升点云配准误差,引入基于最小化欧式变换误差的差分进化(DE)算法应用于手眼标定,以解决由于缺少对旋转矩阵的约束条件导致手眼方程解的不稳定性,将标定板角点点云坐标P1 l和其对应角点真实坐标
Figure BDA0004143532960000071
之间的刚体变换关系作为构成来源,建立最小化欧式变换误差代价函数,对初始手眼矩阵进行收敛迭代,其旋转部分和平移部分同时进行修正,得到用于多视角点云粗配准的手眼关系矩阵/>
Figure BDA0004143532960000072
最后,采集大型航天构件的多幅单元测量点云数据,完成单元测量点云数据到机器人基坐标系的点云配准,从而实现更加快速高效地获得轮廓更贴近真实的整体点云的功能,完成大型航天构件作为待测物的三维形貌测量任务。
附图说明
图1是本发明用于大型航天构件的机器人自动标定与三维测量方法一种具体实施方式的流程图;
图2是标定板角点欧式变换示意图;
图3是角点真实坐标和点云坐标示意图;
图4是手眼标定修正前后结果对比图;
图5是一局部单元测量点云数据示意图;
图6是多幅单元测量点云数据转换至同一坐标系示意图;
图7是一大型航天构件三维形貌测量结果示意图。
具体实施方式
下面结合附图对本发明的具体实施方式进行描述,以便本领域的技术人员更好地理解本发明。需要特别提醒注意的是,在以下的描述中,当已知功能和设计的详细描述也许会淡化本发明的主要内容时,这些描述在这里将被忽略。
图1是本发明用于大型航天构件的机器人自动标定与三维测量方法一种具体实施方式的流程图。
在本实施例中,如图1所示,本发明用于大型航天构件的机器人自动标定与三维测量方法包括:
步骤S1:建立手眼标定方程
将双目相机安装于机器人末端法兰处,控制机器人运动至第i个拍摄位姿,对棋盘格标定板上一角点进行拍摄,在该拍摄位姿获得标定板图片,同时记录机器人位姿信息以及角点在相机坐标系中的位置Pi,这样对n个拍摄位姿进行拍摄,得到n组标定板图片和相对应机器人姿态信息。
根据张氏标定法获得每组标定板图片中标定板相对于相机的旋转向量Rci和平移向量Tci,并转换成旋转平移矩阵,即得到相机外参矩阵Hci,i=1,2,...,n,根据机器人位姿信息计算相对于基座的旋转向量Rgi和平移向量Tgi,得到机器人位姿矩阵Hgi,i=1,2,...,n,其中:
Figure BDA0004143532960000081
由于n组拍摄位姿中任意两次变换拍摄位姿u,v之间,其中u,v=1,2,...,n,并且u≠v,根据机器人基座到标定板之间的相对位姿关系HBW固定不变,相机与机器人末端法兰之间的相对位姿关系即手眼关系矩阵Hcg固定不变,结合相机外参矩阵和机器人姿态矩阵之间的坐标转换关系,可以得到以下关系:
HguHcgHcu=HBW=HBW=HgvHcgHcv
即:
HguHcgHcu=HgvHcgHcv
做矩阵变化,即左右两边前后各乘以矩阵
Figure BDA0004143532960000082
可以得到:
Figure BDA0004143532960000083
即手眼标定方程:
Figure BDA0004143532960000084
其中:
Figure BDA0004143532960000085
其中,Rgu,v表示矩阵
Figure BDA0004143532960000091
中的旋转矩阵,Tgu,v表示矩阵/>
Figure BDA0004143532960000092
中的平移向量,Rcg表示手眼关系矩阵Hcg中的旋转矩阵,Tcg表示手眼关系矩阵中的平移向量,Rcu,v表示矩阵/>
Figure BDA0004143532960000093
的旋转矩阵,Tcu,v表示矩阵/>
Figure BDA0004143532960000094
中的平移向量。
Figure BDA0004143532960000095
X=Hcg,则手眼标定方程可以表示为:
AX=XB
由n组标定数据可以建立
Figure BDA0004143532960000096
个手眼标定方程。
步骤S2:利用Kronecker积和Moore-Penrose逆将手眼标定方程转化为最小二乘问题并利用奇异值分解计算出手眼关系矩阵Hcg
基于Kronecker积的性质将待解手眼标定方程AX=XB展开,可得齐次方程:
AX=XB
Figure BDA0004143532960000097
Figure BDA0004143532960000098
Figure BDA0004143532960000099
即公式一、公式二:
Figure BDA00041435329600000910
其中,Rcu,v,Rcg,Rgu,v都是旋转矩阵,属于特殊正交群SO(3),在乘法上是封闭的。
对公式一、二利用矩阵直积的性质将矩阵方程转化为线性代数方程组,再进行求解,可以得到以下两个公式:
Figure BDA00041435329600000911
于是,可以将以上方程组构造成如下矩阵方程形式:
Figure BDA0004143532960000101
根据矛盾方程组的性质,该方程组左边的系数矩阵为不可逆矩阵,在求解该矛盾方程组的解时将用到广义逆的思想。所以需要求取方程组的极小范数最小二乘解,则该方程组的极小范数最小二乘解就等于C+d。而将旋转矩阵与平移向量进行耦合,将会在计算过程中减少系统噪声、计算带来的误差影响。具体步骤如下。
原矩阵方程转换为线性最小二乘问题:
Figure BDA0004143532960000102
Figure BDA0004143532960000103
由SVD分解可以得到
Figure BDA0004143532960000104
根据矩阵U,V的正交性,可以得到:
Figure BDA0004143532960000105
再令
Figure BDA0004143532960000106
代入上式,并且将矩阵展开得到:
Figure BDA0004143532960000107
其中,σi,zi,ui为各矩阵的向量部分。因此,原问题可以整理为:
Figure BDA0004143532960000111
显然,当
Figure BDA0004143532960000112
时。该问题取得最小值,则最小二乘解和最小值为:
Figure BDA0004143532960000113
Figure BDA0004143532960000114
Figure BDA0004143532960000115
可得/>
Figure BDA0004143532960000116
因此,通过SVD来求解线性最小二乘解的公式为:
Figure BDA0004143532960000117
因此,本发明中计算手眼关系矩阵Hcg为:
建立线性方程组:
Figure BDA0004143532960000118
其中,I为单位矩阵,
Figure BDA0004143532960000119
表示Kronecker积,vec表示向量化操作;
将所有两次变换拍摄位姿u,v下的矩阵:
Figure BDA00041435329600001110
按列放置,得到一个矩阵R;
对矩阵R进行奇异值分解,得到U矩阵即左奇异矩阵、奇异值矩阵∑以及V矩阵即右奇异矩阵;
将所有两次变换拍摄位姿u,v下的矩阵:
Figure BDA00041435329600001111
按列放置,得到一个矩阵Tg
取列向量V∑-1UTTg的前9个元素还原成3×3矩阵形式,得到矩阵
Figure BDA0004143532960000121
然后,对矩阵
Figure BDA0004143532960000122
进行正交化奇异值分解即/>
Figure BDA0004143532960000123
其中,UR为右奇异矩阵,∑R为奇异值矩阵,VR为左奇异矩阵,得到手眼关系矩阵Hcg的旋转矩阵Rcg即/>
Figure BDA0004143532960000124
将所有两次变换拍摄位姿u,v下的矩阵(Rgu,v-I)按列放置,得到一个矩阵Rg,将所有两次变换拍摄位姿u,v下的矩阵(RcgTcu,v-Tgu,v)按列放置,得到一个矩阵T,
根据旋转矩阵Rcg计算得到手眼关系矩阵Hcg的平移向量Tcg
Tcg=Rg -1T
这样,求得相机坐标系相对于机器人末端法兰坐标系的旋转平移矩阵,即手眼关系矩阵Hcg,并以此进行初始化,得到DE算法第0代种群。
步骤S3:对计算出的手眼关系矩阵Hcg进行修正,得到用于多视角点云粗配准的手眼关系矩阵
Figure BDA0004143532960000125
步骤S3.1:获取J组角点真实坐标和点云坐标之间的对应点集
步骤S3.1.1:用探针装置固定于机器人末端法兰上,通过五点法和示教器建立工具坐标,得到探针末端相对于机器人末端法兰坐标系的位置坐标ΔP0,机器人带动探针移动至标定板左上角的第一个方格的四个角点正上方处,从示教器上记录此时机器人末端法兰相对于基座坐标系的坐标,不断带动探针移动到标定板的方格的四个角点正上方处,得到角点正上方处机器人末端法兰相对于基座坐标系的坐标
Figure BDA0004143532960000126
并且推算出标定板所有角点的真实坐标:
Figure BDA0004143532960000127
其中,
Figure BDA0004143532960000128
为第l个角点正上方处机器人末端法兰相对于基座坐标系的三维坐标,Δx0,Δy0,Δz0为探针末端相对于机器人末端法兰坐标系的位置坐标,L标定板上角点的数量,T表示转置,B表示机器人基座坐标系;
步骤S3.1.2:在一确定的机器人位姿下拍摄并重建标定板三维点云,重建得到标定板三维点云,依次点击并获取所述标定板左上角的第一个方格的四个角点相对于双目相机坐标系的点云坐标,根据推算可以获得同所述角点真实坐标相对应的所有标定板角点的点云坐标P1 l
Figure BDA0004143532960000131
其中,
Figure BDA0004143532960000132
为点云坐标P1 l的三维坐标表示,C表示双目相机坐标系;
步骤S3.1.3:根据机器人位姿信息,得到拍摄标定板点云时的机器人位姿矩阵为Hg,由已知的角点真实坐标P0 l,得到转换至该机器人姿态的法兰坐标系下的角点坐标
Figure BDA0004143532960000134
Figure BDA0004143532960000135
其中,
Figure BDA0004143532960000136
为角点坐标/>
Figure BDA0004143532960000137
的三维坐标表示,G表示机器人末端法兰坐标系;
由此得到一组对应点集
Figure BDA0004143532960000138
步骤S3.1.4:集重新记为
Figure BDA0004143532960000139
这样得到J组角点真实坐标和点云坐标之间的对应点集的集合P;
步骤S3.2:基于最小化欧式变换误差优化手眼关系矩阵Hcg
步骤S3.2.1:以手眼关系矩阵Hcg初始化种群
构建规模为M的种群,并初始化每个个体xh为:
Figure BDA00041435329600001310
其中,h表示为个体编号,h=1,2,…M,0表示第0代种群,下标数字为个体中分量编号,[rox,roy,roz]为手眼关系矩阵Hcg中旋转矩阵Rcg对应的旋转向量,[xo,yo,zo]为手眼关系矩阵Hcg中的平移向量Tcg的转置,即:
Figure BDA00041435329600001311
其中,Rodrigues()表示旋转向量转旋转矩阵操作;
rand(0,1)表示取0到1之间的随机数操作;
rxmaxmin,rymaxmin,rzmaxmin,xmaxmin,ymaxmin,zmaxmin分别表示手眼关系矩阵中旋转向量x、y、z以及手眼关系矩阵中平移向量x、y、z的最大值最小值之差;
步骤S3.2.2:个体变异与交叉
对种群中个体进行变异和交叉:
Figure BDA00041435329600001312
Figure BDA00041435329600001313
其中,
Figure BDA0004143532960000141
为第t代种群中第h个个体的第k个分量,Mutation()为变异操作,/>
Figure BDA0004143532960000142
为第t代第h个变异个体的第k个分量,Crossover()为交叉操作,/>
Figure BDA0004143532960000143
为第t代第h个实验个体的第k个分量,k=1,2,…,6;
步骤S3.2.3:利用贪婪算法来选择进入下一代种群的个体xh(t+1):
Figure BDA0004143532960000144
其中:
Figure BDA0004143532960000145
Figure BDA0004143532960000146
Figure BDA0004143532960000147
Figure BDA0004143532960000148
其中,
Figure BDA0004143532960000149
分别为第t代种群中第h个个体xh(t)对应的旋转矩阵:
Figure BDA00041435329600001410
Figure BDA00041435329600001411
其中,
Figure BDA00041435329600001412
分别为第t代种群中第h个个体uh(t)对应的旋转矩阵:
Figure BDA00041435329600001413
Figure BDA00041435329600001414
步骤S3.2.4:t=t+1,返回步骤S3.2.2,直到达到设定的终止条件为止;
步骤S3.2.5:比较M个个体xh(t+1),h=1,2,…,M的适应度函数值f(xh+1(t),P),将最小适应度函数值对应个体记为x′(t)={x′1(t),x′2(t),x′3(t),x′4(t),x′5(t),x′6(t)},则修正后手眼标定矩阵
Figure BDA00041435329600001415
为:
Figure BDA00041435329600001416
R′cg=Rodrigues([x′1(t),x′2(t),x′3(t)]),T′cg=[x′4(t),x′5(t),x′6(t)]T
步骤S4:三维形貌测量
调试所述双目相机,使其能清晰地拍摄到测量对象即需要进行测量的大型复杂零部件,使得左右相机保持在同一水平位置,并且保留一定距离,并完成双目标定;调试所述机器人,使其能承载双目相机进行三维测量任务,保证拍摄完测量对象的全貌;
在每个测量位姿进行结构光图像拍摄,并重构出测量对象的单元测量点云数据
Figure BDA0004143532960000151
记录测量位姿并计算得到该测量位姿机器人的位姿矩阵
Figure BDA0004143532960000152
其中,m为对测量对象进行三维形貌测量的测量位姿数量/>
根据获得的单元点云数据
Figure BDA0004143532960000153
各视角位姿矩阵
Figure BDA0004143532960000154
以及步骤(4)得到的优化后的手眼关系矩阵/>
Figure BDA0004143532960000155
计算出每幅单元点云数据从双目相机坐标系到机器人基座坐标系的刚体变换矩阵:
Figure BDA0004143532960000156
将双目相机获取的单元测量点云数据转换至机器人基座统一坐标系下,得到配准后的第q个测量位姿下的单视角点云
Figure BDA0004143532960000157
Figure BDA0004143532960000158
实现多视角点云数据的配准,从而完成大型复杂零部件的三维形貌测量。
通过控制机器人运动承载双目相机在多个视角位姿下采集待测物零部件的单元测量点云信息;基于优化后手眼矩阵将多幅点云转换至同一坐标系下,完成多视角点云配准功能,实现待测物三维形貌测量,以提高大型复杂零部件的三维形貌测量效率。
实施例
在实施例中,以某一大型航天构件作为试件进行三维形貌测量,该实施例获得了试件除底部以外的三维点云数据,实现了还原试件的形貌特征。
实施例中所使用的试件样本为1600mm×1525mm矩形板,所用标定板为8×11,15mm标准的黑白棋盘标定板,如图2所示。
在本实施例中,首先控制机器人带动双目相机,在不同的拍摄位置采集了9幅像素分辨率为3000×4096的标定板图像,再通过张氏标定法解算出拍摄9幅标定板图片的相机外参矩阵的齐次表达式Hc;并记录相对应拍摄位置的机器人姿态信息,同样计算得到其机器人姿态矩阵的其次表达式Hg
然后对于待解手眼方程利用Kronecker积和Moore-Penrose逆的性质将手眼方程转化为线性代数方程组,再通过最小二乘法求解出相机坐标系相对于机器人末端法兰坐标系的旋转平移矩阵即手眼关系矩阵Hcg
根据手眼标定处置结果产生差分进化(DE)算法的初始种群;在本实例中,初始种群为:
Figure BDA0004143532960000161
在本实施例中,M=200,
获取J组角点真实坐标和点云坐标之间的对应点集,如图3所示
修正后手眼标定矩阵
Figure BDA0004143532960000162
为:
Figure BDA0004143532960000163
如图4所示,手眼关系矩阵Hcg经过DE算法进行修正之后,同样地,反算出对应标定板原点在机器人基坐标系下地位置。对比优化前后n个拍摄位姿下的标定板原点分布,可以看出优化后的标定板原点(实心原点)较为集中,基本处于重叠状态;而优化前的标定板原点(空心原点)则较为分散。该结果证明了手眼标定结果的改善,其效果将在形貌测量中得到验证。
对于本实施例中进行测量的试件,需要从多个位姿进行单元测量点云数据采集。在采集过程中,保证待测试件被拍摄范围完整。通过移动机器人带动双目相机在多个视角位姿下完成测量对象的左右相机的结构光图像采集,重建单元测量点云数据,
Figure BDA0004143532960000164
如图5所示,圈中部分为一单元测量点云重建结果。并记录各个视角的机器人位姿信息,得到位姿矩阵/>
Figure BDA0004143532960000165
根据所获得的单元点云数据
Figure BDA0004143532960000166
和各视角位姿矩阵
Figure BDA0004143532960000167
以及修正后的手眼关系矩阵/>
Figure BDA0004143532960000168
进而计算出每幅单元测量点云数据从双目相机坐标系到机器人基座坐标系的刚体变换矩阵/>
Figure BDA0004143532960000169
将双目相机获取的单元测量点云转换至统一坐标系下,如图6所示为多幅单元测量点云数据转换至同一坐标系示意图,可以看出多幅单元测量点云数据均实现刚体变换,整体点云在变换过程中保持原状,无畸变情况产生。
本实例中,大型航天构件作为待测试件的三维形貌测量结果如图7所示。从图7中可以看出,以该试件的三维形貌测量结果完整,多个单元测量点云数据之间的配准情况良好。
尽管上面对本发明说明性的具体实施方式进行了描述,以便于本技术邻域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术邻域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。

Claims (1)

1.一种用于大型航天构件的机器人自动标定与三维测量方法,其特征在于,包括:
(1)、建立手眼标定方程
将双目相机安装于机器人末端法兰处,控制机器人运动至第i个拍摄位姿,对棋盘格标定板上一角点进行拍摄,在该拍摄位姿获得标定板图片,同时记录机器人位姿信息以及角点在相机坐标系中的位置Pi,这样对n个拍摄位姿进行拍摄,得到n组标定板图片和相对应机器人姿态信息;
根据张氏标定法获得每组标定板图片中标定板相对于相机的旋转向量Rci和平移向量Tci,并转换成旋转平移矩阵,即得到相机外参矩阵Hci,i=1,2,...,n,根据机器人位姿信息计算相对于基座的旋转向量Rgi和平移向量Tgi,得到机器人位姿矩阵Hgi,i=1,2,...,n,其中:
Figure FDA0004143532940000011
对于任意两次变换拍摄位姿u,v之间相机外参矩阵、机器人位姿矩阵,建立手眼标定方程:
Figure FDA0004143532940000019
其中:
Figure FDA0004143532940000012
其中,Rgu,v表示矩阵
Figure FDA0004143532940000013
中的旋转矩阵,Tgu,v表示矩阵/>
Figure FDA0004143532940000014
中的平移向量,Rcg表示手眼关系矩阵Hcg中的旋转矩阵,Tcg表示手眼关系矩阵中的平移向量,Rcu,v表示矩阵
Figure FDA0004143532940000015
的旋转矩阵,Tcu,v表示矩阵/>
Figure FDA0004143532940000016
中的平移向量;
(2)、利用Kronecker积和Moore-Penrose逆将手眼标定方程转化为最小二乘问题并利用奇异值分解计算出手眼关系矩阵Hcg
建立线性方程组:
Figure FDA0004143532940000017
其中,I为单位矩阵,
Figure FDA0004143532940000018
表示Kronecker积,vec表示向量化操作;
将所有两次变换拍摄位姿u,v下的矩阵:
Figure FDA0004143532940000021
按列放置,得到一个矩阵R;
对矩阵R进行奇异值分解,得到U矩阵即左奇异矩阵、奇异值矩阵∑以及V矩阵即右奇异矩阵;
将所有两次变换拍摄位姿u,v下的矩阵:
Figure FDA0004143532940000022
按列放置,得到一个矩阵Tg
取列向量V∑-1UTTg的前9个元素还原成3×3矩阵形式,得到矩阵
Figure FDA0004143532940000023
然后,对矩阵
Figure FDA0004143532940000024
进行正交化奇异值分解即/>
Figure FDA0004143532940000025
其中,UR为右奇异矩阵,∑R为奇异值矩阵,VR为左奇异矩阵,得到手眼关系矩阵Hcg的旋转矩阵Rcg即/>
Figure FDA0004143532940000026
将所有两次变换拍摄位姿u,v下的矩阵(Rgu,v-I)按列放置,得到一个矩阵Rg,将所有两次变换拍摄位姿u,v下的矩阵(RcgTcu,v-Tgu,v)按列放置,得到一个矩阵T,
根据旋转矩阵Rcg计算得到手眼关系矩阵Hcg的平移向量Tcg
Tcg=Rg -1T
(3)、对计算出的手眼关系矩阵Hcg进行修正,得到用于多视角点云粗配准的手眼关系矩阵
Figure FDA0004143532940000028
3.1)、获取J组角点真实坐标和点云坐标之间的对应点集
3.1.1)、用探针装置固定于机器人末端法兰上,通过五点法和示教器建立工具坐标,得到探针末端相对于机器人末端法兰坐标系的位置坐标ΔP0,机器人带动探针移动至标定板左上角的第一个方格的四个角点正上方处,从示教器上记录此时机器人末端法兰相对于基座坐标系的坐标,不断带动探针移动到标定板的方格的四个角点正上方处,得到角点正上方处机器人末端法兰相对于基座坐标系的坐标
Figure FDA0004143532940000029
并且推算出标定板所有角点的真实坐标:
Figure FDA00041435329400000210
其中,
Figure FDA0004143532940000031
为第l个角点正上方处机器人末端法兰相对于基座坐标系的三维坐标,Δx0,Δy0,Δz0为探针末端相对于机器人末端法兰坐标系的位置坐标,L标定板上角点的数量,T表示转置,B表示机器人基座坐标系;
3.1.2)、在一确定的机器人位姿下拍摄并重建标定板三维点云,重建得到标定板三维点云,依次点击并获取所述标定板左上角的第一个方格的四个角点相对于双目相机坐标系的点云坐标,根据推算可以获得同所述角点真实坐标相对应的所有标定板角点的点云坐标
Figure FDA0004143532940000032
Figure FDA0004143532940000033
其中,
Figure FDA0004143532940000034
为点云坐标/>
Figure FDA0004143532940000035
的三维坐标表示,C表示双目相机坐标系;
3.1.3)、根据机器人位姿信息,得到拍摄标定板点云时的机器人位姿矩阵为Hg,由已知的角点真实坐标
Figure FDA0004143532940000036
得到转换至该机器人姿态的法兰坐标系下的角点坐标/>
Figure FDA0004143532940000037
Figure FDA0004143532940000038
其中,
Figure FDA0004143532940000039
为角点坐标/>
Figure FDA00041435329400000310
的三维坐标表示,G表示机器人末端法兰坐标系;
由此得到一组对应点集
Figure FDA00041435329400000311
3.1.4)、改变机器人位姿J-1次,重复步骤3.1.2)、3.1.3),得到第j组对应点集重新记为
Figure FDA00041435329400000312
这样得到J组角点真实坐标和点云坐标之间的对应点集的集合P;
3.2)、基于最小化欧式变换误差优化手眼关系矩阵Hcg
3.2.1)、以手眼关系矩阵Hcg初始化种群
构建规模为M的种群,并初始化每个个体xh为:
Figure FDA00041435329400000313
其中,h表示为个体编号,h=1,2,…M,0表示第0代种群,下标数字为个体中分量编号,[rox,roy,roz]为手眼关系矩阵Hcg中旋转矩阵Rcg对应的旋转向量,[xo,yo,zo]为手眼关系矩阵Hcg中的平移向量Tcg的转置,即:
Figure FDA00041435329400000314
其中,Rodrigues()表示旋转向量转旋转矩阵操作;
rand(0,1)表示取0到1之间的随机数操作;
rxmaxmin,rymaxmin,rzmaxmin,xmaxmin,ymaxmin,zmaxmin分别表示手眼关系矩阵中旋转向量x、y、z以及手眼关系矩阵中平移向量x、y、z的最大值最小值之差;
3.2.2)、个体变异与交叉
对种群中个体进行变异和交叉:
Figure FDA0004143532940000041
Figure FDA0004143532940000042
其中,
Figure FDA00041435329400000416
为第t代种群中第h个个体的第k个分量,Mutation()为变异操作,/>
Figure FDA0004143532940000043
为第t代第h个变异个体的第k个分量,Crossover()为交叉操作,/>
Figure FDA0004143532940000044
为第t代第h个实验个体的第k个分量,k=1,2,…,6;
3.2.3)、利用贪婪算法来选择进入下一代种群的个体xh(t+1):
Figure FDA0004143532940000045
其中:
Figure FDA0004143532940000046
Figure FDA00041435329400000415
Figure FDA0004143532940000047
Figure FDA0004143532940000048
其中,
Figure FDA0004143532940000049
分别为第t代种群中第h个个体xh(t)对应的旋转矩阵:
Figure FDA00041435329400000410
Figure FDA00041435329400000411
其中,
Figure FDA00041435329400000412
分别为第t代种群中第h个个体uh(t)对应的旋转矩阵:
Figure FDA00041435329400000413
Figure FDA00041435329400000414
3.2.4)、t=t+1,返回步骤3.2.2),直到达到设定的终止条件为止;
3.2.5)、比较M个个体xh(t+1),h=1,2,…,M的适应度函数值f(xh+1(t),P),将最小适应度函数值对应个体记为x′(t)={x′1(t),x′2(t),x′3(t),x′4(t),x′5(t),x′6(t)},则修正后手眼标定矩阵
Figure FDA0004143532940000051
为:
Figure FDA0004143532940000052
(4)、三维形貌测量
调试所述双目相机,使其能清晰地拍摄到测量对象即需要进行测量的大型航天构件,使得左右相机保持在同一水平位置,并且保留一定距离,并完成双目标定;调试所述机器人,使其能承载双目相机进行三维测量任务,保证拍摄完测量对象的全貌;
在每个测量位姿进行结构光图像拍摄,并重构出测量对象的单元测量点云数据
Figure FDA0004143532940000053
记录测量位姿并计算得到该测量位姿机器人的位姿矩阵
Figure FDA0004143532940000054
其中,m为对测量对象进行三维形貌测量的测量位姿数量
根据获得的单元测量点云数据
Figure FDA0004143532940000055
各视角位姿矩阵/>
Figure FDA0004143532940000056
以及步骤(4)得到的优化后的手眼关系矩阵/>
Figure FDA0004143532940000057
计算出每幅单元测量点云数据从双目相机坐标系到机器人基座坐标系的刚体变换矩阵:
Figure FDA0004143532940000058
将双目相机获取的单元测量点云数据转换至机器人基座统一坐标系下,得到配准后的第q个测量位姿下的单视角点云
Figure FDA0004143532940000059
Figure FDA00041435329400000510
实现多视角点云数据的配准,从而完成大型航天构件的三维形貌测量。
CN202310297058.6A 2023-03-24 2023-03-24 一种用于大型航天构件的机器人自动标定与三维测量方法 Pending CN116352710A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310297058.6A CN116352710A (zh) 2023-03-24 2023-03-24 一种用于大型航天构件的机器人自动标定与三维测量方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310297058.6A CN116352710A (zh) 2023-03-24 2023-03-24 一种用于大型航天构件的机器人自动标定与三维测量方法

Publications (1)

Publication Number Publication Date
CN116352710A true CN116352710A (zh) 2023-06-30

Family

ID=86906547

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310297058.6A Pending CN116352710A (zh) 2023-03-24 2023-03-24 一种用于大型航天构件的机器人自动标定与三维测量方法

Country Status (1)

Country Link
CN (1) CN116352710A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116652970A (zh) * 2023-07-28 2023-08-29 上海仙工智能科技有限公司 一种四轴机械臂2d手眼标定方法及系统、存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116652970A (zh) * 2023-07-28 2023-08-29 上海仙工智能科技有限公司 一种四轴机械臂2d手眼标定方法及系统、存储介质
CN116652970B (zh) * 2023-07-28 2023-10-31 上海仙工智能科技有限公司 一种四轴机械臂2d手眼标定方法及系统、存储介质

Similar Documents

Publication Publication Date Title
CN109859275B (zh) 一种基于s-r-s结构的康复机械臂的单目视觉手眼标定方法
CN113386136B (zh) 一种基于标准球阵目标估计的机器人位姿矫正方法及系统
Martins et al. Camera models based on data from two calibration planes
CN111801198B (zh) 一种手眼标定方法、系统及计算机存储介质
CN109099883A (zh) 高精度大视场机器视觉测量与标定装置及方法
CN110276806A (zh) 用于四自由度并联机器人立体视觉手眼系统的在线手眼标定和抓取位姿计算方法
CN108180834A (zh) 一种工业机器人同三维成像仪位姿关系现场实时标定方法
CN110070598A (zh) 用于3d扫描重建的移动终端及其进行3d扫描重建方法
CN112991464B (zh) 基于立体视觉的三维重建的点云误差补偿方法及系统
CN110465946B (zh) 一种像素坐标与机器人坐标关系标定方法
CN112229323B (zh) 基于手机单目视觉的棋盘格合作目标的六自由度测量方法及其应用
CN110136068B (zh) 基于双侧远心镜头相机之间位置标定的音膜球顶装配系统
CN116352710A (zh) 一种用于大型航天构件的机器人自动标定与三维测量方法
CN107038753B (zh) 立体视觉三维重建系统及方法
CN115861445B (zh) 一种基于标定板三维点云的手眼标定方法
CN102222348A (zh) 一种三维目标运动矢量计算方法
CN115546289A (zh) 一种基于机器人的复杂结构件三维形貌测量方法
CN103886595A (zh) 一种基于广义统一模型的折反射相机自标定方法
CN115284292A (zh) 基于激光相机的机械臂手眼标定方法及装置
CN105631161A (zh) 一种虚实模型重合的确定方法与装置
CN115401685A (zh) 相机导引的装置的手眼校准
CN116309879A (zh) 一种机器人辅助的多视角三维扫描测量方法
CN107993227B (zh) 一种获取3d腹腔镜手眼矩阵的方法和装置
Malm et al. Simplified intrinsic camera calibration and hand-eye calibration for robot vision
CN109059761B (zh) 一种基于eiv模型的手持靶标测头标定方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination