CN115546289A - 一种基于机器人的复杂结构件三维形貌测量方法 - Google Patents

一种基于机器人的复杂结构件三维形貌测量方法 Download PDF

Info

Publication number
CN115546289A
CN115546289A CN202211324699.8A CN202211324699A CN115546289A CN 115546289 A CN115546289 A CN 115546289A CN 202211324699 A CN202211324699 A CN 202211324699A CN 115546289 A CN115546289 A CN 115546289A
Authority
CN
China
Prior art keywords
robot
point cloud
coordinate system
matrix
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211324699.8A
Other languages
English (en)
Inventor
殷春
高延
闫中宝
程玉华
谭旭彤
刘俊洋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202211324699.8A priority Critical patent/CN115546289A/zh
Publication of CN115546289A publication Critical patent/CN115546289A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开了一种基于机器人的复杂结构件三维形貌测量方法,首先通过移动机器人带动双目相机在多个视角位姿下完成测量对象的左右相机图像采集,重建单视角点云数据,并记录机器人位姿信息;然后对机器人末端法兰坐标系到双目相机坐标系的转换关系进行手眼标定,进而得到双目相机坐标系到机器人基座坐标系的转换矩阵,将双目相机获取的单视角测量点云转换至统一坐标系下,完成多视角点云粗配准;最后通过ICP算法对测量点云进行精配准,实现三维形貌测量。整个过程不需在被测物体表面贴标志点,简化了点云配准过程;同时修正了手眼关系精度,可以保证多视角点云数据的粗配准精度,很大程度上提高了多视角三维形貌测量的效率。

Description

一种基于机器人的复杂结构件三维形貌测量方法
技术领域
本发明属于三维形貌测量技术领域,更为具体地讲,涉及一种基于机器人的复杂结构件三维形貌测量方法。
背景技术
多视角三维形貌测量技术指将不同时间、不同拍摄方位下获取的单视角点云数据进行匹配对齐的过程,是三维测量中十分基础且重要的问题。在实际应用中最普遍的配准方法是基于特征的配准方法,比如人工标记点,但由于运动物体、重复结构、噪声、遮挡等干扰,使得特征描述和特征匹配鲁棒性较差,配准精度较低。为了同时满足多视角点云数据采集和无标记点配准,将工业机器人作为运动载体,使测量系统在保留视觉测量技术非接触、快速等特点的同时,由于机器人快速灵活的特性增强了整个系统的柔性。
为了完成多视角三维形貌测量,需要将不同视角下的测量点云经过旋转平移等刚性变换转换至统一的坐标系下,这就需要完成测量设备坐标系到工业机器人末端法兰坐标系的手眼标定计算。工业机器人目前手眼标定的方式主要通过相机拍摄标定物体进行位姿识别,获取相机参数以及机器人姿态信息,然后进行手眼标定方程解算来实现。此类手眼标定方法得到的手眼标定精度很容易受相机和机器人精度、位姿识别精度、手眼标定方程解算方法准确度的影响,并形成累积误差。
现有的提高手眼标定精度的方法只能从标定物体位姿识别、手眼标定方程算法进行优化,但是计算的手眼关系矩阵与真实值仍有差距,达不到点云配准任务要求。因此,有必要采取一种更加切实有效的手眼关系修正方法来提高手眼标定精度,以实现更高质量的点云配准。
发明内容
本发明的目的在于克服现有技术的不足,提供一种基于机器人的复杂结构件三维形貌测量方法,以实现整个过程不需在测量对象表面贴标志点,简化点云配准过程,同时修正手眼关系精度,以保证多视角点云数据的粗配准精度,很大程度上提高多视角三维形貌测量的效率。
为实现上述发明目的,本发明基于机器人的复杂结构件三维形貌测量方法,其特征在于,包括:
(1)、通过机器人带动双目相机在多个视角位姿下完成测量对象的左右相机图像采集,重建单视角点云,并记录机器人位姿信息
1.1)、将双目相机安装于机器人末端法兰的固定器械上,使得左右相机保持在同一水平位置,并且保留一定距离;
1.2)、调试双目相机,使其能清晰地拍摄到测量对象,并调试机器人,使其能承载双目相机进行三维测量任务,保证拍摄完测量对象的全貌,并使用张氏标定法进行相机标定,对于第k,k=1,2,...,n个机器人位姿下的测量对象,由左右相机分别拍摄一副灰度图像;
1.3)、对左右相机分别拍摄一副灰度图像,根据双目相机原理进行点云重构,得到第k机器人位姿下的单视角点云
Figure BDA0003911945610000021
并得到该视角机器人位姿矩阵
Figure BDA0003911945610000022
(2)、对机器人末端法兰坐标系到双目相机坐标系的转换关系进行手眼标定,进而得到双目相机坐标系到机器人基座坐标系的转换矩阵,将双目相机获取的单视角点云转换至统一坐标系下,完成多视角点云粗配准
2.1)、将双目相机安装于机器人末端法兰的固定器械上,控制机器人运动至拍摄视角,在该拍摄视角利用双目相机拍摄获得标定板图片,同时记录机器人位姿信息;
2.2)、重复步骤2.1)得到m组标定板图片和相对应的机器人姿态信息;
2.3)、根据张氏标定法获得每组标定板图片中标定板相对于相机的旋转向量 Rci和平移向量Tci,并转换成旋转平移矩阵,即得到相机外参矩阵Hci,i=1,2,...,m;根据机器人位姿信息计算相对于基座的旋转向量Rgi和平移向量Tgi,得到机器人位姿矩阵Hgi,i=1,2,...,m,其中:
Figure BDA0003911945610000023
2.4)、由于任意两次变换拍摄位姿i,j之间,机器人基座到标定板之间的相对位姿关系即基座标定板关系矩阵HBW固定不变,并且相机与机器人末端法兰之间的相对位姿关系,即手眼关系矩阵Hcg固定不变,有如下转换关系:
HBW=HgiHcgHci
HBW=HgjHcgHcj
通过相机外参矩阵Hci,i=1,2,...,n和机器人姿态矩阵Hgi,i=1,2,...,m,结合机器人基座坐标系和标定板坐标系之间的固定关系,建立手眼标定方程:
AX=XB;
其中,A=Hgj -1Hgi,B=HcjHci -1,X=Hcg
并采用手眼标定函数求解该方程,求得相机坐标系相对于机器人末端法兰坐标系的旋转平移矩阵即手眼关系矩阵Hcg
2.5)、对计算出的手眼关系矩阵Hcg进行修正,得到用于多视角点云粗配准的手眼关系矩阵
Figure BDA0003911945610000031
2.5.1)、用探针装置固定于机器人末端法兰上,通过五点法和示教器建立工具坐标,得到探针末端相对于机器人末端法兰坐标系的位置坐标ΔP0,机器人带动探针移动至标定板左上角的第一个方格的四个角点正上方处,从示教器上记录此时机器人末端法兰相对于基座坐标系的坐标,不断带动探针移动到标定板的方格的四个角点正上方处,得到角点正上方处机器人末端法兰相对于基座坐标系的坐标
Figure BDA0003911945610000032
并且推算出标定板所有角点的真实坐标:
Figure BDA0003911945610000033
其中,
Figure BDA0003911945610000034
为第l个角点正上方处机器人末端法兰相对于基座坐标系的三维坐标,Δx0,Δy0,Δz0为探针末端相对于机器人末端法兰坐标系的位置坐标,L 标定板上角点的数量,T表示转置,B表示机器人基座坐标系;
2.5.2)、在一确定的机器人位姿下拍摄并重建标定板三维点云,重建得到标定板三维点云,依次点击并获取所述标定板左上角的第一个方格的四个角点相对于双目相机坐标系的点云坐标,根据推算可以获得同所述角点真实坐标相对应的所有标定板角点的点云坐标P1 l
Figure BDA0003911945610000035
其中,
Figure BDA0003911945610000036
为点云坐标P1 l的三维坐标表示,C表示双目相机坐标系;
2.5.3)、根据机器人位姿信息,得到拍摄标定板点云时的机器人位姿矩阵为 Hg,由已知的角点真实坐标P0 l,得到转换至该机器人姿态的法兰坐标系下的角点坐标
Figure BDA0003911945610000041
Figure BDA0003911945610000042
其中,
Figure BDA0003911945610000043
为角点坐标
Figure BDA0003911945610000044
的三维坐标表示,G表示机器人末端法兰坐标系;由此得到一组对应点集
Figure BDA0003911945610000045
2.5.4)、改变机器人位姿J-1次,重复步骤2.5.2)、2.5.3),得到J组角点真实坐标和点云坐标之间的对应点集,并重新记为
Figure BDA0003911945610000046
2.5.5)、令修正后的手眼关系矩阵
Figure BDA0003911945610000047
为:
Figure BDA0003911945610000048
其中,T′cg=[x′,y′,z′]T为待修正的平移向量,Rcg为计算出的手眼关系矩阵Hcg的旋转矩阵;
由一组对应点集
Figure BDA0003911945610000049
之间的刚体变换关系,建立修正函数进行优化:
Figure BDA00039119456100000410
令修正函数f(Pj)=0,分别带入各组点集
Figure BDA00039119456100000411
计算出J组点集对应的J个平移向量T′cg,并求取平均值,得到修正后的平移向量
Figure BDA00039119456100000412
即得到最终修正后手眼标定矩阵
Figure BDA00039119456100000413
Figure BDA00039119456100000414
2.6)、根据步骤(1)重建的点云数据
Figure BDA00039119456100000415
和各视角位姿矩阵
Figure BDA00039119456100000416
以及最终修正后手眼标定矩阵
Figure BDA00039119456100000417
计算三维点云配准的刚体变换矩阵
Figure BDA00039119456100000418
Figure BDA00039119456100000419
Figure BDA00039119456100000420
其中,刚体变换矩阵
Figure BDA00039119456100000421
反应机器人基座坐标系到双目相机的变换关系;
由此将双目相机获取的单视角测量点云数据转换至机器人基座统一坐标系下,实现点云的粗配准:
Figure BDA0003911945610000051
其中,
Figure BDA0003911945610000052
为粗配准后的第k个位姿下的单视角点云;
(3)、通过ICP算法(迭代最近点算法)对测量点云进行精配准,实现三维形貌测量
3.1)、将相邻位姿下的两个经过粗配准的单视角点云Phomo_point_cloud作为ICP源点云和ICP目标点云;
3.2)、对两个单视角点云进行ICP点云配准,搜索最近对应点,经过迭代计算,求得使上述对应点对平均距离最小的刚体变换矩阵,当点云距离小于设定的阈值或者达到设定的迭代次数,则输出源点云和目标点云之间的刚体变换矩阵,并由该矩阵实现目标点云到源点云的转换,得到配准后点云;
3.3)、将上述配准后点云作为ICP源点云,其相邻位姿下的单视角点云作为目标ICP点云,再重复以上步骤,直到对所有点云完成精配准,得到重建后的测量对象三维形貌点云数据。
本发明的发明目的是这样实现的:
本发明基于机器人的复杂结构件三维形貌测量方法,首先通过移动机器人带动双目相机在多个视角位姿下完成测量对象的左右相机图像采集,重建单视角点云数据,并记录机器人位姿信息;然后对机器人末端法兰坐标系到双目相机坐标系的转换关系进行手眼标定,进而得到双目相机坐标系到机器人基座坐标系的转换矩阵,将双目相机获取的单视角测量点云转换至统一坐标系下,完成多视角点云粗配准;最后通过ICP算法对测量点云进行精配准,实现三维形貌测量。整个过程不需在被测物体表面贴标志点,简化了点云配准过程;同时修正了手眼关系精度,可以保证多视角点云数据的粗配准精度,很大程度上提高了多视角三维形貌测量的效率。
本发明的相关优点和创新性是:
(1)、本发明使用高分辨率双目相机,实现了高精度点云的重建;
(2)、本发明使用了机器人进行三维测量任务,能更大程度的重建测量对象的三维全貌;
(3)、本发明点云的粗配准中采用了无接触的配准方法,同时修正手眼标定的方法,保留更多测量物体的真实信息的同时实现了快速拼接。
附图说明
图1是本发明基于机器人的复杂结构件三维形貌测量方法一种具体实施方式的流程图;
图2是本发明实施例中的测量方式及手眼关系的示意图;
图3是本发明的计算并修正手眼标定矩阵流程图。
具体实施方式
下面结合附图对本发明的具体实施方式进行描述,以便本领域的技术人员更好地理解本发明。需要特别提醒注意的是,在以下的描述中,当已知功能和设计的详细描述也许会淡化本发明的主要内容时,这些描述在这里将被忽略。
图1是本发明基于机器人的复杂结构件三维形貌测量方法一种具体实施方式的流程图。
在本实施例中,如图1所示,本发明基于机器人的复杂结构件三维形貌测量方法包括以下步骤:
1.重建单视角测量点云数据:
通过机器人带动双目相机在多个视角位姿下完成测量对象的左右相机图像采集,重建单视角点云,并记录机器人位姿信息,具体包括以下步骤:
1.1.双目相机标定
将双目相机安装于机器人末端法兰的固定器械上,使得左右相机保持在同一水平位置,并且保留一定距离。
1.2.左右相机图像采集
调试双目相机,使其能清晰地拍摄到测量对象,并调试机器人,使其能承载双目相机进行三维测量任务,保证拍摄完测量对象的全貌,并使用张氏标定法进行相机标定,,对于第k,k=1,2,...,n个机器人位姿下的测量对象,由左右相机分别拍摄一副灰度图像。
1.3.图像处理
对左右相机分别拍摄一副灰度图像,根据双目相机原理进行点云重构,得到第k机器人位姿下的单视角点云
Figure BDA0003911945610000061
并得到该视角机器人位姿矩阵
Figure BDA0003911945610000062
2.同一点云坐标系粗匹配
对机器人末端法兰坐标系到双目相机坐标系的转换关系进行手眼标定,进而得到双目相机坐标系到机器人基座坐标系的转换矩阵,将双目相机获取的单视角点云转换至统一坐标系下,完成多视角点云粗配准,具体为:
2.1.如图2所示,将双目相机安装于机器人末端法兰的固定器械上,控制机器人运动至拍摄视角,在该拍摄视角利用双目相机拍摄获得标定板图片,同时记录机器人位姿信息。
2.2.重复步骤2.1)得到m组标定板图片和相对应的机器人姿态信息。
2.3.根据张氏标定法获得每组标定板图片中标定板相对于相机的旋转向量 Rci和平移向量Tci,并转换成旋转平移矩阵,即得到相机外参矩阵Hci,i=1,2,...,m;根据机器人位姿信息计算相对于基座的旋转向量Rgi和平移向量Tgi,得到机器人位姿矩阵Hgi,i=1,2,...,m,其中:
Figure BDA0003911945610000071
2.4.由于任意两次变换拍摄位姿i,j之间,机器人基座到标定板之间的相对位姿关系即基座标定板关系矩阵HBW固定不变,并且相机与机器人末端法兰之间的相对位姿关系,即手眼关系矩阵Hcg固定不变,有如下转换关系:
HBW=HgiHcgHci
HBW=HgjHcgHcj
通过相机外参矩阵Hci,i=1,2,...,n和机器人姿态矩阵Hgi,i=1,2,...,m,结合机器人基座坐标系和标定板坐标系之间的固定关系,建立手眼标定方程:
AX=XB;
其中,A=Hgj -1Hgi,B=HcjHci -1,X=Hcg
并采用手眼标定函数求解该方程,求得相机坐标系相对于机器人末端法兰坐标系的旋转平移矩阵即手眼关系矩阵Hcg
2.5.对计算出的手眼关系矩阵Hcg进行修正,得到用于多视角点云粗配准的手眼关系矩阵
Figure BDA0003911945610000072
如图3所示,包括以下步骤:
2.5.1.用探针装置固定于机器人末端法兰上,通过五点法和示教器建立工具坐标,得到探针末端相对于机器人末端法兰坐标系的位置坐标ΔP0,机器人带动探针移动至标定板左上角的第一个方格的四个角点正上方处,从示教器上记录此时机器人末端法兰相对于基座坐标系的坐标,不断带动探针移动到标定板的方格的四个角点正上方处,得到角点正上方处机器人末端法兰相对于基座坐标系的坐标
Figure BDA0003911945610000081
并且推算出标定板所有角点的真实坐标:
Figure BDA0003911945610000082
其中,
Figure BDA0003911945610000083
为第l个角点正上方处机器人末端法兰相对于基座坐标系的三维坐标,Δx0,Δy0,Δz0为探针末端相对于机器人末端法兰坐标系的位置坐标,L 标定板上角点的数量,T表示转置,B表示机器人基座坐标系。
2.5.2.在一确定的机器人位姿下拍摄并重建标定板三维点云,重建得到标定板三维点云,依次点击并获取所述标定板左上角的第一个方格的四个角点相对于双目相机坐标系的点云坐标,根据推算可以获得同所述角点真实坐标相对应的所有标定板角点的点云坐标P1 l
Figure BDA0003911945610000084
其中,
Figure BDA0003911945610000085
为点云坐标P1 l的三维坐标表示,C表示双目相机坐标系。
2.5.3.根据机器人位姿信息,得到拍摄标定板点云时的机器人位姿矩阵为Hg,由已知的角点真实坐标P0 l,得到转换至该机器人姿态的法兰坐标系下的角点坐标
Figure BDA0003911945610000086
Figure BDA0003911945610000087
其中,
Figure BDA0003911945610000088
为角点坐标
Figure BDA0003911945610000089
的三维坐标表示,G表示机器人末端法兰坐标系;由此得到一组对应点集
Figure BDA00039119456100000810
2.5.4.改变机器人位姿J-1次,重复步骤2.5.2)、2.5.3),得到J组角点真实坐标和点云坐标之间的对应点集,并重新记为
Figure BDA00039119456100000811
2.5.5.令修正后的手眼关系矩阵
Figure BDA00039119456100000812
为:
Figure BDA00039119456100000813
其中,T′cg=[x′,y′,z′]T为待修正的平移向量,Rcg为计算出的手眼关系矩阵Hcg的旋转矩阵。
由一组对应点集
Figure BDA00039119456100000814
之间的刚体变换关系,建立修正函数进行优化:
Figure BDA0003911945610000091
令修正函数f(Pj)=0,分别带入各组点集
Figure BDA0003911945610000092
计算出J组点集对应的J个平移向量T′cg,并求取平均值,得到修正后的平移向量
Figure BDA0003911945610000093
即得到最终修正后手眼标定矩阵
Figure BDA0003911945610000094
Figure BDA0003911945610000095
2.6)、根据步骤(1)重建的点云数据
Figure BDA0003911945610000096
和各视角位姿矩阵
Figure BDA0003911945610000097
以及最终修正后手眼标定矩阵
Figure BDA0003911945610000098
计算三维点云配准的刚体变换矩阵
Figure BDA0003911945610000099
Figure BDA00039119456100000910
Figure BDA00039119456100000911
其中,刚体变换矩阵
Figure BDA00039119456100000912
反应机器人基座坐标系到双目相机的变换关系。
由此将双目相机获取的单视角测量点云数据转换至机器人基座统一坐标系下,实现点云的粗配准:
Figure BDA00039119456100000913
其中,
Figure BDA00039119456100000914
为粗配准后的第k个位姿下的单视角点云。
3.通过ICP算法对测量点云进行精配准,实现三维形貌测量
3.1.将相邻位姿下的两个经过粗配准的单视角点云Phomo_point_cloud作为ICP源点云和ICP目标点云;
3.2.对两个单视角点云进行ICP点云配准,搜索最近对应点,经过迭代计算,求得使上述对应点对平均距离最小的刚体变换矩阵,当点云距离小于设定的阈值或者达到设定的迭代次数,则输出源点云和目标点云之间的刚体变换矩阵,并由该矩阵实现目标点云到源点云的转换,得到配准后点云;
3.3.将上述配准后点云作为ICP源点云,其相邻位姿下的单视角点云作为目标ICP点云,再重复以上步骤,直到对所有点云完成精配准,得到重建后的测量对象三维形貌点云数据。
精配准为先现有技术,在此不再赘述。
尽管上面对本发明说明性的具体实施方式进行了描述,以便于本技术邻域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术邻域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。

Claims (1)

1.一种基于机器人的复杂结构件三维形貌测量方法,其特征在于,包括:
(1)、通过机器人带动双目相机在多个视角位姿下完成测量对象的左右相机图像采集,重建单视角点云,并记录机器人位姿信息
1.1)、将双目相机安装于机器人末端法兰的固定器械上,使得左右相机保持在同一水平位置,并且保留一定距离;
1.2)、调试双目相机,使其能清晰地拍摄到测量对象,并调试机器人,使其能承载双目相机进行三维测量任务,保证拍摄完测量对象的全貌,并使用张氏标定法进行相机标定,对于第k,k=1,2,...,n个机器人位姿下的测量对象,由左右相机分别拍摄一副灰度图像;
1.3)、对左右相机分别拍摄一副灰度图像,根据双目相机原理进行点云重构,得到第k机器人位姿下的单视角点云
Figure FDA0003911945600000011
并得到该视角机器人位姿矩阵
Figure FDA0003911945600000012
(2)、对机器人末端法兰坐标系到双目相机坐标系的转换关系进行手眼标定,进而得到双目相机坐标系到机器人基座坐标系的转换矩阵,将双目相机获取的单视角点云转换至统一坐标系下,完成多视角点云粗配准
2.1)、将双目相机安装于机器人末端法兰的固定器械上,控制机器人运动至拍摄视角,在该拍摄视角利用双目相机拍摄获得标定板图片,同时记录机器人位姿信息;
2.2)、重复步骤2.1)得到m组标定板图片和相对应的机器人姿态信息;
2.3)、根据张氏标定法获得每组标定板图片中标定板相对于相机的旋转向量Rci和平移向量Tci,并转换成旋转平移矩阵,即得到相机外参矩阵Hci,i=1,2,...,m;根据机器人位姿信息计算相对于基座的旋转向量Rgi和平移向量Tgi,得到机器人位姿矩阵Hgi,i=1,2,...,m,其中:
Figure FDA0003911945600000013
2.4)、由于任意两次变换拍摄位姿i,j之间,机器人基座到标定板之间的相对位姿关系即基座标定板关系矩阵HBW固定不变,并且相机与机器人末端法兰之间的相对位姿关系,即手眼关系矩阵Hcg固定不变,有如下转换关系:
HBW=HgiHcgHci
HBW=HgjHcgHcj
通过相机外参矩阵Hci,i=1,2,…,n和机器人姿态矩阵Hgi,i=1,2,...,m,结合机器人基座坐标系和标定板坐标系之间的固定关系,建立手眼标定方程:
AX=XB;
其中,A=Hgj -1Hgi,B=HcjHci -1,X=Hcg
并采用手眼标定函数求解该方程,求得相机坐标系相对于机器人末端法兰坐标系的旋转平移矩阵即手眼关系矩阵Hcg
2.5)、对计算出的手眼关系矩阵Hcg进行修正,得到用于多视角点云粗配准的手眼关系矩阵
Figure FDA0003911945600000021
2.5.1)、用探针装置固定于机器人末端法兰上,通过五点法和示教器建立工具坐标,得到探针末端相对于机器人末端法兰坐标系的位置坐标ΔP0,机器人带动探针移动至标定板左上角的第一个方格的四个角点正上方处,从示教器上记录此时机器人末端法兰相对于基座坐标系的坐标,不断带动探针移动到标定板的方格的四个角点正上方处,得到角点正上方处机器人末端法兰相对于基座坐标系的坐标
Figure FDA0003911945600000022
并且推算出标定板所有角点的真实坐标:
Figure FDA0003911945600000023
其中,
Figure FDA0003911945600000024
为第l个角点正上方处机器人末端法兰相对于基座坐标系的三维坐标,Δx0,Δy0,Δz0为探针末端相对于机器人末端法兰坐标系的位置坐标,L标定板上角点的数量,T表示转置,B表示机器人基座坐标系;
2.5.2)、在一确定的机器人位姿下拍摄并重建标定板三维点云,重建得到标定板三维点云,依次点击并获取所述标定板左上角的第一个方格的四个角点相对于双目相机坐标系的点云坐标,根据推算可以获得同所述角点真实坐标相对应的所有标定板角点的点云坐标
Figure FDA0003911945600000025
Figure FDA0003911945600000026
其中,
Figure FDA0003911945600000027
为点云坐标
Figure FDA0003911945600000028
的三维坐标表示,C表示双目相机坐标系;
2.5.3)、根据机器人位姿信息,得到拍摄标定板点云时的机器人位姿矩阵为Hg,由已知的角点真实坐标
Figure FDA0003911945600000029
得到转换至该机器人姿态的法兰坐标系下的角点坐标
Figure FDA00039119456000000210
Figure FDA0003911945600000031
其中,
Figure FDA0003911945600000032
为角点坐标
Figure FDA0003911945600000033
的三维坐标表示,G表示机器人末端法兰坐标系;
由此得到一组对应点集
Figure FDA0003911945600000034
2.5.4)、改变机器人位姿J-1次,重复步骤2.5.2)、2.5.3),得到J组角点真实坐标和点云坐标之间的对应点集,并重新记为
Figure FDA0003911945600000035
2.5.5)、令修正后的手眼关系矩阵
Figure FDA0003911945600000036
为:
Figure FDA0003911945600000037
其中,
Figure FDA0003911945600000038
为待修正的平移向量,Rcg为计算出的手眼关系矩阵Hcg的旋转矩阵;
由一组对应点集
Figure FDA0003911945600000039
之间的刚体变换关系,建立修正函数进行优化:
Figure FDA00039119456000000310
令修正函数f(Pj)=0,分别带入各组点集
Figure FDA00039119456000000311
计算出J组点集对应的J个平移向量T′cg,并求取平均值,得到修正后的平移向量
Figure FDA00039119456000000312
即得到最终修正后手眼标定矩阵
Figure FDA00039119456000000313
Figure FDA00039119456000000314
2.6)、根据步骤(1)重建的点云数据
Figure FDA00039119456000000315
和各视角位姿矩阵
Figure FDA00039119456000000316
以及最终修正后手眼标定矩阵
Figure FDA00039119456000000317
计算三维点云配准的刚体变换矩阵
Figure FDA00039119456000000318
Figure FDA00039119456000000319
Figure FDA00039119456000000320
其中,刚体变换矩阵
Figure FDA00039119456000000321
反应机器人基座坐标系到双目相机的变换关系;
由此将双目相机获取的单视角测量点云数据转换至机器人基座统一坐标系下,实现点云的粗配准:
Figure FDA00039119456000000322
其中,
Figure FDA0003911945600000041
为粗配准后的第k个位姿下的单视角点云;
(3)、通过ICP算法(迭代最近点算法)对测量点云进行精配准,实现三维形貌测量
3.1)、将相邻位姿下的两个经过粗配准的单视角点云Phomo_point_cloud作为ICP源点云和ICP目标点云;
3.2)、对两个单视角点云进行ICP点云配准,搜索最近对应点,经过迭代计算,求得使上述对应点对平均距离最小的刚体变换矩阵,当点云距离小于设定的阈值或者达到设定的迭代次数,则输出源点云和目标点云之间的刚体变换矩阵,并由该矩阵实现目标点云到源点云的转换,得到配准后点云;
3.3)、将上述配准后点云作为ICP源点云,其相邻位姿下的单视角点云作为目标ICP点云,再重复以上步骤,直到对所有点云完成精配准,得到重建后的测量对象三维形貌点云数据。
CN202211324699.8A 2022-10-27 2022-10-27 一种基于机器人的复杂结构件三维形貌测量方法 Pending CN115546289A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211324699.8A CN115546289A (zh) 2022-10-27 2022-10-27 一种基于机器人的复杂结构件三维形貌测量方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211324699.8A CN115546289A (zh) 2022-10-27 2022-10-27 一种基于机器人的复杂结构件三维形貌测量方法

Publications (1)

Publication Number Publication Date
CN115546289A true CN115546289A (zh) 2022-12-30

Family

ID=84717797

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211324699.8A Pending CN115546289A (zh) 2022-10-27 2022-10-27 一种基于机器人的复杂结构件三维形貌测量方法

Country Status (1)

Country Link
CN (1) CN115546289A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116310099A (zh) * 2023-03-01 2023-06-23 南京工业大学 基于多视角图像的钢桥构件三维重建方法
CN116883471A (zh) * 2023-08-04 2023-10-13 天津大学 面向胸腹部经皮穿刺的线结构光无接触点云配准方法
CN117197246A (zh) * 2023-11-07 2023-12-08 江苏云幕智造科技有限公司 一种基于三维点云与双目视觉的人形机器人位置确认方法
CN117948885A (zh) * 2024-03-27 2024-04-30 中科慧远人工智能(烟台)有限公司 基于生产线的位姿测量方法、装置和系统

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116310099A (zh) * 2023-03-01 2023-06-23 南京工业大学 基于多视角图像的钢桥构件三维重建方法
CN116883471A (zh) * 2023-08-04 2023-10-13 天津大学 面向胸腹部经皮穿刺的线结构光无接触点云配准方法
CN116883471B (zh) * 2023-08-04 2024-03-15 天津大学 面向胸腹部经皮穿刺的线结构光无接触点云配准方法
CN117197246A (zh) * 2023-11-07 2023-12-08 江苏云幕智造科技有限公司 一种基于三维点云与双目视觉的人形机器人位置确认方法
CN117197246B (zh) * 2023-11-07 2024-01-26 江苏云幕智造科技有限公司 一种基于三维点云与双目视觉的人形机器人位置确认方法
CN117948885A (zh) * 2024-03-27 2024-04-30 中科慧远人工智能(烟台)有限公司 基于生产线的位姿测量方法、装置和系统
CN117948885B (zh) * 2024-03-27 2024-06-11 中科慧远人工智能(烟台)有限公司 基于生产线的位姿测量方法、装置和系统

Similar Documents

Publication Publication Date Title
CN111156925B (zh) 基于线结构光和工业机器人的大构件三维测量方法
CN115546289A (zh) 一种基于机器人的复杂结构件三维形貌测量方法
CN105716542B (zh) 一种基于柔性特征点的三维数据拼接方法
CN103759670B (zh) 一种基于数字近景摄影的物体三维信息获取方法
CN100430690C (zh) 利用单数码相机自由拍摄进行物体三维测量的方法
CN109323650B (zh) 测量系统中视觉图像传感器与光点测距传感器测量坐标系的统一方法
CN110866969B (zh) 基于神经网络与点云配准的发动机叶片重构方法
CN109297436B (zh) 双目线激光立体测量基准标定方法
CN108489398B (zh) 一种广角场景下激光加单目视觉测量三维坐标的方法
CN110136204B (zh) 基于双侧远心镜头相机机床位置标定的音膜球顶装配系统
WO2018201677A1 (zh) 基于光束平差的远心镜头三维成像系统的标定方法及装置
CN111028280B (zh) 井字结构光相机系统及进行目标有尺度三维重建的方法
CN109919911A (zh) 基于多视角光度立体的移动三维重建方法
JP2011027623A (ja) 位置姿勢計測方法及び装置
CN104697463B (zh) 一种双目视觉传感器的消隐特征约束标定方法及装置
CN109115184A (zh) 基于非合作目标协同测量方法及系统
CN116309879A (zh) 一种机器人辅助的多视角三维扫描测量方法
CN104167001B (zh) 基于正交补偿的大视场摄像机标定方法
CN113870366B (zh) 基于位姿传感器的三维扫描系统的标定方法及其标定系统
CN111524174A (zh) 一种动平台动目标双目视觉三维构建方法
CN117893610B (zh) 基于变焦单目视觉的航空装配机器人姿态测量系统
CN116740187A (zh) 一种无重叠视场多相机联合标定方法
CN109360267B (zh) 一种薄物体快速三维重建方法
CN112700505B (zh) 一种基于双目三维跟踪的手眼标定方法、设备及存储介质
CN112525106B (zh) 基于三相机协同激光的3d探测方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination