CN115546289A - 一种基于机器人的复杂结构件三维形貌测量方法 - Google Patents
一种基于机器人的复杂结构件三维形貌测量方法 Download PDFInfo
- Publication number
- CN115546289A CN115546289A CN202211324699.8A CN202211324699A CN115546289A CN 115546289 A CN115546289 A CN 115546289A CN 202211324699 A CN202211324699 A CN 202211324699A CN 115546289 A CN115546289 A CN 115546289A
- Authority
- CN
- China
- Prior art keywords
- robot
- point cloud
- coordinate system
- matrix
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000691 measurement method Methods 0.000 title claims abstract description 6
- 239000011159 matrix material Substances 0.000 claims abstract description 80
- 238000000034 method Methods 0.000 claims abstract description 35
- 238000005259 measurement Methods 0.000 claims abstract description 25
- 230000000007 visual effect Effects 0.000 claims abstract description 22
- 238000006243 chemical reaction Methods 0.000 claims abstract description 16
- 238000013519 translation Methods 0.000 claims description 22
- 230000009466 transformation Effects 0.000 claims description 21
- 239000013598 vector Substances 0.000 claims description 21
- 239000000523 sample Substances 0.000 claims description 14
- 238000012937 correction Methods 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000012876 topography Methods 0.000 claims description 5
- 230000017105 transposition Effects 0.000 claims description 3
- 230000036544 posture Effects 0.000 abstract description 10
- 230000008569 process Effects 0.000 abstract description 7
- 238000009616 inductively coupled plasma Methods 0.000 abstract description 4
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明公开了一种基于机器人的复杂结构件三维形貌测量方法,首先通过移动机器人带动双目相机在多个视角位姿下完成测量对象的左右相机图像采集,重建单视角点云数据,并记录机器人位姿信息;然后对机器人末端法兰坐标系到双目相机坐标系的转换关系进行手眼标定,进而得到双目相机坐标系到机器人基座坐标系的转换矩阵,将双目相机获取的单视角测量点云转换至统一坐标系下,完成多视角点云粗配准;最后通过ICP算法对测量点云进行精配准,实现三维形貌测量。整个过程不需在被测物体表面贴标志点,简化了点云配准过程;同时修正了手眼关系精度,可以保证多视角点云数据的粗配准精度,很大程度上提高了多视角三维形貌测量的效率。
Description
技术领域
本发明属于三维形貌测量技术领域,更为具体地讲,涉及一种基于机器人的复杂结构件三维形貌测量方法。
背景技术
多视角三维形貌测量技术指将不同时间、不同拍摄方位下获取的单视角点云数据进行匹配对齐的过程,是三维测量中十分基础且重要的问题。在实际应用中最普遍的配准方法是基于特征的配准方法,比如人工标记点,但由于运动物体、重复结构、噪声、遮挡等干扰,使得特征描述和特征匹配鲁棒性较差,配准精度较低。为了同时满足多视角点云数据采集和无标记点配准,将工业机器人作为运动载体,使测量系统在保留视觉测量技术非接触、快速等特点的同时,由于机器人快速灵活的特性增强了整个系统的柔性。
为了完成多视角三维形貌测量,需要将不同视角下的测量点云经过旋转平移等刚性变换转换至统一的坐标系下,这就需要完成测量设备坐标系到工业机器人末端法兰坐标系的手眼标定计算。工业机器人目前手眼标定的方式主要通过相机拍摄标定物体进行位姿识别,获取相机参数以及机器人姿态信息,然后进行手眼标定方程解算来实现。此类手眼标定方法得到的手眼标定精度很容易受相机和机器人精度、位姿识别精度、手眼标定方程解算方法准确度的影响,并形成累积误差。
现有的提高手眼标定精度的方法只能从标定物体位姿识别、手眼标定方程算法进行优化,但是计算的手眼关系矩阵与真实值仍有差距,达不到点云配准任务要求。因此,有必要采取一种更加切实有效的手眼关系修正方法来提高手眼标定精度,以实现更高质量的点云配准。
发明内容
本发明的目的在于克服现有技术的不足,提供一种基于机器人的复杂结构件三维形貌测量方法,以实现整个过程不需在测量对象表面贴标志点,简化点云配准过程,同时修正手眼关系精度,以保证多视角点云数据的粗配准精度,很大程度上提高多视角三维形貌测量的效率。
为实现上述发明目的,本发明基于机器人的复杂结构件三维形貌测量方法,其特征在于,包括:
(1)、通过机器人带动双目相机在多个视角位姿下完成测量对象的左右相机图像采集,重建单视角点云,并记录机器人位姿信息
1.1)、将双目相机安装于机器人末端法兰的固定器械上,使得左右相机保持在同一水平位置,并且保留一定距离;
1.2)、调试双目相机,使其能清晰地拍摄到测量对象,并调试机器人,使其能承载双目相机进行三维测量任务,保证拍摄完测量对象的全貌,并使用张氏标定法进行相机标定,对于第k,k=1,2,...,n个机器人位姿下的测量对象,由左右相机分别拍摄一副灰度图像;
(2)、对机器人末端法兰坐标系到双目相机坐标系的转换关系进行手眼标定,进而得到双目相机坐标系到机器人基座坐标系的转换矩阵,将双目相机获取的单视角点云转换至统一坐标系下,完成多视角点云粗配准
2.1)、将双目相机安装于机器人末端法兰的固定器械上,控制机器人运动至拍摄视角,在该拍摄视角利用双目相机拍摄获得标定板图片,同时记录机器人位姿信息;
2.2)、重复步骤2.1)得到m组标定板图片和相对应的机器人姿态信息;
2.3)、根据张氏标定法获得每组标定板图片中标定板相对于相机的旋转向量 Rci和平移向量Tci,并转换成旋转平移矩阵,即得到相机外参矩阵Hci,i=1,2,...,m;根据机器人位姿信息计算相对于基座的旋转向量Rgi和平移向量Tgi,得到机器人位姿矩阵Hgi,i=1,2,...,m,其中:
2.4)、由于任意两次变换拍摄位姿i,j之间,机器人基座到标定板之间的相对位姿关系即基座标定板关系矩阵HBW固定不变,并且相机与机器人末端法兰之间的相对位姿关系,即手眼关系矩阵Hcg固定不变,有如下转换关系:
HBW=HgiHcgHci
HBW=HgjHcgHcj
通过相机外参矩阵Hci,i=1,2,...,n和机器人姿态矩阵Hgi,i=1,2,...,m,结合机器人基座坐标系和标定板坐标系之间的固定关系,建立手眼标定方程:
AX=XB;
其中,A=Hgj -1Hgi,B=HcjHci -1,X=Hcg。
并采用手眼标定函数求解该方程,求得相机坐标系相对于机器人末端法兰坐标系的旋转平移矩阵即手眼关系矩阵Hcg;
2.5.1)、用探针装置固定于机器人末端法兰上,通过五点法和示教器建立工具坐标,得到探针末端相对于机器人末端法兰坐标系的位置坐标ΔP0,机器人带动探针移动至标定板左上角的第一个方格的四个角点正上方处,从示教器上记录此时机器人末端法兰相对于基座坐标系的坐标,不断带动探针移动到标定板的方格的四个角点正上方处,得到角点正上方处机器人末端法兰相对于基座坐标系的坐标并且推算出标定板所有角点的真实坐标:
2.5.2)、在一确定的机器人位姿下拍摄并重建标定板三维点云,重建得到标定板三维点云,依次点击并获取所述标定板左上角的第一个方格的四个角点相对于双目相机坐标系的点云坐标,根据推算可以获得同所述角点真实坐标相对应的所有标定板角点的点云坐标P1 l:
其中,T′cg=[x′,y′,z′]T为待修正的平移向量,Rcg为计算出的手眼关系矩阵Hcg的旋转矩阵;
由此将双目相机获取的单视角测量点云数据转换至机器人基座统一坐标系下,实现点云的粗配准:
(3)、通过ICP算法(迭代最近点算法)对测量点云进行精配准,实现三维形貌测量
3.1)、将相邻位姿下的两个经过粗配准的单视角点云Phomo_point_cloud作为ICP源点云和ICP目标点云;
3.2)、对两个单视角点云进行ICP点云配准,搜索最近对应点,经过迭代计算,求得使上述对应点对平均距离最小的刚体变换矩阵,当点云距离小于设定的阈值或者达到设定的迭代次数,则输出源点云和目标点云之间的刚体变换矩阵,并由该矩阵实现目标点云到源点云的转换,得到配准后点云;
3.3)、将上述配准后点云作为ICP源点云,其相邻位姿下的单视角点云作为目标ICP点云,再重复以上步骤,直到对所有点云完成精配准,得到重建后的测量对象三维形貌点云数据。
本发明的发明目的是这样实现的:
本发明基于机器人的复杂结构件三维形貌测量方法,首先通过移动机器人带动双目相机在多个视角位姿下完成测量对象的左右相机图像采集,重建单视角点云数据,并记录机器人位姿信息;然后对机器人末端法兰坐标系到双目相机坐标系的转换关系进行手眼标定,进而得到双目相机坐标系到机器人基座坐标系的转换矩阵,将双目相机获取的单视角测量点云转换至统一坐标系下,完成多视角点云粗配准;最后通过ICP算法对测量点云进行精配准,实现三维形貌测量。整个过程不需在被测物体表面贴标志点,简化了点云配准过程;同时修正了手眼关系精度,可以保证多视角点云数据的粗配准精度,很大程度上提高了多视角三维形貌测量的效率。
本发明的相关优点和创新性是:
(1)、本发明使用高分辨率双目相机,实现了高精度点云的重建;
(2)、本发明使用了机器人进行三维测量任务,能更大程度的重建测量对象的三维全貌;
(3)、本发明点云的粗配准中采用了无接触的配准方法,同时修正手眼标定的方法,保留更多测量物体的真实信息的同时实现了快速拼接。
附图说明
图1是本发明基于机器人的复杂结构件三维形貌测量方法一种具体实施方式的流程图;
图2是本发明实施例中的测量方式及手眼关系的示意图;
图3是本发明的计算并修正手眼标定矩阵流程图。
具体实施方式
下面结合附图对本发明的具体实施方式进行描述,以便本领域的技术人员更好地理解本发明。需要特别提醒注意的是,在以下的描述中,当已知功能和设计的详细描述也许会淡化本发明的主要内容时,这些描述在这里将被忽略。
图1是本发明基于机器人的复杂结构件三维形貌测量方法一种具体实施方式的流程图。
在本实施例中,如图1所示,本发明基于机器人的复杂结构件三维形貌测量方法包括以下步骤:
1.重建单视角测量点云数据:
通过机器人带动双目相机在多个视角位姿下完成测量对象的左右相机图像采集,重建单视角点云,并记录机器人位姿信息,具体包括以下步骤:
1.1.双目相机标定
将双目相机安装于机器人末端法兰的固定器械上,使得左右相机保持在同一水平位置,并且保留一定距离。
1.2.左右相机图像采集
调试双目相机,使其能清晰地拍摄到测量对象,并调试机器人,使其能承载双目相机进行三维测量任务,保证拍摄完测量对象的全貌,并使用张氏标定法进行相机标定,,对于第k,k=1,2,...,n个机器人位姿下的测量对象,由左右相机分别拍摄一副灰度图像。
1.3.图像处理
2.同一点云坐标系粗匹配
对机器人末端法兰坐标系到双目相机坐标系的转换关系进行手眼标定,进而得到双目相机坐标系到机器人基座坐标系的转换矩阵,将双目相机获取的单视角点云转换至统一坐标系下,完成多视角点云粗配准,具体为:
2.1.如图2所示,将双目相机安装于机器人末端法兰的固定器械上,控制机器人运动至拍摄视角,在该拍摄视角利用双目相机拍摄获得标定板图片,同时记录机器人位姿信息。
2.2.重复步骤2.1)得到m组标定板图片和相对应的机器人姿态信息。
2.3.根据张氏标定法获得每组标定板图片中标定板相对于相机的旋转向量 Rci和平移向量Tci,并转换成旋转平移矩阵,即得到相机外参矩阵Hci,i=1,2,...,m;根据机器人位姿信息计算相对于基座的旋转向量Rgi和平移向量Tgi,得到机器人位姿矩阵Hgi,i=1,2,...,m,其中:
2.4.由于任意两次变换拍摄位姿i,j之间,机器人基座到标定板之间的相对位姿关系即基座标定板关系矩阵HBW固定不变,并且相机与机器人末端法兰之间的相对位姿关系,即手眼关系矩阵Hcg固定不变,有如下转换关系:
HBW=HgiHcgHci。
HBW=HgjHcgHcj
通过相机外参矩阵Hci,i=1,2,...,n和机器人姿态矩阵Hgi,i=1,2,...,m,结合机器人基座坐标系和标定板坐标系之间的固定关系,建立手眼标定方程:
AX=XB;
其中,A=Hgj -1Hgi,B=HcjHci -1,X=Hcg。
并采用手眼标定函数求解该方程,求得相机坐标系相对于机器人末端法兰坐标系的旋转平移矩阵即手眼关系矩阵Hcg。
2.5.1.用探针装置固定于机器人末端法兰上,通过五点法和示教器建立工具坐标,得到探针末端相对于机器人末端法兰坐标系的位置坐标ΔP0,机器人带动探针移动至标定板左上角的第一个方格的四个角点正上方处,从示教器上记录此时机器人末端法兰相对于基座坐标系的坐标,不断带动探针移动到标定板的方格的四个角点正上方处,得到角点正上方处机器人末端法兰相对于基座坐标系的坐标并且推算出标定板所有角点的真实坐标:
2.5.2.在一确定的机器人位姿下拍摄并重建标定板三维点云,重建得到标定板三维点云,依次点击并获取所述标定板左上角的第一个方格的四个角点相对于双目相机坐标系的点云坐标,根据推算可以获得同所述角点真实坐标相对应的所有标定板角点的点云坐标P1 l:
其中,T′cg=[x′,y′,z′]T为待修正的平移向量,Rcg为计算出的手眼关系矩阵Hcg的旋转矩阵。
由此将双目相机获取的单视角测量点云数据转换至机器人基座统一坐标系下,实现点云的粗配准:
3.通过ICP算法对测量点云进行精配准,实现三维形貌测量
3.1.将相邻位姿下的两个经过粗配准的单视角点云Phomo_point_cloud作为ICP源点云和ICP目标点云;
3.2.对两个单视角点云进行ICP点云配准,搜索最近对应点,经过迭代计算,求得使上述对应点对平均距离最小的刚体变换矩阵,当点云距离小于设定的阈值或者达到设定的迭代次数,则输出源点云和目标点云之间的刚体变换矩阵,并由该矩阵实现目标点云到源点云的转换,得到配准后点云;
3.3.将上述配准后点云作为ICP源点云,其相邻位姿下的单视角点云作为目标ICP点云,再重复以上步骤,直到对所有点云完成精配准,得到重建后的测量对象三维形貌点云数据。
精配准为先现有技术,在此不再赘述。
尽管上面对本发明说明性的具体实施方式进行了描述,以便于本技术邻域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术邻域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
Claims (1)
1.一种基于机器人的复杂结构件三维形貌测量方法,其特征在于,包括:
(1)、通过机器人带动双目相机在多个视角位姿下完成测量对象的左右相机图像采集,重建单视角点云,并记录机器人位姿信息
1.1)、将双目相机安装于机器人末端法兰的固定器械上,使得左右相机保持在同一水平位置,并且保留一定距离;
1.2)、调试双目相机,使其能清晰地拍摄到测量对象,并调试机器人,使其能承载双目相机进行三维测量任务,保证拍摄完测量对象的全貌,并使用张氏标定法进行相机标定,对于第k,k=1,2,...,n个机器人位姿下的测量对象,由左右相机分别拍摄一副灰度图像;
(2)、对机器人末端法兰坐标系到双目相机坐标系的转换关系进行手眼标定,进而得到双目相机坐标系到机器人基座坐标系的转换矩阵,将双目相机获取的单视角点云转换至统一坐标系下,完成多视角点云粗配准
2.1)、将双目相机安装于机器人末端法兰的固定器械上,控制机器人运动至拍摄视角,在该拍摄视角利用双目相机拍摄获得标定板图片,同时记录机器人位姿信息;
2.2)、重复步骤2.1)得到m组标定板图片和相对应的机器人姿态信息;
2.3)、根据张氏标定法获得每组标定板图片中标定板相对于相机的旋转向量Rci和平移向量Tci,并转换成旋转平移矩阵,即得到相机外参矩阵Hci,i=1,2,...,m;根据机器人位姿信息计算相对于基座的旋转向量Rgi和平移向量Tgi,得到机器人位姿矩阵Hgi,i=1,2,...,m,其中:
2.4)、由于任意两次变换拍摄位姿i,j之间,机器人基座到标定板之间的相对位姿关系即基座标定板关系矩阵HBW固定不变,并且相机与机器人末端法兰之间的相对位姿关系,即手眼关系矩阵Hcg固定不变,有如下转换关系:
HBW=HgiHcgHci
HBW=HgjHcgHcj
通过相机外参矩阵Hci,i=1,2,…,n和机器人姿态矩阵Hgi,i=1,2,...,m,结合机器人基座坐标系和标定板坐标系之间的固定关系,建立手眼标定方程:
AX=XB;
其中,A=Hgj -1Hgi,B=HcjHci -1,X=Hcg。
并采用手眼标定函数求解该方程,求得相机坐标系相对于机器人末端法兰坐标系的旋转平移矩阵即手眼关系矩阵Hcg;
2.5.1)、用探针装置固定于机器人末端法兰上,通过五点法和示教器建立工具坐标,得到探针末端相对于机器人末端法兰坐标系的位置坐标ΔP0,机器人带动探针移动至标定板左上角的第一个方格的四个角点正上方处,从示教器上记录此时机器人末端法兰相对于基座坐标系的坐标,不断带动探针移动到标定板的方格的四个角点正上方处,得到角点正上方处机器人末端法兰相对于基座坐标系的坐标并且推算出标定板所有角点的真实坐标:
2.5.2)、在一确定的机器人位姿下拍摄并重建标定板三维点云,重建得到标定板三维点云,依次点击并获取所述标定板左上角的第一个方格的四个角点相对于双目相机坐标系的点云坐标,根据推算可以获得同所述角点真实坐标相对应的所有标定板角点的点云坐标
由此将双目相机获取的单视角测量点云数据转换至机器人基座统一坐标系下,实现点云的粗配准:
(3)、通过ICP算法(迭代最近点算法)对测量点云进行精配准,实现三维形貌测量
3.1)、将相邻位姿下的两个经过粗配准的单视角点云Phomo_point_cloud作为ICP源点云和ICP目标点云;
3.2)、对两个单视角点云进行ICP点云配准,搜索最近对应点,经过迭代计算,求得使上述对应点对平均距离最小的刚体变换矩阵,当点云距离小于设定的阈值或者达到设定的迭代次数,则输出源点云和目标点云之间的刚体变换矩阵,并由该矩阵实现目标点云到源点云的转换,得到配准后点云;
3.3)、将上述配准后点云作为ICP源点云,其相邻位姿下的单视角点云作为目标ICP点云,再重复以上步骤,直到对所有点云完成精配准,得到重建后的测量对象三维形貌点云数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211324699.8A CN115546289A (zh) | 2022-10-27 | 2022-10-27 | 一种基于机器人的复杂结构件三维形貌测量方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211324699.8A CN115546289A (zh) | 2022-10-27 | 2022-10-27 | 一种基于机器人的复杂结构件三维形貌测量方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115546289A true CN115546289A (zh) | 2022-12-30 |
Family
ID=84717797
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211324699.8A Pending CN115546289A (zh) | 2022-10-27 | 2022-10-27 | 一种基于机器人的复杂结构件三维形貌测量方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115546289A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116310099A (zh) * | 2023-03-01 | 2023-06-23 | 南京工业大学 | 基于多视角图像的钢桥构件三维重建方法 |
CN116883471A (zh) * | 2023-08-04 | 2023-10-13 | 天津大学 | 面向胸腹部经皮穿刺的线结构光无接触点云配准方法 |
CN117197246A (zh) * | 2023-11-07 | 2023-12-08 | 江苏云幕智造科技有限公司 | 一种基于三维点云与双目视觉的人形机器人位置确认方法 |
CN117948885A (zh) * | 2024-03-27 | 2024-04-30 | 中科慧远人工智能(烟台)有限公司 | 基于生产线的位姿测量方法、装置和系统 |
-
2022
- 2022-10-27 CN CN202211324699.8A patent/CN115546289A/zh active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116310099A (zh) * | 2023-03-01 | 2023-06-23 | 南京工业大学 | 基于多视角图像的钢桥构件三维重建方法 |
CN116883471A (zh) * | 2023-08-04 | 2023-10-13 | 天津大学 | 面向胸腹部经皮穿刺的线结构光无接触点云配准方法 |
CN116883471B (zh) * | 2023-08-04 | 2024-03-15 | 天津大学 | 面向胸腹部经皮穿刺的线结构光无接触点云配准方法 |
CN117197246A (zh) * | 2023-11-07 | 2023-12-08 | 江苏云幕智造科技有限公司 | 一种基于三维点云与双目视觉的人形机器人位置确认方法 |
CN117197246B (zh) * | 2023-11-07 | 2024-01-26 | 江苏云幕智造科技有限公司 | 一种基于三维点云与双目视觉的人形机器人位置确认方法 |
CN117948885A (zh) * | 2024-03-27 | 2024-04-30 | 中科慧远人工智能(烟台)有限公司 | 基于生产线的位姿测量方法、装置和系统 |
CN117948885B (zh) * | 2024-03-27 | 2024-06-11 | 中科慧远人工智能(烟台)有限公司 | 基于生产线的位姿测量方法、装置和系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111156925B (zh) | 基于线结构光和工业机器人的大构件三维测量方法 | |
CN115546289A (zh) | 一种基于机器人的复杂结构件三维形貌测量方法 | |
CN105716542B (zh) | 一种基于柔性特征点的三维数据拼接方法 | |
CN103759670B (zh) | 一种基于数字近景摄影的物体三维信息获取方法 | |
CN100430690C (zh) | 利用单数码相机自由拍摄进行物体三维测量的方法 | |
CN109323650B (zh) | 测量系统中视觉图像传感器与光点测距传感器测量坐标系的统一方法 | |
CN110866969B (zh) | 基于神经网络与点云配准的发动机叶片重构方法 | |
CN109297436B (zh) | 双目线激光立体测量基准标定方法 | |
CN108489398B (zh) | 一种广角场景下激光加单目视觉测量三维坐标的方法 | |
CN110136204B (zh) | 基于双侧远心镜头相机机床位置标定的音膜球顶装配系统 | |
WO2018201677A1 (zh) | 基于光束平差的远心镜头三维成像系统的标定方法及装置 | |
CN111028280B (zh) | 井字结构光相机系统及进行目标有尺度三维重建的方法 | |
CN109919911A (zh) | 基于多视角光度立体的移动三维重建方法 | |
JP2011027623A (ja) | 位置姿勢計測方法及び装置 | |
CN104697463B (zh) | 一种双目视觉传感器的消隐特征约束标定方法及装置 | |
CN109115184A (zh) | 基于非合作目标协同测量方法及系统 | |
CN116309879A (zh) | 一种机器人辅助的多视角三维扫描测量方法 | |
CN104167001B (zh) | 基于正交补偿的大视场摄像机标定方法 | |
CN113870366B (zh) | 基于位姿传感器的三维扫描系统的标定方法及其标定系统 | |
CN111524174A (zh) | 一种动平台动目标双目视觉三维构建方法 | |
CN117893610B (zh) | 基于变焦单目视觉的航空装配机器人姿态测量系统 | |
CN116740187A (zh) | 一种无重叠视场多相机联合标定方法 | |
CN109360267B (zh) | 一种薄物体快速三维重建方法 | |
CN112700505B (zh) | 一种基于双目三维跟踪的手眼标定方法、设备及存储介质 | |
CN112525106B (zh) | 基于三相机协同激光的3d探测方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |