CN114372916B - 一种自动化点云拼接方法 - Google Patents
一种自动化点云拼接方法 Download PDFInfo
- Publication number
- CN114372916B CN114372916B CN202111656957.8A CN202111656957A CN114372916B CN 114372916 B CN114372916 B CN 114372916B CN 202111656957 A CN202111656957 A CN 202111656957A CN 114372916 B CN114372916 B CN 114372916B
- Authority
- CN
- China
- Prior art keywords
- point
- coordinate system
- camera
- coordinate
- global
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000005259 measurement Methods 0.000 claims abstract description 30
- 230000009466 transformation Effects 0.000 claims abstract description 22
- 239000011159 matrix material Substances 0.000 claims description 28
- 238000006243 chemical reaction Methods 0.000 claims description 25
- 238000000354 decomposition reaction Methods 0.000 claims description 4
- 238000005457 optimization Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 4
- 239000003550 marker Substances 0.000 abstract 1
- 238000005516 engineering process Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003908 quality control method Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/005—Tree description, e.g. octree, quadtree
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/344—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明公开了一种自动化点云拼接方法,在被测物表面及其周围均匀固定多个标志点;将标志点的全局坐标存储;机器人带动三维视觉传感器移动到拍摄位置,采集被测物表面图像,查找各个标志点图像坐标记为实测坐标点集;将标志点全局坐标反投影到像素坐标系,得到投影坐标点集;对于实测坐标点集中的任一点,在投影坐标点集内搜索与其距离最近的投影点,标记同名点对;利用各个同名点对,解算相机坐标系与全局坐标系的变换关系;获取到各个拍摄位置处,相机坐标系与全局坐标系的变换关系,将不同拍摄位置处获取的点云转换到全局坐标系,实现快速准确的点云拼接。
Description
技术领域
本发明涉及点云拼接领域,具体涉及一种自动化点云拼接方法。
背景技术
随着制造技术快速发展,工业产品外型结构越来越复杂,其形貌尺寸、现场装配及质量控制精度要求日益提高,现有测量手段及测量设备无法满足要求。非接触、高精度、高效率的自动化测量技术成为汽车、航空、航天、轨道交通、船舶等领域的迫切需求。自动化蓝光扫描系统将蓝光扫描测量技术与工业机器人结合,兼顾了机器人自动化、高灵活性的特点与光学测量的效率优势,通过机器人轨迹编程实现高效率自动化测量,是解决工业大型零部件三维测量的理想手段。自动化蓝光系统由工业机器人和蓝光传感器构成。自动化测量过程中,机器人按照预先设定的轨迹运动,每运动到一个位置,控制安装在其末端的蓝光传感器完成当前位置的点云扫描,最终将全部位置采集到的点云拼接,实现大型零部件三维测量。
点云拼接是大型零部件三维测量的最重要环节,其精度、效率、自动化程度是影响自动化蓝光扫描系统综合性能的最重要因素。点云拼接的目的是将多次扫描的点云精确地统一到同一坐标系。对于大型零部件测量,目前最常用的点云拼接方法是精度控制场拼接,此方法的优点是:拼接精度由精度控制场保证,多视场点云拼接不存在累计误差。其通过在被测物表面布设标志点,在机器人执行自动化测量之前利用其他高精度测量系统(如摄影测量系统、激光跟踪仪等)预先精确测量标志点的三维坐标,全部标志点构成了精度控制场并建立全局坐标系。在扫描点云时同时测量出传感器视场内标志点的三维坐标,利用标志点的在当前视场与精度控制场的刚体不变性,直接计算出当前视场所在坐标系与全局坐标系的旋转和平移关系,实现点云拼接。
上述点云拼接过程的前提是:需要从全部标志点中搜索到被传感器视场中拍摄到的局部标志点,即建立传感器视场拍摄到的标志点与控制场中标志点(两者称为同名点)之间的一一对应关系。现有主流方法采用编码点或普通圆形标记点实现点云拼接;编码点通过特定的编码方式,确定同名关系,但当被测物较大、测量场地较大时,需要的编码点过多时,成本高且编码点的码值容量有限,不能完全覆盖被测场地,且编码点面积大导致物体表面被遮挡进而造成点云缺失。用普通圆形标记点的主要问题是,当被测物尺寸较大、测量场地较大时,难以精准建立正确的一一对应关系,极易出现拼接失败(点云缺失)或拼接错误(点云空间位置错乱)等问题,无法保证拼接效率和准确性。
发明内容
针对上述问题,本发明提出一种自动化点云拼接方法,通过构建传感器拍摄到的标志点与全局坐标系中标志点的一一对应关系,快速获得同名点对,解算出各个拍照位姿下相机坐标系与全局坐标系之间的转换矩阵,进而实现利用普通标记点进行高效准确的点云拼接。
技术方案如下:
一种自动化点云拼接方法,在被测物表面及其周围区域均匀固定多个标志点;记录所有标志点的全局坐标,存储为全局三维点集;
三维视觉传感器固定在机器人末端,用于采集被测物表面三维信息;
所述拼接方法,包括:
步骤一、机器人带动三维视觉传感器移动到拍摄位置,采集被测物表面图像,所述图像中至少包含三个标志点;
步骤二、通过以下步骤,解算当前拍摄位置处相机坐标系与全局坐标系的变换关系:
1)在当前拍摄位置处采集的图像中查找各个标志点,将各点图像坐标记为实测坐标点集;
将全局三维点集中的各个标志点坐标分别反投影到传感器中相机的像素坐标系,得到各个二维投影坐标,记为投影坐标点集;
2)对于实测坐标点集中的任一点A,在投影坐标点集内搜索与其距离最近的投影点B,将点A在相机坐标系中的三维坐标以及点B对应的全局坐标记为一组同名点对;
遍历实测坐标点集中的各点,获取每个点对应的同名点对;
3)利用各个同名点对,解算相机坐标系与全局坐标系的变换关系;
步骤三、机器人带动三维视觉传感器移动到其他拍摄位置,相机采集被测物表面图像,重复步骤二;
直到获取到各个拍摄位置处,相机坐标系与全局坐标系的变换关系,将三维视觉传感器在不同拍摄位置处获取的点云分别转换到全局坐标系,完成点云拼接。
进一步,步骤1)中二维投影坐标Q(u,v)通过以下公式求取:
Q(u,v)=K·M·TN·W·P
其中,K表示相机内参矩阵,M表示机器人末端坐标系与相机坐标系之间的转换关系矩阵,其通过手眼标定求取,TN表示表示机器人末端坐标系与机器人基坐标系之间的转换关系矩阵,其通过机器人运动学模型求取,W表示机器人基坐标系与全局坐标系之间的转换关系矩阵,P表示单个标志点的全局坐标,其通过摄影测量系统或激光跟踪仪获得。
进一步,所述三维视觉传感器为单目三维扫描视觉传感器、多目三维扫描视觉传感器或双目视觉传感器。
进一步,当三维视觉传感器中的相机有两个或多个时,标记其中一部相机为主相机,其他相机为辅相机,分别标定辅相机与主相机之间的转换关系;在各个拍摄位置处,主相机和辅相机的公共视场内至少包含三个标志点。
对应的,在步骤二中,解算当前拍摄位置处,主相机坐标系与全局坐标系的变换关系:
1)在当前拍摄位置处,在主相机采集的图像以及辅相机采集的图像中分别查找各个标志点,将各点图像坐标对应记为主相机实测坐标点集、辅相机实测坐标点集;
将全局三维点集中的各个标志点坐标分别反投影到主相机的像素坐标系、辅相机像素坐标系,得到各个二维投影坐标,对应记为主相机投影坐标点集、辅相机投影坐标点集;
2)对于主相机实测坐标点集中的任一点A,在投影坐标点集内搜索与其距离最近的投影点B,将点A在主相机坐标系中的三维坐标以及点B对应的全局坐标记为一组主相机同名点对;遍历主相机实测坐标点集中的各点,获取每个点对应的主相机同名点对;
对辅相机实测坐标点集的各点进行同样的处理,获取每个点对应的辅相机同名点对;
对照主相机同名点对和辅相机同名点对,将两相机公共视场内的同名点对保留,剔除其他同名点对;
3)利用各个同名点对,解算主相机坐标系与全局坐标系的变换关系;
其中,点A在主相机坐标系中的三维坐标利用主相机与辅相机三维重建获得。
进一步,步骤1)中,主相机对应的二维投影坐标QL(uL,vL)、辅相机对应的二维投影坐标QR(uR,vR)通过以下公式求取:
QL(uL,vL)=KL·M·TN·W·P
QR(uR,vR)=KR·C·M·TN·W·P
其中,KL、KR表示主相机、辅相机的内参矩阵,C表示辅相机与主相机之间的转换矩阵,M表示机器人末端坐标系与主相机坐标系之间的转换关系矩阵,其通过手眼标定求取,TN表示表示机器人末端坐标系与机器人基坐标系之间的转换关系矩阵,其通过机器人运动学模型求取,W表示机器人基坐标系与全局坐标系之间的转换关系矩阵,P表示单个标志点的全局坐标,其通过摄影测量系统或激光跟踪仪获得。
为了便于查找各个标志点,为每个标志点匹配不同的ID号,在记录所有标志点的全局坐标时,将ID号与全局坐标一一对应存储。
进一步,步骤2)中,利用Kd树方法或四叉树方法搜索同名点对。
进一步,步骤3)利用SVD分解法或者最优化方法,解算相机坐标系与全局坐标系的变换关系。
进一步,所述标志点为圆形反光点,标志点坐标为圆心坐标。
本发明方法只需在被测物及其周围粘贴圆形反光点(普通标志点),通过反光点快速构建传感器拍摄到的标志点与全局坐标系中标志点的一一对应关系,获得同名点对,实现点云拼接,具有速度快、可靠性强、成本低的特点;解决了因同名点误匹配,造成的点云拼接失败(点云缺失)以及点云拼接错误(点云空间位置错乱)问题,保证了点云拼接效率和准确性。
附图说明
图1为实施例2中机器人、三维视觉传感器以及被测物位置关系示意图;
图2为实施例1中单个拍照位置处相机采集的图像。
具体实施方式
以下结合附图和具体实施方式对本发明的技术方案进行详细描述。
实施例1
本实施例中,三维视觉传感器为单目三维扫描视觉传感器;
一种自动化点云拼接方法,在被测物表面及其周围区域均匀固定多个标志点;记录所有标志点的全局坐标,存储为全局三维点集;
三维视觉传感器固定在机器人末端,用于采集被测物表面三维信息;
拼接方法,包括:
步骤一、机器人带动三维视觉传感器移动到拍摄位置,采集被测物表面图像,如图2所示,图像中至少包含三个标志点;
步骤二、通过以下步骤,解算当前拍摄位置处相机坐标系与全局坐标系的变换关系:
1)在当前拍摄位置处采集的图像中查找各个标志点,将各点图像坐标记为实测坐标点集;
将全局三维点集中的各个标志点坐标分别反投影到传感器中相机的像素坐标系,得到各个二维投影坐标,记为投影坐标点集;
其中,二维投影坐标Q(u,v)通过以下公式求取:
Q(u,v)=K·M·TN·W·P
其中,K表示相机内参矩阵,M表示机器人末端坐标系与相机坐标系之间的转换关系矩阵,其通过手眼标定求取,TN表示表示机器人末端坐标系与机器人基坐标系之间的转换关系矩阵,其通过机器人运动学模型求取,W表示机器人基坐标系与全局坐标系之间的转换关系矩阵,P表示单个标志点的全局坐标,其通过摄影测量系统或激光跟踪仪获得。
2)对于实测坐标点集中的任一点A,在投影坐标点集内搜索与其距离最近的投影点B,将点A在相机坐标系中的三维坐标以及点B对应的全局坐标记为一组同名点对;
遍历实测坐标点集中的各点,获取每个点对应的同名点对;
3)利用各个同名点对,解算相机坐标系与全局坐标系的变换关系;
步骤三、机器人带动三维视觉传感器移动到其他拍摄位置,相机采集被测物表面图像,重复步骤二;
直到获取到各个拍摄位置处,相机坐标系与全局坐标系的变换关系,将三维视觉传感器在不同拍摄位置处获取的点云分别转换到全局坐标系,完成点云拼接。
具体的,为了便于查找各个标志点,具体实施时,为每个标志点匹配不同的ID号,在记录所有标志点的全局坐标时,将ID号与全局坐标一一对应存储。步骤2)中,利用Kd树方法或四叉树方法搜索同名点对。步骤3)利用SVD分解法或者最优化方法,解算相机坐标系与全局坐标系的变换关系。
实施例2
本实施例中,三维视觉传感器为多目三维扫描视觉传感器或双目视觉传感器。当三维视觉传感器中的相机有2个时,标记其中一部相机为主相机,另一相机为辅相机;
当三维视觉传感器中的相机有多个时,标记其中一部相机为主相机,其他相机为辅相机,将主相机分别与单个辅相机组合,并对每组主相机、辅相机进行处理;
一种自动化点云拼接方法,在被测物表面及其周围区域粘贴圆形反光点,
记录所有标志点的全局坐标,存储为全局三维点集;分别标定辅相机与主相机之间的转换关系;
为了便于查找各个标志点,具体实施时,为每个标志点匹配不同的ID号,在记录所有标志点的全局坐标时,将ID号与全局坐标一一对应存储。
三维视觉传感器固定在机器人末端,用于采集被测物表面三维信息;
拼接方法,包括:
步骤一、机器人带动三维视觉传感器移动到拍摄位置,采集被测物表面图像,主相机和辅相机的公共视场内至少包含三个标志点;
步骤二、通过以下步骤,解算当前拍摄位置处,主相机坐标系与全局坐标系的变换关系:
1)在当前拍摄位置处,在主相机采集的图像以及辅相机采集的图像中分别查找各个标志点,将各点图像坐标对应记为主相机实测坐标点集、辅相机实测坐标点集;其中标志点坐标为圆心坐标;
将全局三维点集中的各个标志点坐标分别反投影到主相机的像素坐标系、辅相机像素坐标系,得到各个二维投影坐标,对应记为主相机投影坐标点集、辅相机投影坐标点集;
具体而言,主相机对应的二维投影坐标QL(uL,vL)、辅相机对应的二维投影坐标QR(uR,vR)分别通过以下公式求取:
QL(uL,vL)=KL·M·TN·W·P
QR(uR,vR)=KR·C·M·TN·W·P
其中,KL、KR表示主相机、辅相机的内参矩阵,C表示辅相机与主相机之间的转换矩阵,M表示机器人末端坐标系与主相机坐标系之间的转换关系矩阵,其通过手眼标定求取,TN表示表示机器人末端坐标系与机器人基坐标系之间的转换关系矩阵,其通过机器人运动学模型求取,W表示机器人基坐标系与全局坐标系之间的转换关系矩阵,P表示单个标志点的全局坐标,其通过摄影测量系统或激光跟踪仪获得。
2)对于主相机实测坐标点集中的任一点A,在投影坐标点集内搜索与其距离最近的投影点B,将点A在主相机坐标系中的三维坐标以及点B对应的全局坐标记为一组主相机同名点对;遍历主相机实测坐标点集中的各点,获取每个点对应的主相机同名点对;
对辅相机实测坐标点集的各点进行同样的处理,获取每个点对应的辅相机同名点对;
对照主相机同名点对和辅相机同名点对,将两相机公共视场内的同名点对保留,剔除其他同名点对;为了节省对照时间,利用每个同名点对中全局坐标的ID号,查找两相机公共视场内的同名点对:将主相机同名点对和辅相机同名点对中具有相同ID号的同名点对记为公共视场内的同名点对;
3)利用各个同名点对,解算主相机坐标系与全局坐标系的变换关系;
其中,点A在主相机坐标系中的三维坐标利用主相机与辅相机三维重建获得。
步骤三、机器人带动三维视觉传感器移动到其他拍摄位置,相机采集被测物表面图像,重复步骤二;
直到获取到各个拍摄位置处,相机坐标系与全局坐标系的变换关系,将三维视觉传感器在不同拍摄位置处获取的点云分别转换到全局坐标系,完成点云拼接。
具体的,步骤2)中,利用Kd树方法或四叉树方法搜索同名点对。步骤3)利用SVD分解法或者最优化方法,解算相机坐标系与全局坐标系的变换关系。
前面对本发明具体示例性实施方案所呈现的描述是出于说明和描述的目的。前面的描述并不想要成为毫无遗漏的,也不是想要把本发明限制为所公开的精确形式,显然,根据上述教导很多改变和变化都是可能的。选择示例性实施方案并进行描述是为了解释本发明的特定原理及其实际应用,从而使得本领域的其它技术人员能够实现并利用本发明的各种示例性实施方案及其不同选择形式和修改形式。本发明的范围旨在由所附权利要求书及其等价形式所限定。
Claims (10)
1.一种自动化点云拼接方法,在被测物表面及其周围区域均匀固定多个标志点;记录所有标志点的全局坐标,存储为全局三维点集;
三维视觉传感器固定在机器人末端,用于采集被测物表面三维信息;
其特征在于,所述拼接方法,包括:
步骤一、机器人带动三维视觉传感器移动到拍摄位置,采集被测物表面图像,所述图像中至少包含三个标志点;
步骤二、通过以下步骤,解算当前拍摄位置处相机坐标系与全局坐标系的变换关系:
1)在当前拍摄位置处采集的图像中查找各个标志点,将各点图像坐标记为实测坐标点集;
将全局三维点集中的各个标志点坐标分别反投影到传感器中相机的像素坐标系,得到各个二维投影坐标,记为投影坐标点集;
2)对于实测坐标点集中的任一点A,在投影坐标点集内搜索与其距离最近的投影点B,将点A在相机坐标系中的三维坐标以及点B对应的全局坐标记为一组同名点对;
遍历实测坐标点集中的各点,获取每个点对应的同名点对;
3)利用各个同名点对,解算相机坐标系与全局坐标系的变换关系;
步骤三、机器人带动三维视觉传感器移动到其他拍摄位置,相机采集被测物表面图像,重复步骤二;
直到获取到各个拍摄位置处,相机坐标系与全局坐标系的变换关系,将三维视觉传感器在不同拍摄位置处获取的点云分别转换到全局坐标系,完成点云拼接。
2.如权利要求1所述自动化点云拼接方法,其特征在于:步骤1)中二维投影坐标Q(u,v)通过以下公式求取:
Q(u,v)=K·M·TN·W·P
其中,K表示相机内参矩阵,M表示机器人末端坐标系与相机坐标系之间的转换关系矩阵,其通过手眼标定求取,TN表示机器人末端坐标系与机器人基坐标系之间的转换关系矩阵,其通过机器人运动学模型求取,W表示机器人基坐标系与全局坐标系之间的转换关系矩阵,P表示单个标志点的全局坐标,其通过摄影测量系统或激光跟踪仪获得。
3.如权利要求1所述自动化点云拼接方法,其特征在于:所述三维视觉传感器为单目三维扫描视觉传感器、多目三维扫描视觉传感器或双目视觉传感器。
4.如权利要求1所述自动化点云拼接方法,其特征在于:当三维视觉传感器中的相机有两个或多个时,标记其中一部相机为主相机,其他相机为辅相机,分别标定辅相机与主相机之间的转换关系;在各个拍摄位置处,主相机和辅相机的公共视场内至少包含三个标志点。
5.如权利要求4所述自动化点云拼接方法,其特征在于:在步骤二中,解算当前拍摄位置处,主相机坐标系与全局坐标系的变换关系:
1)在当前拍摄位置处,在主相机采集的图像以及辅相机采集的图像中分别查找各个标志点,将各点图像坐标对应记为主相机实测坐标点集、辅相机实测坐标点集;
将全局三维点集中的各个标志点坐标分别反投影到主相机的像素坐标系、辅相机像素坐标系,得到各个二维投影坐标,对应记为主相机投影坐标点集、辅相机投影坐标点集;
2)对于主相机实测坐标点集中的任一点A,在投影坐标点集内搜索与其距离最近的投影点B,将点A在主相机坐标系中的三维坐标以及点B对应的全局坐标记为一组主相机同名点对;遍历主相机实测坐标点集中的各点,获取每个点对应的主相机同名点对;
对辅相机实测坐标点集的各点进行同样的处理,获取每个点对应的辅相机同名点对;
对照主相机同名点对和辅相机同名点对,将两相机公共视场内的同名点对保留,剔除其他同名点对;
3)利用各个同名点对,解算主相机坐标系与全局坐标系的变换关系;
其中,点A在主相机坐标系中的三维坐标利用主相机与辅相机三维重建获得。
6.如权利要求5所述自动化点云拼接方法,其特征在于:步骤1)中,主相机对应的二维投影坐标QL(uL,vL)、辅相机对应的二维投影坐标QR(uR,vR)通过以下公式求取:
QL(uL,vL)=KL·M·TN·W·P
QR(uR,vR)=KR·C·M·TN·W·P
其中,KL、KR表示主相机、辅相机的内参矩阵,C表示辅相机与主相机之间的转换矩阵,M表示机器人末端坐标系与主相机坐标系之间的转换关系矩阵,其通过手眼标定求取,TN表示表示机器人末端坐标系与机器人基坐标系之间的转换关系矩阵,其通过机器人运动学模型求取,W表示机器人基坐标系与全局坐标系之间的转换关系矩阵,P表示单个标志点的全局坐标,其通过摄影测量系统或激光跟踪仪获得。
7.如权利要求1或5所述自动化点云拼接方法,其特征在于:为每个标志点匹配不同的ID号,在记录所有标志点的全局坐标时,将ID号与全局坐标一一对应存储。
8.如权利要求1所述自动化点云拼接方法,其特征在于:步骤2)中,利用Kd树方法或四叉树方法搜索同名点对。
9.如权利要求1所述自动化点云拼接方法,其特征在于:步骤3)利用SVD分解法或者最优化方法,解算相机坐标系与全局坐标系的变换关系。
10.如权利要求1所述自动化点云拼接方法,其特征在于:所述标志点为圆形反光点,标志点坐标为圆心坐标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111656957.8A CN114372916B (zh) | 2021-12-31 | 2021-12-31 | 一种自动化点云拼接方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111656957.8A CN114372916B (zh) | 2021-12-31 | 2021-12-31 | 一种自动化点云拼接方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114372916A CN114372916A (zh) | 2022-04-19 |
CN114372916B true CN114372916B (zh) | 2024-05-31 |
Family
ID=81142824
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111656957.8A Active CN114372916B (zh) | 2021-12-31 | 2021-12-31 | 一种自动化点云拼接方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114372916B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115139283B (zh) * | 2022-07-18 | 2023-10-24 | 中船重工鹏力(南京)智能装备系统有限公司 | 基于随机标记点阵的机器人手眼标定方法 |
CN115830264A (zh) * | 2022-10-21 | 2023-03-21 | 广东工业大学 | 一种针对点云数据异常和缺失的多目互补方法 |
CN118379469A (zh) * | 2024-05-28 | 2024-07-23 | 先临三维科技股份有限公司 | 扫描方法、电子设备和计算机可读存储介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11101641A (ja) * | 1997-07-31 | 1999-04-13 | Asahi Optical Co Ltd | カメラおよびカメラのキャリブレーション方法 |
CN106228603A (zh) * | 2016-07-25 | 2016-12-14 | 武汉中观自动化科技有限公司 | 一种基于欧式距离统计拼接的三维模型重构系统及方法 |
CN110363707A (zh) * | 2019-06-28 | 2019-10-22 | 西安交通大学 | 一种基于约束物虚拟特征的多视三维点云拼接方法 |
CN110749290A (zh) * | 2019-10-30 | 2020-02-04 | 易思维(杭州)科技有限公司 | 基于三维投影的特征信息快速定位方法 |
CN112215958A (zh) * | 2020-10-10 | 2021-01-12 | 北京工商大学 | 一种基于分布式计算的激光雷达点云数据投影方法 |
CN112419314A (zh) * | 2020-12-10 | 2021-02-26 | 易思维(杭州)科技有限公司 | 一种基于相关性的特征点剔除方法 |
CN112484722A (zh) * | 2020-11-19 | 2021-03-12 | 易思维(杭州)科技有限公司 | 结合惯性导航系统的视觉传感器全局定位方法 |
CN113432550A (zh) * | 2021-06-22 | 2021-09-24 | 北京航空航天大学 | 一种基于相位匹配的大尺寸零件三维测量拼接方法 |
WO2021212844A1 (zh) * | 2020-04-21 | 2021-10-28 | 广东博智林机器人有限公司 | 点云拼接方法、装置、设备和存储设备 |
CN113592961A (zh) * | 2021-08-18 | 2021-11-02 | 易思维(杭州)科技有限公司 | 一种基于精度控制场和点云特征相似性的点云拼接方法 |
-
2021
- 2021-12-31 CN CN202111656957.8A patent/CN114372916B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11101641A (ja) * | 1997-07-31 | 1999-04-13 | Asahi Optical Co Ltd | カメラおよびカメラのキャリブレーション方法 |
CN106228603A (zh) * | 2016-07-25 | 2016-12-14 | 武汉中观自动化科技有限公司 | 一种基于欧式距离统计拼接的三维模型重构系统及方法 |
CN110363707A (zh) * | 2019-06-28 | 2019-10-22 | 西安交通大学 | 一种基于约束物虚拟特征的多视三维点云拼接方法 |
CN110749290A (zh) * | 2019-10-30 | 2020-02-04 | 易思维(杭州)科技有限公司 | 基于三维投影的特征信息快速定位方法 |
WO2021212844A1 (zh) * | 2020-04-21 | 2021-10-28 | 广东博智林机器人有限公司 | 点云拼接方法、装置、设备和存储设备 |
CN112215958A (zh) * | 2020-10-10 | 2021-01-12 | 北京工商大学 | 一种基于分布式计算的激光雷达点云数据投影方法 |
CN112484722A (zh) * | 2020-11-19 | 2021-03-12 | 易思维(杭州)科技有限公司 | 结合惯性导航系统的视觉传感器全局定位方法 |
CN112419314A (zh) * | 2020-12-10 | 2021-02-26 | 易思维(杭州)科技有限公司 | 一种基于相关性的特征点剔除方法 |
CN113432550A (zh) * | 2021-06-22 | 2021-09-24 | 北京航空航天大学 | 一种基于相位匹配的大尺寸零件三维测量拼接方法 |
CN113592961A (zh) * | 2021-08-18 | 2021-11-02 | 易思维(杭州)科技有限公司 | 一种基于精度控制场和点云特征相似性的点云拼接方法 |
Non-Patent Citations (3)
Title |
---|
一种基于视觉测量的大型自由曲面拼接方法;邓文怡;梁云波;吕乃光;娄小平;;北京信息科技大学学报(自然科学版);20100315(第01期);全文 * |
三维激光扫描仪在建筑立面测绘中的应用研究;孙博等;山西建筑;20190831;第45卷(第14期);第159-160页 * |
基于相位匹配的大视场视觉检测系统;赵慧洁;吉相;;北京航空航天大学学报;20060730(第06期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN114372916A (zh) | 2022-04-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114372916B (zh) | 一种自动化点云拼接方法 | |
CN109990701B (zh) | 一种大型复杂曲面三维形貌机器人移动测量系统及方法 | |
CN109373898B (zh) | 一种基于三维测量点云的复杂零件位姿估计系统及方法 | |
CN106097300B (zh) | 一种基于高精度运动平台的多相机标定方法 | |
CN106056587B (zh) | 全视角线激光扫描三维成像标定装置及方法 | |
CN111487642A (zh) | 基于三维激光和双目视觉的变电站巡检机器人定位导航系统及方法 | |
CN109000582A (zh) | 跟踪式三维扫描装置的扫描方法及系统、存储介质、设备 | |
CN106990776B (zh) | 机器人归航定位方法与系统 | |
CN102072725B (zh) | 一种基于激光点云和实景影像进行空间三维测量的方法 | |
CN109029257A (zh) | 基于立体视觉和结构光视觉的大型工件位姿测量系统、方法 | |
CN108717715A (zh) | 一种用于弧焊机器人的线结构光视觉系统自动标定方法 | |
CN113674345B (zh) | 一种二维像素级三维定位系统及定位方法 | |
Mi et al. | A vision-based displacement measurement system for foundation pit | |
CN113592721B (zh) | 摄影测量方法、装置、设备及存储介质 | |
CN110017852B (zh) | 一种导航定位误差测量方法 | |
CN104809754A (zh) | 一种基于三维实景模型的空间同步定位和信息记录系统 | |
CN109781068B (zh) | 面向空间应用的视觉测量系统地面模拟评估系统及方法 | |
CN113592961B (zh) | 一种基于精度控制场和点云特征相似性的点云拼接方法 | |
CN109920009B (zh) | 基于二维码标识的控制点检测与管理方法及装置 | |
CN101858741A (zh) | 一种基于单相机的变焦测距方法 | |
WO2022016873A1 (en) | Multi-line laser three-dimensional imaging method and system based on random lattice | |
CN112013830A (zh) | 一种输电线路无人机巡检影像检测缺陷的精确定位方法 | |
Nagy et al. | SFM and semantic information based online targetless camera-LIDAR self-calibration | |
CN116642433A (zh) | 一种基于视觉跟踪的三维点云拼合方法及三维测量系统 | |
CN114413790B (zh) | 固连摄影测量相机的大视场三维扫描装置及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Country or region after: China Address after: Room 495, building 3, 1197 Bin'an Road, Binjiang District, Hangzhou City, Zhejiang Province 310051 Applicant after: Yi Si Si (Hangzhou) Technology Co.,Ltd. Address before: Room 495, building 3, 1197 Bin'an Road, Binjiang District, Hangzhou City, Zhejiang Province 310051 Applicant before: ISVISION (HANGZHOU) TECHNOLOGY Co.,Ltd. Country or region before: China |
|
CB02 | Change of applicant information | ||
GR01 | Patent grant | ||
GR01 | Patent grant |