CN115222893A - 基于结构光测量的大尺寸构件三维重建拼接方法 - Google Patents

基于结构光测量的大尺寸构件三维重建拼接方法 Download PDF

Info

Publication number
CN115222893A
CN115222893A CN202210951334.1A CN202210951334A CN115222893A CN 115222893 A CN115222893 A CN 115222893A CN 202210951334 A CN202210951334 A CN 202210951334A CN 115222893 A CN115222893 A CN 115222893A
Authority
CN
China
Prior art keywords
point
cloud
source
target
blocks
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210951334.1A
Other languages
English (en)
Inventor
李文利
宁国山
夏爽
李晨溪
蔡恩泽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenyang Duwei Technology Development Co ltd
Original Assignee
Shenyang Duwei Technology Development Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenyang Duwei Technology Development Co ltd filed Critical Shenyang Duwei Technology Development Co ltd
Priority to CN202210951334.1A priority Critical patent/CN115222893A/zh
Publication of CN115222893A publication Critical patent/CN115222893A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/14Transformations for image registration, e.g. adjusting or mapping for alignment of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

一种基于结构光测量的大尺寸构件三维重建拼接方法,属于结构光自动化三维测量技术领域。本发明针对现有构件的结构光三维重建算法在两块点云配准时,过大的初始位姿偏差会造成算法的局部最优解而提前收敛,降低点云配准准确性的问题。包括:采用结构光传感器沿大型三维构件宽度方向按预设扫描宽度依次进行扫描,获得顺序标记的点云;进行预处理,获得预处理后点云块;依次以相邻前一张点云块为目标块,将相邻下一张点云块作为源点云块向目标块配准,首先进行空间位姿粗配准,再将粗配准得到的坐标变换后源点云块与目标块配准;进而实现大型三维构件的三维重建拼接。本发明用于大尺寸构件的三维重建。

Description

基于结构光测量的大尺寸构件三维重建拼接方法
技术领域
本发明涉及基于结构光测量的大尺寸构件三维重建拼接方法,属于结构光自动化三维测量技术领域。
背景技术
基于计算机视觉的三维重建经过最近数十年的发展,已经取得了飞速的进展。基于视觉的三维重建是目前在计算机视觉领域一个热门的领域,其概念是,依托于相关的信息采集仪器来对物体的表面信息进行采集,获取二维图像信息,然后对信息进行分析处理,最后应用三维重建相关技术与方法实现真实环境中的物体表面轮廓信息的重建。基于视觉的三维重建技术以它效率高、精度高、简单方便、实时性好等优点广泛的应用于机器人传感、无人驾驶汽车、医学检测以及工业自动化等领域。
在工业生产中,例如在机翼部位常用的蒙皮骨架,具有结构复杂的特点,其三维轮廓检测与重建十分重要。对于三维重建方式的选择上,需要考虑各种方法的适用性、实时性、三维重建结果等方面。首先,工件的三维重建一般在室内进行,便于搭建测量平台;其次,不同于室外场景重建,工件对于重建精度要求更高,细节表现更加清晰。结构光法以其重建结果速率快、精度高、低能耗、抗干扰强等优点成为室内工件检测的首选。由于线结构光的单条激光条纹长度有限,所以对于类似蒙皮骨架等大型工件的三维重建很难一次性的完成;另外由于点云采集设备在视野上具有一定的局限性,被测物可能由于其自身形状较为复杂而存在遮挡造成视觉盲区,因此很难通过单次扫描充分的描述一个完整的物体。目前,在三维视觉领域解决单相机视野范围覆盖不全的问题最常用的方法是采用多目相机进行多角度信息的提取或者使用单目相机进行扫描然后进行后期的点云数据的拼接;机器视觉厂商最常用的解决办法是使用多目单视角线结构光传感器系统,这种方法检测价格贵,安装体积大,多传感器之间需要通讯,对上位机的硬件要求高,系统的实时性有所降低。
采用单个结构光传感器结合运动系统实现对大型复杂工件的遍历扫描时,后期点云的处理难度和时长大大增加,实时性很难满足,所以,点云的高效率、高精度处理成为亟需解决的问题。为了得到一个完整的三维模型,首先,需要在不同角度获取物体的多个点云数据,然后将所有的数据通过一定的运动关系转换到公共的坐标系下正确对齐,求解运动关系的过程就称为点云拼接;最后进行大型构件的整体轮廓的三维重建。这就需要进行多次多角度的扫描获得各个部分的点云数据,然后进行点云的配准以及拼接等操作以实现大型工件的检测。
Besel在上世纪九十年代最开始提出了迭代最近点(Iterative Closest Point,ICP)算法,如图4所示。在实行ICP算法之前,要根据想要达到的计算结果设定相应的目标函数阈值,然后应用ICP算法进行迭代计算,每一次的迭代运算都会优化当前的计算结果,不断向着目标函数的设定阈值进行,直到迭代到某次,使得目标函数取值小于设定阈值,且迭代次数小于最大迭代次数,则迭代结束。但该算法存在两个问题:一、ICP算法对点云的初始位姿要求较高,适用于两块初始位姿相差不大点云数据的配准,如果两块点云初始位姿差别较大,ICP算法会大大增加其迭代次数,使得整个配准过程所耗时间大大延长;此外,过大的初始位姿偏差可能会造成算法因为产生局部最优解而提前收敛,大大降低点云配准过程的准确性。二、针对低重合度点云效果较差。经典的ICP算法是针对位姿有偏差的两块相同点云或者绝大部分相同的点云进行配准,对于两块低重合度的点云的配准会提前陷入局部最优解,无法继续配准。
发明内容
针对现有构件的结构光三维重建算法在两块点云配准时,过大的初始位姿偏差会造成算法的局部最优解而提前收敛,降低点云配准准确性的问题,本发明提供一种基于结构光测量的大尺寸构件三维重建拼接方法。
本发明的一种基于结构光测量的大尺寸构件三维重建拼接方法,包括,
步骤一:采用结构光传感器沿大型三维构件宽度方向按预设扫描宽度依次进行扫描,获得顺序标记的点云;相邻点云之间具有预设宽度的重叠区域;
步骤二:对每块点云数据进行预处理,获得预处理后点云块;
步骤三:依次以相邻前一张点云块为目标块,将相邻下一张点云块作为源点云块向目标块配准,包括:
空间位姿粗配准:提取目标块和源点云块中相对应的2~3组特征点,所述特征点包括扫描方向上的起点、终点及曲率异常点;根据相对应特征点的坐标值进行计算获得源点云块特征点到目标块特征点坐标系的一次空间变换参数,再根据一次空间变换参数将源点云块的空间位姿变换到目标块的坐标系下,获得向目标块粗配准的坐标变换后源点云块;
坐标变换后源点云块与目标块配准:在坐标变换后源点云块上分割出重叠区域作为源重叠区域,在目标块上分割出重叠区域作为目标重叠区域;
对源重叠区域和目标重叠区域应用ICP算法进行配准,获得二次空间变换参数,再根据二次空间变换参数将坐标变换后源点云块的空间位姿变换到目标块的坐标系下,实现坐标变换后源点云块与目标块的配准;进而实现大型三维构件的三维重建拼接。
根据本发明的基于结构光测量的大尺寸构件三维重建拼接方法,步骤三中一次空间变换参数包括平移向量T和旋转矩阵R;获得一次空间变换参数的方法包括:
采用七参数坐标系转换模型计算目标块和源点云块中相对应的特征点的对应关系:
Figure BDA0003789273370000031
式中XB为目标块中特征点的横坐标,YB为目标块中特征点的纵坐标,ZB为目标块中特征点的竖坐标,XA为源点云块中特征点的横坐标,YA为源点云块中特征点的纵坐标,ZA为源点云块中特征点的竖坐标;TX为横坐标平移向量,TY为纵坐标平移向量,TZ为竖坐标平移向量,m为坐标系转换的直线长度比值,ωX为源点云块坐标系旋转到与目标块坐标系完全重合时绕横轴旋转的角度,ωY为源点云块坐标系旋转到与目标块坐标系完全重合时绕纵轴旋转的角度,ωZ为源点云块坐标系旋转到与目标块坐标系完全重合时绕竖轴旋转的角度;
选择多个相对应的特征点求解七参数坐标系转换模型,得到平移向量T(TX,TY,TZ)和旋转矩阵R(ωX,ωY,ωZ)。
根据本发明的基于结构光测量的大尺寸构件三维重建拼接方法,步骤一中,结构光传感器采用直接标定法进行测量光平面的标定。
根据本发明的基于结构光测量的大尺寸构件三维重建拼接方法,步骤一中,重叠区域的预设宽度范围为10-15mm。
根据本发明的基于结构光测量的大尺寸构件三维重建拼接方法,步骤二中所述预处理包括:
采用体素化网格对每块点云数据进行下采样处理,获得每个体素化网格内所有点云的重心点;
再对所有体素化网格的重心点采用半径滤波法去除噪声重心点,得到预处理后点云块。
根据本发明的基于结构光测量的大尺寸构件三维重建拼接方法,体素化网格边长为0.05-0.15mm。
根据本发明的基于结构光测量的大尺寸构件三维重建拼接方法,去除噪声重心点的方法包括:
分别以每个重心点为圆心划定半径为0.02~0.1mm的圆,若圆内的近邻重心点数量少于预设近邻点数量阈值,则去除当前重心点,否则保留当前重心点作为主体点云,所有主体点云构成预处理后点云块。
根据本发明的基于结构光测量的大尺寸构件三维重建拼接方法,近邻点数量阈值为2~10个。
根据本发明的基于结构光测量的大尺寸构件三维重建拼接方法,所述源重叠区域和目标重叠区域均包含预设宽度的重叠区域,且源重叠区域和目标重叠区域的宽度均为预设宽度的重叠区域的110~140%。
本发明的有益效果:本发明方法通过特定特征点快速提取的直接配准和扫描时预设重叠宽度及配准算法点云自动分割的改进算法加快点云拼接,减少所需的扫描次数和点云拼接耗时,高效实现了三维模型重建。具有如下优势:
(1)通过特定特征的特征点快速提取,对各块点云进行粗配准,调整点云姿态,减少ICP配准过程中的耗时并避免出现不收敛或局部最优解的迭代。
(2)采用扫描时预设重叠宽度及改进ICP算法的方式,进行点云精确分割使其满足低重合度点云的配准要求,且降低ICP算法运行量,可以实现点云快速拼接,且不需要多次扫描进行比对和高重复的扫描构件,大大减少了三维重建过程中的操作时间。
附图说明
图1是本发明所述基于结构光测量的大尺寸构件三维重建拼接方法的流程图;
图2是空间位姿粗配准的流程图;
图3是坐标变换后源点云块与目标块配准的流程图;
图4是现有ICP算法的流程图;
图5是半径滤波的示意图;
图6是具体实施例中结构件的扫描示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其它实施例,都属于本发明保护的范围。
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
下面结合附图和具体实施例对本发明作进一步说明,但不作为本发明的限定。
具体实施方式一、结合图1至图4所示,本发明提供了一种基于结构光测量的大尺寸构件三维重建拼接方法,包括,
步骤一:采用结构光传感器沿大型三维构件宽度方向按预设扫描宽度依次进行扫描,获得顺序标记的点云;相邻点云之间具有预设宽度的重叠区域;
步骤二:对每块点云数据进行预处理,获得预处理后点云块;
步骤三:依次以相邻前一张点云块为目标块,将相邻下一张点云块作为源点云块向目标块配准,包括:
空间位姿粗配准:提取目标块和源点云块中相对应的2~3组特征点,所述特征点包括扫描方向上的起点、终点及曲率异常点;所述起点和终点可以呈现构件的边缘特征;根据相对应特征点的坐标值进行计算获得源点云块特征点到目标块特征点坐标系的一次空间变换参数,再根据一次空间变换参数将源点云块的空间位姿变换到目标块的坐标系下,获得向目标块粗配准的坐标变换后源点云块;
坐标变换后源点云块与目标块配准:在坐标变换后源点云块上分割出重叠区域作为源重叠区域,在目标块上分割出重叠区域作为目标重叠区域;
对源重叠区域和目标重叠区域应用ICP算法进行配准,获得二次空间变换参数,再根据二次空间变换参数将坐标变换后源点云块的空间位姿变换到目标块的坐标系下,实现坐标变换后源点云块与目标块的配准;进而实现大型三维构件的三维重建拼接。
在结构光传感器扫描过程中,以传感器与大型三维构件之间距离的方向作为z轴,传感器z轴高度基本保持固定,以大型三维构件的高度方向(纵向)为y轴方向进行扫描;当一块点云扫描完成后,沿x轴(构件宽度方向)移动传感器,回到y轴初始位置,重复扫描获得第二块点云。完成构件整体扫描后,按照扫描顺序将点云1,点云2…点云n等进行拼接配准。
进一步,结合图2所示,步骤三中一次空间变换参数包括平移向量T和旋转矩阵R;获得一次空间变换参数的方法包括:
采用七参数坐标系转换模型计算目标块和源点云块中相对应的特征点的对应关系:
Figure BDA0003789273370000061
式中XB为目标块中特征点的横坐标,YB为目标块中特征点的纵坐标,ZB为目标块中特征点的竖坐标,XA为源点云块中特征点的横坐标,YA为源点云块中特征点的纵坐标,ZA为源点云块中特征点的竖坐标;TX为横坐标平移向量,TY为纵坐标平移向量,Tz为竖坐标平移向量,m为坐标系转换的直线长度比值,ωX为源点云块坐标系旋转到与目标块坐标系完全重合时绕横轴旋转的角度,ωY为源点云块坐标系旋转到与目标块坐标系完全重合时绕纵轴旋转的角度,ωZ为源点云块坐标系旋转到与目标块坐标系完全重合时绕竖轴旋转的角度;
选择多个相对应的特征点求解七参数坐标系转换模型,得到平移向量T(TX,TY,TZ)和旋转矩阵R(ωX,ωY,ωZ)。
本实施方式中,如图2所示,在ICP配准前通过提取特征点粗配准的方式提高配准效率和准确性。点云配准过程本质上就是通过坐标系转换将源点云的坐标系转换到和目标点云的坐标系一致,转换之后,在目标点云的坐标系内,两块相邻点云的重合部分内的点在目标点云坐标系下的坐标相同。所以,可以对两块待配准的点云进行对应特征点的提取,得到多组对应特征点(a,A;b,B;c,C;……)的坐标后,通过坐标系转换的方法进行粗配准,调整两块点云的初始位姿,从而提升总体配准效率。
本实施方式通过对不共线的特征点带入七参数坐标系转换模型进行点云粗配准。七参数模型是进行两个不同的三维空间直角坐标系之间的转换的常用模型,求解过程相当于求解方程组。
在七参数坐标系转换模型中,尺度因子m代表两个空间直角坐标系内的同一直线的长度的比值,实现两个直角坐标系尺度的比例转换,在同一构件重建过程中m=1。
对提取的特征点进行求解,得到了六个未知参数的计算结果,根据旋转矩阵和平移向量对源点云进行空间位姿变换,将其所在的直角坐标系转换到目标点云所在的直角坐标系下,实现了基于特征点提取的粗配准,配准后源点云块和目标点云重叠区域内的所有点在目标点云坐标系下坐标基本一致。
为了解决现在ICP算法对低重复性点云的适应性问题,本实施方式采用自动分割点云的方式进行配准。根据预设的重叠区域宽度,应用点云分割方法对两组相邻点云的重叠区域分割,得到两组重合率超过70%的点云,再对重合区域进行ICP配准,配准结束后输出空间变换参数R和T,并以此对源点云进行空间位姿变换,实现两块源点云的配准。示意图如图3所示。
本实施方式中的平移向量T和旋转矩阵R相当于图4中的刚体变换矩阵H。
作为示例,步骤一中,结构光传感器采用直接标定法进行测量光平面的标定。
本实施方式可以采用结构光传感器与工业机器人构成结构光扫描重建系统,基于获得的点云可对工业现场的大型构件形貌进行三维重建。
作为示例,步骤一中,重叠区域的预设宽度范围为10-15mm。
再进一步,步骤二中所述预处理包括:
采用体素化网格对每块点云数据进行下采样处理,获得每个体素化网格内所有点云的重心点;
再对所有体素化网格的重心点采用半径滤波法去除噪声重心点,得到预处理后点云块。
采用适当的下采样方式和滤波方法,降低点云稠密度,可提高后续重建过程的计算效率,减少算法耗时。
作为示例,体素化网格边长为0.05-0.15mm。
再进一步,结合图5所示,去除噪声重心点的方法包括:
分别以每个重心点为圆心划定半径为0.02~0.1mm的圆,若圆内的近邻重心点数量少于预设近邻点数量阈值,则去除当前重心点,否则保留当前重心点作为主体点云,所有主体点云构成预处理后点云块。
作为示例,近邻点数量阈值为2~10个。
图5中,设定近邻点数量阈值为3个,在点云主体部分划定圆后,近邻重心点数量pts=6,大于3,因此保留相应的重心点;在点云离群点部分划定圆后,近邻重心点数量pts=2,小于3,将其滤除。
再进一步,本实施方式中所述源重叠区域和目标重叠区域均包含预设宽度的重叠区域,且源重叠区域和目标重叠区域的宽度均为预设宽度的重叠区域的110~140%。
将源重叠区域和目标重叠区域的宽度设置为110~140%预设宽度的重叠区域,使重叠区域的重复率控制在70~90%,可尽量减少拼接误差,满足ICP算法快速配准需求;
重复率=预设宽度/分割宽度=1/1.1~1.4=0.7~0.9。
源重叠区域和目标重叠区域的宽度选择与特征点组数相关,若特征点组数较多,源重叠区域和目标重叠区域的宽度可以相对小一些,不影响最终配准的准确率;若特征点组数较少,则源重叠区域和目标重叠区域的宽度需要相对宽一些,才能保证最终配准的准确率。
本发明方法的具体实施过程:
一:测量构件型面轮廓前,先对结构光传感器进行标定,获得单位像素长度所对应的世界坐标长度,包括静止状态下的平面坐标标定和移动时的速度耦合标定。
(1)采用直接标定法进行传感器的测量光平面标定。制备特定形状的标准块试样,结构光传感器在不同距离下对标准块进行垂直扫描,得到一系列单位像素代表的真实长度与图像平面纵坐标相对应变化的数据,对标定结果进行回归分析,在结构光扫描光平面上,直接建立单位像素代表的真实长度和图像平面纵坐标的关系。
(2)对运动测量系统进行标定。固定标准块,使机器人移动,传感器扫描前进方向即坐标系y轴方向,设定机器人的移动速度,也就是传感器的相对扫描速度为v,数控机床开始移动后,扫描时间为t,初始时刻传感器所在位置沿y轴的初始位置为y0
y=vt+y0
其中初始位置y0和终点y坐标以及时间t都是已知的,可以得到机器人运动速度对应的图像扫描速度。至此,即完成了整个测量系统的标定,经过标定后的三维测量系统可以输出任意时间t下的待测工件表面上的任意一点的三维世界坐标(x,y,z)。
二:使机器人运动对待测构件进行测量,结构光传感器相对于待测构件匀速运动,运动速度与标定所用的移动速度相同。对大型三维构件的不同位置分别进行扫描,不同区域扫描重合宽度为10-15mm;
三:使用体素化网格算法对点云进行下采样处理,减少点云数量,提高计算效率。设置体素化网格边长为0.05-0.15mm,求每个体素化网格内所有点的重心,代表网格内的所有点,从而将每个体素化网格里的所有点简化为重心点;
四:采用半径滤波对下采样后的点云重心点进行滤波处理去除噪声点,该算法遍历所有点云重心点,分别一个重心点为圆心划定一个圆,并设置圆的半径即邻域半径为0.02~0.1mm,并在这个圆内设置一个近邻点数量的阈值(视点云特征确定,2~10),如果近邻点数量达不到该阈值就会被视为离群点并从点集内去除,达到该阈值就会被视为点云主体部分并保留;
五:对滤波后的点云块进行配准拼接处理,首先对点云进行特征提取,经空间坐标变换进行粗配准,然后采用改进的ICP算法对粗配准后的低重合度点云进行再次配准,分割重合区域点云,进行ICP配准,获得转换坐标后对点云主体进行配准;
六:对所有点云块进行配准拼接,输出配准后的完整三维模型。
具体实施例:
下面通过具体实例验证本发明的实施效果:
本实施例以结构光传感器测量大型网格结构件为例,如图6所示,结构件扫描平面尺寸约为430*1500mm,整体扫描次数为1次。所用设备为基恩士LJ-8200结构光探头及KUKAR16机器人,基准距离为270mm,扫描宽度80mm,采样频率40帧/秒。
分别采用常规的ICP配准方法与本发明方法进行三维重建,本发明方法具体如下:
步骤一:测量型面轮廓前,先对结构光传感器进行标定。
(1)采用直接标定法进行传感器的测量光平面标定。制备特定形状的标准块试样,垂直于结构光传感器,在250-290mm的距离下进行扫描,得到一系列单位像素代表的真实宽度与图像平面纵坐标相对应变化的数据,对标定结果进行回归分析,在结构光扫描光平面上,直接建立单位像素代表的真实宽度和图像平面纵坐标的关系。
(2)对运动测量系统进行标定。固定标准块,使机器人以10mm/s的速度移动,获得该移动速度下的系统坐标对应关系。
步骤二:由机器人带动结构光传感器相对于待测构件匀速运动,运动速度为10mm/s。对三维构件的不同位置分别进行扫描,不同区域扫描重合宽度为10mm,由上至下横向扫描,总点云块数为6块,每个点云内点数约63000-72000个;
步骤三:使用体素化网格算法对点云进行下采样处理。设置体素化网格边长为0.1mm,求每个体素化网格内所有点的重心,代表网格内的所有点,从而将每个体素化网格里的所有点简化为重心点,点云内的点数量减少73.3%;
步骤四:采用半径滤波对下采样后的点云进行滤波处理,滤波半径为0.05mm,邻近点阈值为5;
步骤五:对滤波后的点云块进行配准拼接处理,首先对点云进行特征提取,经空间坐标变换进行粗配准,然后采用改进的ICP算法对得到的低重合度点云进行配准,分割重合区域点云,宽度为12mm,进行ICP配准,获得转换坐标后对点云主体进行配准。
步骤六:对所有点云块进行配准拼接,输出配准后的完整三维模型。
表1为不同方法下的配准精度及耗时对比。直接采用ICP算法对该构件进行配准,由于点云重合度较低不满足算法要求,无法收敛,配准失败;直接分割点云后可以采用ICP算法进行配准,但由于点云初始姿态差异较大,配准耗时较长;采用本发明方法后配准耗时降低了约35%,且精度有一定的提高。
表1不同方法配准结果对比
Figure BDA0003789273370000101
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
此外,应当理解,虽然本说明书按照实施方式加以描述,但并非每个实施方式仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清楚起见,本领域技术人员应当将说明书作为一个整体,各实施例中的技术方案也可以经适当组合,形成本领域技术人员可以理解的其他实施方式。

Claims (9)

1.一种基于结构光测量的大尺寸构件三维重建拼接方法,其特征在于包括,
步骤一:采用结构光传感器沿大型三维构件宽度方向按预设扫描宽度依次进行扫描,获得顺序标记的点云;相邻点云之间具有预设宽度的重叠区域;
步骤二:对每块点云数据进行预处理,获得预处理后点云块;
步骤三:依次以相邻前一张点云块为目标块,将相邻下一张点云块作为源点云块向目标块配准,包括:
空间位姿粗配准:提取目标块和源点云块中相对应的2~3组特征点,所述特征点包括扫描方向上的起点、终点及曲率异常点;根据相对应特征点的坐标值进行计算获得源点云块特征点到目标块特征点坐标系的一次空间变换参数,再根据一次空间变换参数将源点云块的空间位姿变换到目标块的坐标系下,获得向目标块粗配准的坐标变换后源点云块;
坐标变换后源点云块与目标块配准:在坐标变换后源点云块上分割出重叠区域作为源重叠区域,在目标块上分割出重叠区域作为目标重叠区域;
对源重叠区域和目标重叠区域应用ICP算法进行配准,获得二次空间变换参数,再根据二次空间变换参数将坐标变换后源点云块的空间位姿变换到目标块的坐标系下,实现坐标变换后源点云块与目标块的配准;进而实现大型三维构件的三维重建拼接。
2.根据权利要求1所述的基于结构光测量的大尺寸构件三维重建拼接方法,其特征在于,步骤三中一次空间变换参数包括平移向量T和旋转矩阵R;获得一次空间变换参数的方法包括:
采用七参数坐标系转换模型计算目标块和源点云块中相对应的特征点的对应关系:
Figure FDA0003789273360000011
式中XB为目标块中特征点的横坐标,YB为目标块中特征点的纵坐标,ZB为目标块中特征点的竖坐标,XA为源点云块中特征点的横坐标,YA为源点云块中特征点的纵坐标,ZA为源点云块中特征点的竖坐标;TX为横坐标平移向量,TY为纵坐标平移向量,TZ为竖坐标平移向量,m为坐标系转换的直线长度比值,ωX为源点云块坐标系旋转到与目标块坐标系完全重合时绕横轴旋转的角度,ωY为源点云块坐标系旋转到与目标块坐标系完全重合时绕纵轴旋转的角度,ωZ为源点云块坐标系旋转到与目标块坐标系完全重合时绕竖轴旋转的角度;
选择多个相对应的特征点求解七参数坐标系转换模型,得到平移向量T(TX,TY,TZ)和旋转矩阵R(ωX,ωY,ωZ)。
3.根据权利要求1或2所述的基于结构光测量的大尺寸构件三维重建拼接方法,其特征在于,步骤一中,结构光传感器采用直接标定法进行测量光平面的标定。
4.根据权利要求1或2所述的基于结构光测量的大尺寸构件三维重建拼接方法,其特征在于,步骤一中,重叠区域的预设宽度范围为10-15mm。
5.根据权利要求1或2所述的基于结构光测量的大尺寸构件三维重建拼接方法,其特征在于,步骤二中所述预处理包括:
采用体素化网格对每块点云数据进行下采样处理,获得每个体素化网格内所有点云的重心点;
再对所有体素化网格的重心点采用半径滤波法去除噪声重心点,得到预处理后点云块。
6.根据权利要求5所述的基于结构光测量的大尺寸构件三维重建拼接方法,其特征在于,体素化网格边长为0.05-0.15mm。
7.根据权利要求6所述的基于结构光测量的大尺寸构件三维重建拼接方法,其特征在于,去除噪声重心点的方法包括:
分别以每个重心点为圆心划定半径为0.02~0.1mm的圆,若圆内的近邻重心点数量少于预设近邻点数量阈值,则去除当前重心点,否则保留当前重心点作为主体点云,所有主体点云构成预处理后点云块。
8.根据权利要求7所述的基于结构光测量的大尺寸构件三维重建拼接方法,其特征在于,近邻点数量阈值为2~10个。
9.根据权利要求1所述的基于结构光测量的大尺寸构件三维重建拼接方法,其特征在于,
所述源重叠区域和目标重叠区域均包含预设宽度的重叠区域,且源重叠区域和目标重叠区域的宽度均为预设宽度的重叠区域的110~140%。
CN202210951334.1A 2022-08-09 2022-08-09 基于结构光测量的大尺寸构件三维重建拼接方法 Pending CN115222893A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210951334.1A CN115222893A (zh) 2022-08-09 2022-08-09 基于结构光测量的大尺寸构件三维重建拼接方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210951334.1A CN115222893A (zh) 2022-08-09 2022-08-09 基于结构光测量的大尺寸构件三维重建拼接方法

Publications (1)

Publication Number Publication Date
CN115222893A true CN115222893A (zh) 2022-10-21

Family

ID=83614945

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210951334.1A Pending CN115222893A (zh) 2022-08-09 2022-08-09 基于结构光测量的大尺寸构件三维重建拼接方法

Country Status (1)

Country Link
CN (1) CN115222893A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116883471A (zh) * 2023-08-04 2023-10-13 天津大学 面向胸腹部经皮穿刺的线结构光无接触点云配准方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116883471A (zh) * 2023-08-04 2023-10-13 天津大学 面向胸腹部经皮穿刺的线结构光无接触点云配准方法
CN116883471B (zh) * 2023-08-04 2024-03-15 天津大学 面向胸腹部经皮穿刺的线结构光无接触点云配准方法

Similar Documents

Publication Publication Date Title
CN111750805B (zh) 一种基于双目相机成像和结构光技术的三维测量装置及测量方法
CN106705847B (zh) 一种自由曲面内缝隙几何尺寸测量方法及装置
Eggert et al. Simultaneous registration of multiple range views for use in reverse engineering of CAD models
CN110823130B (zh) 一种结构光3d视觉快速自动标定装置及方法
CN110148180A (zh) 一种激光雷达与相机融合装置与标定方法
CN109272574B (zh) 基于投影变换的线阵旋转扫描相机成像模型构建方法和标定方法
CN111612768A (zh) 一种采用结构光空间定位和二维工业ct检测叶片方法
CN105627948A (zh) 一种大型复杂曲面测量系统及其应用
CN105574812B (zh) 多角度三维数据配准方法及装置
Wu et al. A novel high precise laser 3D profile scanning method with flexible calibration
CN114413788B (zh) 基于双目视觉和反向模型重构的零件表面图案检测方法
Seales et al. Building three-dimensional object models from image sequences
CN112697058A (zh) 一种基于机器视觉的大尺寸板材装配间隙在线测量系统与方法
CN112927302B (zh) 一种多线激光雷达与相机联合标定的标定板及标定方法
CN111060006A (zh) 一种基于三维模型的视点规划方法
CN110415363A (zh) 一种基于三目视觉的散乱物识别定位方法
CN108917640A (zh) 一种激光盲孔深度检测方法及其系统
CN114543787B (zh) 基于条纹投影轮廓术的毫米级室内建图定位方法
CN115222893A (zh) 基于结构光测量的大尺寸构件三维重建拼接方法
CN115855955A (zh) 一种基于多束线激光的模具表面结构缺陷检测装置和方法
CN108596929A (zh) 融合平面网格深度计算的光切数据建模重构方法
CN113310433A (zh) 基于线结构光的虚拟双目立体视觉测量方法
CN205352322U (zh) 一种大型复杂曲面测量系统
CN116817796A (zh) 基于双远心镜头的曲面工件精确度参数测量方法及装置
CN116379965A (zh) 结构光系统标定方法、装置、结构光系统及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination