CN117011280A - 基于点云分割的3d打印混凝土墙质量监测方法及系统 - Google Patents
基于点云分割的3d打印混凝土墙质量监测方法及系统 Download PDFInfo
- Publication number
- CN117011280A CN117011280A CN202311069716.2A CN202311069716A CN117011280A CN 117011280 A CN117011280 A CN 117011280A CN 202311069716 A CN202311069716 A CN 202311069716A CN 117011280 A CN117011280 A CN 117011280A
- Authority
- CN
- China
- Prior art keywords
- layer
- points
- point cloud
- point
- boundary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 88
- 230000011218 segmentation Effects 0.000 title claims abstract description 48
- 238000012544 monitoring process Methods 0.000 title claims abstract description 38
- 238000010276 construction Methods 0.000 claims abstract description 69
- 230000008569 process Effects 0.000 claims abstract description 51
- 238000003062 neural network model Methods 0.000 claims abstract description 42
- 238000001514 detection method Methods 0.000 claims abstract description 20
- 238000012545 processing Methods 0.000 claims abstract description 16
- 238000010606 normalization Methods 0.000 claims abstract description 14
- 238000007639 printing Methods 0.000 claims description 49
- 239000013598 vector Substances 0.000 claims description 46
- 238000010146 3D printing Methods 0.000 claims description 30
- 238000005070 sampling Methods 0.000 claims description 30
- 230000006870 function Effects 0.000 claims description 27
- 238000005065 mining Methods 0.000 claims description 25
- 238000012549 training Methods 0.000 claims description 23
- 239000011159 matrix material Substances 0.000 claims description 12
- 230000009467 reduction Effects 0.000 claims description 12
- 238000013519 translation Methods 0.000 claims description 12
- 230000009466 transformation Effects 0.000 claims description 11
- 238000007781 pre-processing Methods 0.000 claims description 9
- 239000007921 spray Substances 0.000 claims description 8
- 239000000463 material Substances 0.000 claims description 7
- 238000011176 pooling Methods 0.000 claims description 7
- 230000001174 ascending effect Effects 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 6
- 238000003860 storage Methods 0.000 claims description 6
- 230000002159 abnormal effect Effects 0.000 claims description 5
- 230000008859 change Effects 0.000 claims description 5
- 238000007599 discharging Methods 0.000 claims description 5
- 238000009826 distribution Methods 0.000 claims description 4
- 239000000203 mixture Substances 0.000 claims description 2
- 239000002131 composite material Substances 0.000 claims 1
- 238000004364 calculation method Methods 0.000 abstract description 6
- 239000010410 layer Substances 0.000 description 198
- 238000012795 verification Methods 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 7
- 238000004519 manufacturing process Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 230000005856 abnormality Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 239000002356 single layer Substances 0.000 description 2
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000005266 casting Methods 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000001816 cooling Methods 0.000 description 1
- 239000008358 core component Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000008021 deposition Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000001125 extrusion Methods 0.000 description 1
- 239000011229 interlayer Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000003908 quality control method Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000011524 similarity measure Methods 0.000 description 1
- 230000000087 stabilizing effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明为基于点云分割的3D打印混凝土墙质量监测方法及系统,所述监测方法包括以下内容:获取3D打印混凝土墙施工过程中的点云数据并将点云坐标进行归一化处理;构建神经网络模型PSC‑Net,获得已打印的混凝土墙施工层的边界点云;基于获得已打印的混凝土墙施工层的边界点云进行层高监测,直接跳过层高计算步骤,通过检测偏离点的数量来进行层高检测,大大提升了检测效率。可以实现实时监测和分析施工数据,及时发现问题并采取措施,优化施工方案,确保施工安全和质量。
Description
技术领域
本发明涉及智能建造技术领域,特别是涉及一种基于点云分割的3D打印混凝土墙质量监测方法及系统,通过点云分割深度学习的3D打印混凝土墙的层高监测,能够进行打印质量的实时监测与控制,实现稳定性打印。
背景技术
在传统建筑领域,混凝土墙的建造需要进行多个步骤,例如模具的制作、浇筑、固化等,这需要相当长的时间来完成;同时还需要大量的人力资源,包括搬运材料、施工和清理等,这意味着需要雇佣和管理一支庞大的工作队伍,增加了劳动力成本和管理难度,导致成本大大增加。因此如何在短时间内低成本地制造出符合要求的混凝土墙至关重要。
3D打印作为一种先进的制造技术,也被称为增材制造,主要通过逐层堆叠材料来创建物体。该技术的优势在于设计自由度高、制造效率高、资源利用率高,并能制造出复杂的结构等特点。然而,3D打印混凝土墙打印质量受挤压喷嘴的速度、喷嘴与沉积表面之间的距离、加药泵压力、挤压混凝土的流变性能等参数的影响,当这些参数不能达到协调的状态时,会使得打印过程当中的打印条的单层高度不一致,从而增大打印结构的层间界面裂隙,进而严重影响最终打印结构的质量和结构稳定性,造成结构安全和人员生命风险。因此,必须对3D打印混凝土墙的单层高度进行精确监测,从而实现质量稳定性控制。
当前的3D打印混凝土打印过程质量监测主要依靠人工目测,需耗费大量的人力和经济成本,且人工无法监测到超过人自身视野高度的地方,无法对3D打印混凝土墙进行施工过程的打印条的单层高度进行量化测量,进而无法实时评估3D打印混凝土墙打印质量稳定性的实时状态。目前计算机视觉技术能够实现自动化的实时监测,但是基于2D图片的计算机视觉技术不具备目标的坐标信息,不能对目标的空间信息进行准确测量。且传统的2D图片分割方法在处理复杂的点云数据时存在信息损失和计算复杂度增加的问题,不能有效地处理高维特征和提取关键信息,混凝土墙3D打印过程的精确控制和稳定性得不到保障。
发明内容
本发明为了克服以上技术的缺点,提供了一种基于点云分割的3D打印混凝土墙质量监测方法及系统。相对于传统技术,本发明利用了深度学习中的数据增强、对比学习、点云分割技术并自主构建了神经网络模型PSC-Net(其中“P”代表神经网络模型中的数据增强部分,以点云增强网络PF-Net为基础,“S”和“C”分别代表神经网络模型PSC-Net中的子场景边界挖掘模块和对比边界学习模块)实现了3D打印混凝土墙的质量的监测,能够准确、高效地监测打印过程中的混凝墙层高是否达标,同时还能实现实时监测、预警与控制,有效地保证了打印质量。
为了解决上述的技术问题,本发明采用的技术方案是:
第一方面,本发明提供一种基于点云分割的3D打印混凝土墙质量监测方法,所述监测方法包括以下内容:
获取3D打印混凝土墙施工过程中的点云数据并将点云坐标进行归一化处理;
构建神经网络模型PSC-Net,所述神经网络模型PSC-Net包括编码器、解码器、子场景边界挖掘模块以及对比边界学习模块;
利用混凝土墙施工过程中的点云数据训练神经网络模型PSC-Net,获得训练后的神经网络模型PSC-Net,利用训练后的神经网络模型PSC-Net进行点云边界分割,获得已打印的混凝土墙施工层的边界点云;
层高检测:
步骤5.1体素降采样并降维
对已打印的混凝土墙施工层的边界点云进行体素降采样,得到一个矩形点阵;将矩形点阵中每个点的x、y和z坐标值映射到三维空间中的相应轴上,形成一个空间点云;随后将所有点的y轴坐标删除,将三维转化为二维,计算所有点的x和z坐标之和,找到最小的和,并将最小的和对应的点设置为坐标原点,同时整个边界点云形成的矩形点阵进行平移,使得原点坐标变成(0,0),完成坐标变换;
步骤5.2点阵分组
根据坐标变换后的点的z坐标进行分组,将z坐标差距在5%之内的点分为一组,得到若干点集,并按照z坐标升序为每一组点集进行层号标记;已打印的混凝土墙施工层共有m组点集,已打印m层,m为正整数;
步骤5.3统计偏离点数量
预设层高阈值,依次将下面一层的点集平移层高阈值后与邻近的上面一层的点集中的z坐标进行比较,将邻近的上面一层的点集中的z坐标大于下面一层的点集平移层高阈值后的坐标点记为偏离点,并统计各层偏离点的数量;
步骤5.4将体素降采样点从已打印的混凝土墙施工层的边界点云中删去,判断已打印的混凝土墙施工层的边界点云中剩余点的数量是否不大于50%,若大于50%,则重复步骤5.1-步骤5.3,重新对剩余点进行体素降采样、降维、点阵分组、统计偏离点数量,获得下一轮的所有已打印的混凝土墙施工层的偏离点数量和层号;若不大于50%,则停止偏离点寻找;
将所有轮的每一层的偏离点数量全部相加,获得已打印的混凝土墙施工层的最终的每层的偏离点数量;
步骤5.5稳定性控制
设置稳定比例阈值,利用最终的每层的偏离点数量和对应的层号绘制柱状图,柱状图的横坐标为层号,纵坐标为某层中偏离点数量与当前层所有点数的比值;若最上面一层中偏离点数量与该层所有点数的比值超过稳定比例阈值15%,则说明最上面一层的高度超过了层高阈值,当前打印过程不稳定,需要预警调整;若未超过稳定比例阈值,则层高符合标准,打印过程稳定。
在所述编码器中,对输入维度为N×3的原始点云进行迭代最远点采样得到维度为的下采样点云,N为点云中点的个数,3为点的空间三维坐标;将原始点云和下采样点云分别输入到两个组合多层感知机模块中,分别得到两个维度相同的潜在特征向量,将这两个潜在特征向量进行拼接获得潜在特征图,潜在特征图再经过一个多层感知机和一个L2范数归一化层,获得归一化后的一维特征向量V',V'记为编码器的输出;
利用解码器将V'重新映射回原始的点云数据空间,在解码器中,V'首先经过第一线性层,得到一个一维向量V1,V1经过第二线性层得到一维向量V2;V2的长度为V1长度的一半,V1和V2分别连接第一全连接层FC1和第二全连接层FC2;第一全连接层FC1和第二全连接层FC2的输出进行相加操作,输出增强点云Ydetail,Ydetail记为解码器的输出;
解码器的输出连接子场景边界挖掘模块以及对比边界学习模块,利用子场景边界挖掘模块确定点的标签,通过对比边界学习模块进行边界分割,所述子场景边界挖掘模块包括n次降采样,所述对比边界学习模块包括n次上采样,子场景边界挖掘模块的第一次降采样的结果与对比边界学习模块的第n次上采样的结果进行跳跃连接,子场景边界挖掘模块的第n次降采样的结果与对比边界学习模块的第一次上采样的结果进行跳跃连接;
对比边界学习模块输出边界点云。
所述组合多层感知机模块包含四个组合感知机层,每个组合感知机层分别由1、2、3、4个感知机串联拼接在一起,输入的点云数据分别通过四个组合感知机层处理产生四个特征向量;随后对这四个特征向量均进行平均池化操作,将四个平均池化操作处理后的结果进行拼接,获得潜在特征向量。
所述神经网络模型PSC-Net的损失函数L由子场景边界挖掘模块的交叉熵函数Lcross entropy和对比边界学习模块的损失函数LCBL组成,用下式表示:
Lcross entropy=-∑(ci*log(pi))
其中Bl表示真实数据中的边界点集,xi表示所选取的中心点,xj表示xi邻域中的一个点;li和lj表示点xi和xj的真实标签;fi、fj表示点xi、xj的特征;d()是距离函数;τ表示对比学习中的温度超参数;ci代表点所属的类别,pi表示模型预测的概率分布的向量,n代表第n个采样阶段,λ是损失权重;Ni表示中心点集。
所述稳定比例阈值为15%。
第二方面,本发明提供一种基于点云分割的3D打印混凝土墙质量监测系统,所述系统包括:
点云获取模块,用于获取3D打印混凝土墙施工过程中的点云数据;
点云预处理模块,用于对点云数据进行预处理,获得规范化、优质的点云数据;
层高检测模块,用于实时监测施工过程中的层高是否满足打印要求;
预警调整模块,用于对层高检测模块监测到的稳定性异常情况进行预警,并调整3D打印设备的控制单元对3D打印参数进行调整,包括加快或降低打印机喷头移动速度、降低或升高喷头高度、加快或降低出料速度;同时提示工作人员检查材料状态;
显示模块,用于对实时打印过程中层高检测模块输出的监测结果进行显示;
存储模块,用于对采集的数据和监测过程中的数据进行存储;
点云边界分割模型,用于进行点云边界分割,获得已打印的混凝土墙施工层的边界点云;所述层高检测模块的具体实现过程是:
步骤5.1体素降采样并降维
对已打印的混凝土墙施工层的边界点云进行体素降采样,得到一个矩形点阵;将矩形点阵中每个点的x、y和z坐标值映射到三维空间中的相应轴上,形成一个空间点云;随后将所有点的y轴坐标删除,将三维转化为二维,计算所有点的x和z坐标之和,找到最小的和,并将最小的和对应的点设置为坐标原点,同时整个边界点云形成的矩形点阵进行平移,使得原点坐标变成(0,0),完成坐标变换;
步骤5.2点阵分组
根据坐标变换后的点的z坐标进行分组,将z坐标差距在5%之内的点分为一组,得到若干点集,并按照z坐标升序为每一组点集进行层号标记;已打印的混凝土墙施工层共有m组点集,已打印m层,m为正整数;
步骤5.3统计偏离点数量
预设层高阈值,依次将下面一层的点集平移层高阈值后与邻近的上面一层的点集中的z坐标进行比较,将邻近的上面一层的点集中的z坐标大于下面一层的点集平移层高阈值后的坐标点记为偏离点,并统计各层偏离点的数量;
步骤5.4将体素降采样点从已打印的混凝土墙施工层的边界点云中删去,判断已打印的混凝土墙施工层的边界点云中剩余点的数量是否不大于50%,若大于50%,则重复步骤5.1-步骤5.3,重新对剩余点进行体素降采样、降维、点阵分组、统计偏离点数量,获得下一轮的所有已打印的混凝土墙施工层的偏离点数量和层号;若不大于50%,则停止偏离点寻找;
将所有轮的每一层的偏离点数量全部相加,获得已打印的混凝土墙施工层的最终的每层的偏离点数量;
步骤5.5稳定性控制
设置稳定比例阈值,利用最终的每层的偏离点数量和对应的层号绘制柱状图,柱状图的横坐标为层号,纵坐标为某层中偏离点数量与当前层所有点数的比值;若最上面一层中偏离点数量与该层所有点数的比值超过稳定比例阈值15%,则说明最上面一层的高度超过了层高阈值,当前打印过程不稳定,需要预警调整;若未超过稳定比例阈值,则层高符合标准,打印过程稳定。
所述点云边界分割模型为神经网络模型PSC-Net,所述神经网络模型PSC-Net包括依次连接的编码器、解码器、子场景边界挖掘模块以及对比边界学习模块。
与现有技术相比,本发明的有益效果是:
1.本发明基于点云分割实现3D打印混凝土墙打印质量的检测,首先,利用了点云数据的高维特性,实现了对3D打印混凝土墙打印质量的精确评估,而传统方法往往依赖于一维或二维的数据表示,难以捕捉复杂的三维结构信息;其次,本发明利用了神经网络模型PSC-Net,能够针对输入的点云数据进行增强与分割操作。相比于传统的点云分割模型,例如RandLA-Net、CloserLook3D等,PSC-Net对点云数据分割前先进行了一次数据增强,能够增加数据的多样性进而提升模型的泛化能力;利用增强后的数据进行训练还有助于降低模型过拟合的风险,提高模型的可靠性和鲁棒性;同时数据增强可以有效地增加数据集的规模,从而减少模型过拟合的风险。本发明在室内数据集S3DIS上的分割准确率可以达到90.6%,优于RandLA-Net的87.5%以及CloserLook3D的90.0%。
2.传统的层高检测方法通常需要计算每一层的高度,再将其与预设高度阈值进行比较,然而,这种方法涉及到大量的计算操作,导致耗时较长也容易出现误差;本发明采用一种更高效的方法,直接跳过层高计算步骤,通过检测偏离点的数量来进行层高检测,大大提升了检测效率。
3.本发明可以实现实时监测和分析施工数据,及时发现问题并采取措施,优化施工方案,确保施工安全和质量。本发明为实现3D打印质量的实时监测提供了可能性,进一步推动了该领域的发展,具有重大的意义和广阔的应用前景,同时也为混凝土3D打印技术的发展提供了有力的支持和保障。
4.本发明使用点云分割技术能够得到物体空间坐标等多种信息,能够准确识别打印模型不同部分之间的界面和边界,通过高效准确地识别界面和边界,实现自动化检测,可以优化数据表示和特征提取,提高打印质量,并为挡墙建造领域带来更可靠的解决方案。点云分割技术将为3D打印混凝土墙的质量控制带来显著的优势。
附图说明
图1是本发明中神经网络模型PSC-Net的结构示意图。
图2是本发明中神经网络模型PSC-Net中的组合多层感知机模块的具体结构示意图。
图3是本发明中神经网络模型PSC-Net的解码器的结构示意图。
图4是本发明中神经网络模型PSC-Net的单次训练流程图。
具体实施方式
为了更加清楚地描述本发明的技术问题、技术方案和优点,接下来将结合图示和实施例进行详细说明。需要注意的是,这些实施例仅用于说明本发明的原理和应用范围,并不应视为对本发明的限制。
实施例1:本实施例基于点云分割的3D打印混凝土墙质量监测方法,主要包括以下步骤:
第一步、获取3D打印混凝土墙施工过程中的点云数据并将点云坐标进行归一化处理:
步骤1.1点云数据获取
使用深度相机扫描设备随机对若干数量的3D打印混凝土墙进行扫描,共获取到12000份3D打印混凝土墙点云数据。其中每个点云数据包含一系列三维点,每个点由(x,y,z)坐标表示。深度相机能够根据打印高度而调整拍摄范围,能获得高于人体高度的挡墙图像。
步骤1.2点云数据集制作
按照4:1:1的比例将12000份点云数据分为训练集、验证集以及测试集并存储到计算机中;其中训练集包含8000份点云数据,验证集和测试集均包含2000份点云数据。
步骤1.3点云数据预处理
步骤1.3.1使用点云处理软件“CloudCompare”对获取到的点云数据进行手动标注,标注出点云数据中的边界部分与非边界部分。
步骤1.3.2将所有点云数据以原点为中心,归一化点的坐标至[-1,1]区间内,即将所有点的坐标等比例缩小,使得点的坐标值都在[-1,1]区间的范围内,目的是使点云数据的坐标范围一致,方便神经网络模型的训练。假设某点的坐标为(x,y,z),使用下列公式进行归一化:
其中,xmin、xmax表示一组点云中所有点在x轴上的最小和最大坐标值,ymin、ymax、zmin、zmax同理,表示一组点云中所有点在y轴、z轴上的最小和最大坐标值,x’、y’、z’表示归一化后的相应坐标轴的值。
步骤1.4点云数据初步采样。从每个点云数据中均匀地采样2048个点作为原始点云,保证输入数据的统一性。
步骤1.5点云数据二次采样。对步骤1.4得到的原始点云数据进行迭代最远点采样,得到下采样点云。迭代最远点采样是一种用于点云数据的采样方法,旨在有效地从大规模点云中选择一组具有代表性的采样点。其原理是在点云数据中逐步选择最远的点作为采样点,以构建一个具有较小数量的稀疏采样点集,不断迭代这个过程,直到采样点集达到预定的数量或满足其他终止条件。通过对原始点云进行迭代最远点采样操作得到下采样点云,并和原始点云一并输入到神经网络模型PSC-Net中。
通过以上步骤,可以得到规范化、优质的点云数据,为后续的点云数据增强提供高质量的输入数据。
第二步构建神经网络模型PSC-Net
如图1所示,所述的神经网络模型PSC-Net包含四个部分,分别是编码器、解码器、子场景边界挖掘模块(SBM)以及对比边界学习模块(CBL)。四个部分进行串联,原始点云依次通过编码器、解码器、子场景边界挖掘模块、对比边界学习模块,最终输出分割出的边界点云。主要利用了“编码器-解码器”结构对输入点云进行插值补全增强,“编码器-解码器”结构的过程属于端到端,能够减少数据传输和计算的次数、提高数据增强的效率,进而提高模型的鲁棒性和泛化能力。
步骤2.1编码器,利用编码器提取数据特征
在编码器中,对维度为2048×3(其中2048为输入点的个数,3为点的xyz坐标数据)的原始点云进行迭代最远点采样得到维度为(其中/>为采样后点云中点的个数,3为点的xyz坐标数据)的下采样点云。接着,将原始点云和下采样点云分别输入到一个组合多层感知机模块中以得到两个潜在特征向量,每个潜在特征向量表示从不同分辨率的点云中提取到的特征。随后,将两个潜在特征向量进行拼接操作形成一个维度为1920×3的潜在特征图M。最后,使用多层感知机和L2范数归一化层将潜在特征图映射、归一化为归一化后的一维特征向量V',V'记为编码器的输出,其长度为1920,具体过程参考图1。
组合多层感知机模块的具体结构如图2所示,该模块包含了四个组合感知机层,每个组合感知机层分别由1、2、3、4个感知机拼接而成,输入点云分别通过四个组合感知机层处理,每个组合感知机层都提取出一个特定维度的特征向量,一共可产生四个特征向量。随后对这四个特征向量均进行平均池化操作,平均池化可以对不同维度的特征进行平均,从而更好地捕捉特征的整体信息。输入点云经过四个组合感知机层后,可得到四个维度分别为64×3、128×3、256×3、512×3的特征向量,接着将这四个特征向量拼接成一个潜在特征向量,其维度为960×3(960=512+256+128+64)。原始点云和下采样点云经过组合多层感知机模块可生成两个维度均为960×3的潜在特征向量,将这两个潜在特征向量进行拼接得到一个潜在特征图,其维度为1920×3(1920=960+960)。潜在特征图由一系列的特征图像素组成,每个像素表示该位置的特征在输入数据中的重要程度。在组合多层感知机模块后连接一个多层感知机层和一个L2范数归一化层,将潜在特征图映射、归一化为归一化后的一维特征向量V',长度为1920。
L2范数归一化也称为欧几里德范数归一化,它是将向量的每个元素除以向量的L2范数(向量的长度),从而使得向量的模长为1。将输入向量进行L2范数归一化可以简化数据的处理和计算过程,提高算法的效率。假设向量V=[v1,v2,...,v1920],则V的L2范数为
归一化后的向量V'为
步骤2.2解码器,利用解码器将特征重新映射回原始的点云数据空间在解码器中,归一化后的一维特征向量V'首先经过第一线性层,得到一个长度为1024的一维向量V1,接着向量V1通过第一全连接层FC1。向量V1经过第一全连接层FC1中的线性层后被重塑成维度为M×M1的张量,对这个张量进行卷积,生成维度为的张量,再将其重塑成维度为的张量V1’。同时令向量V1通过第二线性层得到长度为512的一维向量V2,V2经过第二全连接层FC2中的线性层后被重塑成维度为M1×3的张量,对其进行卷积并扩展,生成维度为M1×1×3的张量V2’,最后将得到的张量V1’和V2’进行拼接与重塑操作,得到增强点云Ydetail,其维度为M×3,具体过程可以参考图3。
通过编码、解码两个步骤得到增强点云,从而为后续的点云边界分割模块提供高质量的点云数据。
步骤2.3子场景边界挖掘模块
利用子场景边界挖掘模块确定点的标签。为了更好地探索场景边界,需要在多个尺度上检查子采样点云中的边界,这样能使得在主干模型的不同子采样阶段均能进行边界点识别。由于在子采样之后很难得到边界点集的正确定义,所以在进行边界点识别之前,先引入一个子场景边界挖掘模块,以确定在每个子采样阶段中点的标签。由于每个子采样点都是从其先前的点云中的一组点聚合而来的;因此,首先对增强点云进行n次下采样程序迭代地确定点的标签。对于第n个采样阶段,子采样点云为Xn,其中的第i个点xi n的标签li n为li n=AVG({lj n-1|xj n-1∈Nn-1(xi n)})
其中Nn-1(xi n)表示第n-1阶段点xi n的局部邻域,xj n-1表示n-1阶段点xi n邻域中的某个点,本发明中将邻域设置为以点xi n为球心、半径为1cm的球状区域,AVG表示平均池化操作。通过该公式与真实数据标签相对比,可以得到子采样点云中标签的分布。
步骤2.4对比边界学习模块
利用对比边界学习模块进行点云边界分割。通过子场景边界挖掘模块确定点的标签,即可通过对比边界学习模块进行边界分割,通过将数据样本与其他相关或不相关的样本进行比较,使得相似样本在特征空间中更加接近,而不相似的样本之间更加远离,可以提高分割的准确率。在对比边界学习模块中,将上一步的子采样点云进行n次上采样,将子采样点云逐步恢复到原密度,同时在上采样的过程中对每个点进行邻域搜索,找到其周围的相邻点。对于每个点,根据其相邻点,采样若干个正对和负对。正对是指与当前点属于同一类别的相邻点对,而负对是指与当前点属于不同类别的相邻点对。接着,通过对比学习的方式来训练模型,对于每个点,计算其正负点对之间的损失函数值。通过损失函数值来优化模型参数,使得边界点能更好的区分开。最终,通过对比学习过程中得到的边界信息,对输入的点云数据进行分类,得到边界点云。
子场景边界挖掘模块与对比边界学习模块之间的连接采用了跳跃连接的结构,该结构能在网络的不同层之间建立了直接连接,使得信息可以跳过一些层级直接传递到后续的层级,从而在网络中形成了一种“捷径”,这种结构能够改善信息流动和梯度传播,从而提高神经网络的性能和训练效果。可实现对输入的点云数据进行边界分割进而得到边界点云,以便后续的检测和预警。
第三步、训练神经网络模型,具体参见图4
步骤3.1将步骤1.2中的3D打印混凝土墙点云数据进行随机顺序打乱,确保数据的顺序对神经网络模型的训练和验证结果没有影响;随机生成初始训练参数,例如学习率等。
步骤3.2使用训练集对神经网络模型PSC-Net进行300轮训练。同时,在训练过程中,每经过20轮训练,利用验证集进行一次验证,以了解神经网络模型PSC-Net的泛化性能并避免过拟合的问题。
步骤3.3利用损失函数调整神经网络参数,判断损失函数是否小于模型阈值,若不小于,则通过误差反向传播调整参数,若小于模型阈值,则利用验证集验证模型。每一轮神经网络模型PSC-Net的训练会生成一个损失函数值,神经网络模型PSC-Net的损失函数用L表示,计算公式如下:
Lcross entropy=-∑(ci*log(pi)),
其中Bl表示真实数据中的边界点集,xi表示所选取的中心点,xj表示xi邻域中的一个点;li和lj表示点xi和xj的真实标签;fi、fj表示点xi、xj的特征;d()是距离函数,用于测量两个特征之间的相似程度;τ表示对比学习中的温度超参数,用来调节相似性度量的敏感度;ci代表点所属的类别,pi表示模型预测的概率分布的向量,n代表第n个采样阶段,λ是损失权重;Ni表示中心点集。
子场景边界挖掘模块选择的损失函数为交叉熵函数(Lcross entropy),该损失函数用于衡量一个模型的预测结果与真实标签之间的差异,当真实标签与预测结果越接近时,交叉熵函数的值越小;反之则越大。对比边界学习模块的损失函数选择互信息最大化损失函数损失函数(LCBL)的泛化形式,互信息最大化损失函数损失函数主要用于衡量模型对于不同样本之间的相似性,在本发明中用于衡量真实边界和预测边界之间的相似性。最终的损失函数L为交叉熵函数和互信息最大化损失函数的结合,L的值越小,说明边界分割的效果越好。同时,在训练过程中不断进行误差反向传播,利用自适应矩估计梯度下降策略动态调整模型参数。随后利用更新后的模型参数对神经网络模型PSC-Net进行训练。
步骤3.4将以上步骤重复进行10次,共计对神经网络模型PSC-Net进行3000轮训练,此时损失函数的值已经小于模型阈值(一般设置为0.1%以内),说明模型已经达到收敛,可以利用验证集进行验证。同时需要说明的是,在训练过程中,每经过20轮训练,利用验证集进行一次验证,以了解模型的性能并避免过拟合的问题,过拟合是指模型在训练数据上表现非常好,但在未见过的测试数据上表现较差的现象。
步骤3.5利用测试集对神经网络模型PSC-Net的分割效果进行评估,利用边界交并比B-IoU评估点云边界分割效果
其中,Bl为真实的点云边界点集,Bp为预测结果中的点云边界点集。边界交并比的值越接近1,说明神经网络模型PSC-Net的分割效果越好。
神经网络模型PSC-Net在进行分割操作前,首先对输入的点云数据进行了一次数据增强,这样做可以增加点云样本多样性、使得数据更加完整功能,进而提升神经网络模型的鲁棒性。此外,神经网络模型PSC-Net的数据增强部分将原本的两次采样缩减为一次、在多层感知机后添加了一个归一化层;同时,将解码器中的三个全连接层缩减为两个,在保证点云数据完整性的同时加快了模型的运行速度,保证了实时性。最后,在边界分割部分使用对比学习方法,利用其能够让相似样本点距离更近、不同类样本距离更远的特性提升了整个模型的准确性。这样的点云分割模型拥有了鲁棒性、实时性以及准确性,进而提高3D混凝土挡墙的打印质量稳定性,确保打印结果满足设计要求。
第四步边界分割
步骤4.1设定3D打印设备的运行参数,例如喷头移动速度、喷头高度以及出料速度,参数的取值均根据以往的实际操作确定;设定完毕后开始装料打印。
步骤4.2使用深度相机扫描设备对正在打印中的3D打印混凝土墙进行实时扫描,以获取3D打印混凝土墙的点云数据。深度相机扫描设备能够实时捕捉3D打印混凝土墙表面的点云信息,并将其转化为三维坐标表示。
步骤4.3将获取到的3D打印混凝土墙点云数据输入到训练好的神经网络模型PSC-Net中。
步骤4.4经过神经网络模型PSC-Net的处理,可以从点云数据中准确分割出3D打印混凝土墙的边界点云,这些边界点云表示了3D打印混凝土墙不同层之间的边界线。接着,将分割到的3D打印混凝土挡墙边界点云存储到设备中,以备后续的质量稳定性控制和分析。
第五步3D打印混凝土墙层高检测
步骤5.1体素降采样并降维
选择固定大小的体素尺寸对神经网络模型PSC-Net输出的3D打印混凝土墙边界点云进行体素降采样,体素降采样是点云数据处理中的一种方法,它通过将点云空间划分为若干立方体体素网格,并在每个立方体体素网格中选择一个具有代表性的点,从而减少点云数据的数量和复杂性。将边界点云转化为若干均匀分布的立方体体素网格,得到一个矩形点阵,使得边界点云中的点像棋盘上的棋子一样在空间中排列。
将矩形点阵中每个点的x、y和z坐标值映射到三维空间中的相应轴上,形成一个空间点云。随后将所有点的y轴坐标删除,将三维转化为二维,减少数据的维度从而加快计算速度。计算所有点的x和z坐标之和,找到最小的和,并将对应的点设置为坐标原点,同时整个点阵进行平移,使得原点坐标变成(0,0)。
步骤5.2点阵分组
根据坐标变换后的点的z坐标进行分组,将点之间的z坐标差距在5%之内的点分为一组得到若干点集,并按照z坐标升序为每一组点集进行层号标记;已打印的混凝土墙施工层共有m组点集,已打印m层,m为大于0的整数。
步骤5.3统计偏离点数量
预设层高阈值,依次将下面一层的点集平移层高阈值后与邻近的上面一层的点集中的z坐标进行比较,将邻近的上面一层的点集中的z坐标大于下面一层的点集平移层高阈值后的坐标点记为偏离点,并统计各层偏离点的数量;
即将第i组点集沿着z轴正方向平移预设的层高阈值的距离,并统计在第i+1组点集中z坐标值大于第i组点集中对应点平移后的z坐标值的个数,称这些点为第i+1组点集的偏离点,将第i+1组点集的偏离点数量与第i+1层的层号进行对应,获得所有已打印的混凝土墙施工层的偏离点数量和层号。
步骤5.4将体素降采样点从已打印的混凝土墙施工层的边界点云中删去,判断已打印的混凝土墙施工层的边界点云中剩余点的数量是否不大于50%,若大于50%,则重复步骤5.1-步骤5.3,重新对剩余点进行体素降采样、降维、点阵分组、偏离点数量统计,获得下一轮的所有已打印的混凝土墙施工层的偏离点数量和层号;若不大于50%,则停止偏离点寻找;将所有轮的每一层的偏离点数量全部相加,获得已打印的混凝土墙施工层的最终的每层的偏离点数量;
计算机将每一轮统计得到的偏离点数量与其对应的层号储存到存储设备中,同时将体素降采样点从已打印的混凝土墙施工层的边界点云中删去,以避免重复采样。随后,针对剩余数据,重新进行体素降采样、降维和分组操作,并对新的数据进行统计。这个过程循环往复,直至点云内的50%的点被删除。
步骤5.5稳定性控制
设置稳定比例阈值,本实施例设置为15%,利用最终的每层偏离点数量和对应层号绘制柱状图,柱状图的横坐标为层号,纵坐标为某层中偏离点数量与当前层所有点数的比值;若最上面一层中偏离点数量与当前层所有点数的比值超过稳定比例阈值,则说明该层的高度超过了层高阈值,当前打印过程不稳定,需要调整,发送预警信号;若未超过稳定比例阈值,则层高符合标准,打印过程稳定。
柱状图反映了3D打印混凝土墙的每一层中偏离点的比例,更加直观。
第六步控制与异常记录
步骤6.1当接收到预警信号时,调整打印设备的参数,包括加快或降低打印机喷头移动速度、降低或升高喷头高度、加快或降低出料速度,通过数据调整将层高稳定在层高阈值范围内,并提醒相关人员查看打印情况。
步骤6.2在处理异常情况的同时将此次异常情况的数据记录到存储设备中。记录的数据包括异常发生的时间、异常的具体参数偏差情况、处理过程中的调整结果等相关信息。
本发明中所使用的硬件设备包括:
处理器:作为本发明的核心部件,处理器在整个系统中承担着关键的控制和管理责任,涵盖了数据采集、数据处理、图像识别以及报警等多项关键功能。其功能强大的计算能力和并行处理能力,确保了系统的高效运行和实时性要求的满足。根据不同的应用场景需求,处理器可以采用单片机、微处理器、计算机等多种不同的实现形式。这些优越的性能特点保障了本发明在实际应用中取得出色的成果,为3D打印混凝土墙打印质量监测提供了可靠的技术支持。
传感器:用于实时监测打印过程中的参数和状态。例如,激光测距仪、视觉传感器等用于测量挡墙的层高、形状和位置,以及检测打印过程中的偏差和误差。
3D打印设备:这是实现3D混凝土墙打印的核心设备,用于将混凝土材料按照预定的路径和层高逐层打印出混凝土墙的结构。这些3D打印设备通常是大型的建筑型3D打印机,能够按照复杂的设计要求实现混凝土的连续打印。
存储器:用于储存采集的数据和历史数据,以备后续处理和分析之用。它拥有高速度、高可靠性和可扩展性等优良特性,以满足系统长期稳定运行所需。
控制单元:用于控制3D打印设备的运动和操作,包括计算机或嵌入式控制器,负责执行打印路径的规划和控制。
数据处理和分析设备:用于点云数据的处理、分析和实时反馈。这些设备包括计算机、GPU等,用于运行点云分割算法和实时处理点云数据。
通信设备:用于传输数据和指令,确保系统与传感器、打印设备之间的通讯连接。
网络接口:用于进行数据交换和通信。
其他辅助设备:如电源设备、冷却装置等,用于支持3D打印设备的正常运行。
本实施例主要应用于3D打印混凝土墙打印过程中的质量监测,利用3D打印设备上安装的深度相机,利用神经网络自动识别3D打印混凝土墙的层边界,对3D打印混凝土墙的层高进行监测,当超过阈值后自动报警,从而自动调整打印设备参数并进行记录异常。
实施例2:本实施例基于点云边界分割的3D打印层质量监测系统,所述系统包括:点云获取模块,用于获取3D打印混凝土墙施工过程中的点云数据;
点云预处理模块,用于对点云数据进行预处理,获得规范化、优质的点云数据;
点云获取模块和点云预处理模块负责获取实际场景中的3D打印混凝土墙点云数据,并对这些数据进行预处理和优化,以便后续的点云增强与分割任务。
层高检测模块,用于实时监测施工过程中的层高是否满足打印要求;
预警调整模块,用于对层高检测模块监测到的稳定性异常情况进行预警,并调整3D打印设备的控制单元对3D打印参数进行调整,包括加快或降低打印机喷头移动速度、降低或升高喷头高度、加快或降低出料速度;同时提示工作人员检查材料状态;
显示模块,用于对实时打印过程中层高检测模块输出的监测结果进行显示;
存储模块,用于对采集的数据和监测过程中的数据进行存储;
点云边界分割模型,用于进行点云边界分割,获得已打印的3D打印混凝土墙施工层的边界点云;
层高检测模块的具体实现过程是:
步骤5.1体素降采样并降维
对已打印的混凝土墙施工层的边界点云进行体素降采样,得到一个矩形点阵;将矩形点阵中每个点的x、y和z坐标值映射到三维空间中的相应轴上,形成一个空间点云;随后将所有点的y轴坐标删除,将三维转化为二维,计算所有点的x和z坐标之和,找到最小的和,并将最小的和对应的点设置为坐标原点,同时整个边界点云形成的矩形点阵进行平移,使得原点坐标变成(0,0),完成坐标变换;
步骤5.2点阵分组
根据坐标变换后的点的z坐标进行分组,将点之间的z坐标差距在5%之内的点分为一组得到若干点集,并按照z坐标升序为每一组点集进行层号标记;已打印的混凝土墙施工层共有m组点集,已打印m层,m为大于0的整数;
步骤5.3统计偏离点数量
预设层高阈值,依次将下面一层的点集平移层高阈值后与邻近的上面一层的点集中的z坐标进行比较,将邻近的上面一层的点集中的z坐标大于下面一层的点集平移层高阈值后的坐标点记为偏离点,并统计各层偏离点的数量;
步骤5.4将体素降采样点从已打印的混凝土墙施工层的边界点云中删去,判断已打印的混凝土墙施工层的边界点云中剩余点的数量是否不大于50%,若大于50%,则重复步骤1.1-步骤1.3,重新对剩余点进行体素降采样、降维、点阵分组、偏离点数量统计,获得下一轮的所有已打印的混凝土墙施工层的偏离点数量和层号;若不大于50%,则停止偏离点寻找;
将所有轮的每一层的偏离点数量全部相加,获得已打印的混凝土墙施工层的最终的每层的偏离点数量;
步骤5.5稳定性控制
设置稳定比例阈值,本实施例设置为15%,利用最终的每层的偏离点数量和对应的层号绘制柱状图,柱状图的横坐标为层号,纵坐标为某层中偏离点数量与当前层所有点数的比值;若最上面一层中偏离点数量与当前层所有点数的比值超过稳定比例阈值,则说明该层的高度超过了层高阈值,当前打印过程不稳定,需要预警调整;若未超过稳定比例阈值,则层高符合标准,打印过程稳定。
在本说明书中,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
本发明提旨在解决当前3D打印过程中依赖人工监测所带来的问题。传统的人工监测方法耗费大量人力和经济成本,而且容易出现疏漏或误判,人工监测也很难快速准确地测量出3D打印混凝土墙施工过程中的实时层高稳定性,无法做出快速准确的判断。本发明可以自动调整打印设备参数和进行材料状态检查,相较于现有技术,本技术方案具有以下优势和应用前景:保障施工人员的安全、减少人工成本、提升打印效率、保证打印产品质量,并为追求更大规模建筑级别的3D打印提供了可能性。这对于3D打印行业来说具有重大意义,具有广阔的应用前景。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
本发明未述及之处适用于现有技术。
Claims (7)
1.一种基于点云分割的3D打印混凝土墙质量监测方法,其特征在于,所述监测方法包括以下内容:
获取3D打印混凝土墙施工过程中的点云数据并将点云坐标进行归一化处理;
构建神经网络模型PSC-Net,所述神经网络模型PSC-Net包括编码器、解码器、子场景边界挖掘模块以及对比边界学习模块;
利用混凝土墙施工过程中的点云数据训练神经网络模型PSC-Net,获得训练后的神经网络模型PSC-Net,利用训练后的神经网络模型PSC-Net进行点云边界分割,获得已打印的混凝土墙施工层的边界点云;
层高检测:
步骤5.1体素降采样并降维
对已打印的混凝土墙施工层的边界点云进行体素降采样,得到一个矩形点阵;将矩形点阵中每个点的x、y和z坐标值映射到三维空间中的相应轴上,形成一个空间点云;随后将所有点的y轴坐标删除,将三维转化为二维,计算所有点的x和z坐标之和,找到最小的和,并将最小的和对应的点设置为坐标原点,同时整个边界点云形成的矩形点阵进行平移,使得原点坐标变成(0,0),完成坐标变换;
步骤5.2点阵分组
根据坐标变换后的点的z坐标进行分组,将z坐标差距在5%之内的点分为一组,得到若干点集,并按照z坐标升序为每一组点集进行层号标记;已打印的混凝土墙施工层共有m组点集,已打印m层,m为正整数;
步骤5.3统计偏离点数量
预设层高阈值,依次将下面一层的点集平移层高阈值后与邻近的上面一层的点集中的z坐标进行比较,将邻近的上面一层的点集中的z坐标大于下面一层的点集平移层高阈值后的坐标点记为偏离点,并统计各层偏离点的数量;
步骤5.4将体素降采样点从已打印的混凝土墙施工层的边界点云中删去,判断已打印的混凝土墙施工层的边界点云中剩余点的数量是否不大于50%,若大于50%,则重复步骤5.1-步骤5.3,重新对剩余点进行体素降采样、降维、点阵分组、统计偏离点数量,获得下一轮的所有已打印的混凝土墙施工层的偏离点数量和层号;若不大于50%,则停止偏离点寻找;
将所有轮的每一层的偏离点数量全部相加,获得已打印的混凝土墙施工层的最终的每层的偏离点数量;
步骤5.5稳定性控制
设置稳定比例阈值,利用最终的每层的偏离点数量和对应的层号绘制柱状图,柱状图的横坐标为层号,纵坐标为某层中偏离点数量与当前层所有点数的比值;若最上面一层中偏离点数量与该层所有点数的比值超过稳定比例阈值15%,则说明最上面一层的高度超过了层高阈值,当前打印过程不稳定,需要预警调整;若未超过稳定比例阈值,则层高符合标准,打印过程稳定。
2.根据权利要求1所述的监测方法,其特征在于,在所述编码器中,对输入维度为N×3的原始点云进行迭代最远点采样得到维度为的下采样点云,N为点云中点的个数,3为点的空间三维坐标;将原始点云和下采样点云分别输入到两个组合多层感知机模块中,分别得到两个维度相同的潜在特征向量,将这两个潜在特征向量进行拼接获得潜在特征图,潜在特征图再经过一个多层感知机和一个L2范数归一化层,获得归一化后的一维特征向量V',V'记为编码器的输出;
利用解码器将V'重新映射回原始的点云数据空间,在解码器中,V'首先经过第一线性层,得到一个一维向量V1,V1经过第二线性层得到一维向量V2;V2的长度为V1长度的一半,V1和V2分别连接第一全连接层FC1和第二全连接层FC2;第一全连接层FC1和第二全连接层FC2的输出进行相加操作,输出增强点云Ydetail,Ydetail记为解码器的输出;
解码器的输出连接子场景边界挖掘模块以及对比边界学习模块,利用子场景边界挖掘模块确定点的标签,通过对比边界学习模块进行边界分割,所述子场景边界挖掘模块包括n次降采样,所述对比边界学习模块包括n次上采样,子场景边界挖掘模块的第一次降采样的结果与对比边界学习模块的第n次上采样的结果进行跳跃连接,子场景边界挖掘模块的第n次降采样的结果与对比边界学习模块的第一次上采样的结果进行跳跃连接;
对比边界学习模块输出边界点云。
3.根据权利要求2所述的监测方法,其特征在于,所述组合多层感知机模块包含四个组合感知机层,每个组合感知机层分别由1、2、3、4个感知机串联拼接在一起,输入的点云数据分别通过四个组合感知机层处理产生四个特征向量;随后对这四个特征向量均进行平均池化操作,将四个平均池化操作处理后的结果进行拼接,获得潜在特征向量。
4.根据权利要求2所述的监测方法,其特征在于,所述神经网络模型PSC-Net的损失函数L由子场景边界挖掘模块的交叉熵函数Lcross entropy和对比边界学习模块的损失函数LCBL组成,
用下式表示:
Lcross entropy=-∑(ci*log(pi))
其中Bl表示真实数据中的边界点集,xi表示所选取的中心点,xj表示xi邻域中的一个点;li和lj表示点xi和xj的真实标签;fi、fj表示点xi、xj的特征;d()是距离函数;τ表示对比学习中的温度超参数;ci代表点所属的类别,pi表示模型预测的概率分布的向量,n代表第n个采样阶段,λ是损失权重;Ni表示中心点集。
5.根据权利要求1所述的监测方法,其特征在于,所述稳定比例阈值为15%。
6.一种基于点云分割的3D打印混凝土墙质量监测系统,其特征在于,所述系统包括:
点云获取模块,用于获取3D打印混凝土墙施工过程中的点云数据;
点云预处理模块,用于对点云数据进行预处理,获得规范化、优质的点云数据;
层高检测模块,用于实时监测施工过程中的层高是否满足打印要求;
预警调整模块,用于对层高检测模块监测到的稳定性异常情况进行预警,并调整3D打印设备的控制单元对3D打印参数进行调整,包括加快或降低打印机喷头移动速度、降低或升高喷头高度、加快或降低出料速度;同时提示工作人员检查材料状态;
显示模块,用于对实时打印过程中层高检测模块输出的监测结果进行显示;
存储模块,用于对采集的数据和监测过程中的数据进行存储;
点云边界分割模型,用于进行点云边界分割,获得已打印的混凝土墙施工层的边界点云;
所述层高检测模块的具体实现过程是:
步骤5.1体素降采样并降维
对已打印的混凝土墙施工层的边界点云进行体素降采样,得到一个矩形点阵;将矩形点阵中每个点的x、y和z坐标值映射到三维空间中的相应轴上,形成一个空间点云;随后将所有点的y轴坐标删除,将三维转化为二维,计算所有点的x和z坐标之和,找到最小的和,并将最小的和对应的点设置为坐标原点,同时整个边界点云形成的矩形点阵进行平移,使得原点坐标变成(0,0),完成坐标变换;
步骤5.2点阵分组
根据坐标变换后的点的z坐标进行分组,将z坐标差距在5%之内的点分为一组,得到若干点集,并按照z坐标升序为每一组点集进行层号标记;已打印的混凝土墙施工层共有m组点集,已打印m层,m为正整数;
步骤5.3统计偏离点数量
预设层高阈值,依次将下面一层的点集平移层高阈值后与邻近的上面一层的点集中的z坐标进行比较,将邻近的上面一层的点集中的z坐标大于下面一层的点集平移层高阈值后的坐标点记为偏离点,并统计各层偏离点的数量;
步骤5.4将体素降采样点从已打印的混凝土墙施工层的边界点云中删去,判断已打印的混凝土墙施工层的边界点云中剩余点的数量是否不大于50%,若大于50%,则重复步骤5.1-步骤5.3,重新对剩余点进行体素降采样、降维、点阵分组、统计偏离点数量,获得下一轮的所有已打印的混凝土墙施工层的偏离点数量和层号;若不大于50%,则停止偏离点寻找;
将所有轮的每一层的偏离点数量全部相加,获得已打印的混凝土墙施工层的最终的每层的偏离点数量;
步骤5.5稳定性控制
设置稳定比例阈值,利用最终的每层的偏离点数量和对应的层号绘制柱状图,柱状图的横坐标为层号,纵坐标为某层中偏离点数量与当前层所有点数的比值;若最上面一层中偏离点数量与该层所有点数的比值超过稳定比例阈值15%,则说明最上面一层的高度超过了层高阈值,当前打印过程不稳定,需要预警调整;若未超过稳定比例阈值,则层高符合标准,打印过程稳定。
7.根据权利要求6所述的监测系统,其特征在于,所述点云边界分割模型为神经网络模型PSC-Net,所述神经网络模型PSC-Net包括依次连接的编码器、解码器、子场景边界挖掘模块以及对比边界学习模块。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311069716.2A CN117011280A (zh) | 2023-08-24 | 2023-08-24 | 基于点云分割的3d打印混凝土墙质量监测方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311069716.2A CN117011280A (zh) | 2023-08-24 | 2023-08-24 | 基于点云分割的3d打印混凝土墙质量监测方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117011280A true CN117011280A (zh) | 2023-11-07 |
Family
ID=88574362
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311069716.2A Pending CN117011280A (zh) | 2023-08-24 | 2023-08-24 | 基于点云分割的3d打印混凝土墙质量监测方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117011280A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117408999A (zh) * | 2023-12-13 | 2024-01-16 | 安格利(成都)仪器设备有限公司 | 一种利用点云补全自动检测容器和管道腐蚀坑的方法 |
-
2023
- 2023-08-24 CN CN202311069716.2A patent/CN117011280A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117408999A (zh) * | 2023-12-13 | 2024-01-16 | 安格利(成都)仪器设备有限公司 | 一种利用点云补全自动检测容器和管道腐蚀坑的方法 |
CN117408999B (zh) * | 2023-12-13 | 2024-02-20 | 安格利(成都)仪器设备有限公司 | 一种利用点云补全自动检测容器和管道腐蚀坑的方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108764048B (zh) | 人脸关键点检测方法及装置 | |
CN107945161B (zh) | 基于纹理特征提取的道路表面缺陷检测方法 | |
CN111079640B (zh) | 一种基于自动扩增样本的车型识别方法及系统 | |
CN111178206A (zh) | 一种基于改进yolo的建筑预埋件检测方法及系统 | |
CN112164115B (zh) | 物体位姿识别的方法、装置及计算机存储介质 | |
CN110399820B (zh) | 一种公路路边景物视觉识别分析方法 | |
CN115331172A (zh) | 一种基于监控视频的车间危险行为识别报警方法及系统 | |
CN117011280A (zh) | 基于点云分割的3d打印混凝土墙质量监测方法及系统 | |
CN116052026B (zh) | 一种无人机航拍图像目标检测方法、系统及存储介质 | |
CN115205604A (zh) | 基于改进YOLOv5的化工生产过程中安全防护品佩戴检测方法 | |
CN115439694A (zh) | 一种基于深度学习的高精度点云补全方法及装置 | |
CN116912675B (zh) | 一种基于特征迁移的水下目标检测方法及系统 | |
CN116519106B (zh) | 一种用于测定生猪体重的方法、装置、存储介质和设备 | |
CN112270289A (zh) | 一种基于图卷积注意力网络的智能监测方法 | |
CN116129234A (zh) | 一种基于注意力的4d毫米波雷达与视觉的融合方法 | |
CN116259008A (zh) | 一种基于计算机视觉的水位实时监测方法 | |
Zhao et al. | A quality metric for 3d lidar point cloud based on vision tasks | |
CN117115140B (zh) | 基于点云分割配准的3d打印混凝土柱表面裂缝检测方法 | |
Wang | Recognition and Positioning of Container Lock Holes for Intelligent Handling Terminal Based on Convolutional Neural Network. | |
CN117788961B (zh) | 基于视频图像的河道渠系悬移质含沙量监测方法及系统 | |
CN114998990B (zh) | 一种工地人员安全行为识别方法及装置 | |
CN117523428B (zh) | 基于飞行器平台的地面目标检测方法和装置 | |
CN117274723B (zh) | 一种用于输电巡检的目标识别方法、系统、介质及设备 | |
CN117495065B (zh) | 一种仓储机器人视觉识别的设备智能调度方法 | |
Gong et al. | Water Surface Object Detection Based on Neural Style Learning Algorithm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |