CN115393294A - 基于rgb-d特征分层融合的焊缝检测与分割方法及装置 - Google Patents

基于rgb-d特征分层融合的焊缝检测与分割方法及装置 Download PDF

Info

Publication number
CN115393294A
CN115393294A CN202210968239.2A CN202210968239A CN115393294A CN 115393294 A CN115393294 A CN 115393294A CN 202210968239 A CN202210968239 A CN 202210968239A CN 115393294 A CN115393294 A CN 115393294A
Authority
CN
China
Prior art keywords
rgb
feature
module
mask
plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210968239.2A
Other languages
English (en)
Inventor
龚烨飞
钱堃
展思民
程艳花
赵广志
郭敬
王旭
曹利
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu Beiren Intelligent Manufacturing Technology Co ltd
Changshu Institute of Technology
Original Assignee
Jiangsu Beiren Intelligent Manufacturing Technology Co ltd
Changshu Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu Beiren Intelligent Manufacturing Technology Co ltd, Changshu Institute of Technology filed Critical Jiangsu Beiren Intelligent Manufacturing Technology Co ltd
Priority to CN202210968239.2A priority Critical patent/CN115393294A/zh
Publication of CN115393294A publication Critical patent/CN115393294A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于RGB‑D特征分层融合的焊缝检测与分割方法,包括以下步骤:对焊缝的RGB图像和点云数据进行多平面分割预处理,得到各平面的RGB‑D数据;将得到的各平面的RGB‑D数据输入改进的Mask R‑CNN模型中识别分割,改进的Mask R‑CNN模型包括在主干网络中由ResNet‑FPN对RGB‑D数据的RGB图像和深度图像分别逐层提取特征,然后逐层地将深度特征与RGB特征采用注意力感知的RGB与深度特征融合模块来进行特征融合,在特征金字塔中对RGB特征进行下采样的每一层都使用与之对应的深度特征进行融合,并且将融合后的特征逐层传递到特征金字塔的上采样过程中。本发明还公开了相应的分割装置,本发明方法及装置适应多平面焊缝的检测,可提高分割精度。

Description

基于RGB-D特征分层融合的焊缝检测与分割方法及装置
技术领域
本发明涉及一种焊缝检测分割方法及装置,特别是涉及一种基于RGB-D特征分层融合的焊缝检测与分割方法及装置。
背景技术
从复杂工业场景中对工件多平面上的焊缝进行精确的实例分割和定位,是准确引导铣削与打磨机器人的重要前提。传统的几何方法通常依赖于焊缝的纹理信息,无法适用于较为复杂的工业场景,且无法处理工件被遮挡的情况。基于深度学习的2D分割模型可以解决图像中的噪声和不均匀问题,Mask R-CNN就是一种实例分割网络,但是其掩码由28*28的特征图转化而来,因此对目标的分割不够精细。利用点云数据进行分割的3D深度神经网络则处理速度一般较慢。
总的来说,将基于深度学习的方法用于焊缝检测与分割,存在以下难点和挑战。首先,3D分割模型由于3D点云的复杂性运行速度一般较慢,难以满足工业检测需求;其次,由于焊缝形态复杂各异、工件上的多条焊缝可能位于多个不同平面,仅从图像来判断极易出现漏检。此外,由于现场光照条件变化,以及存在曝光过度或曝光不足等情况,经典的MaskRCNN算法易出现漏检、焊缝提取不完整、边界精度低等问题。
发明内容
针对上述现有技术的缺陷,本发明提供了一种基于RGB-D特征分层融合的焊缝检测与分割方法,本发明还提供了一种基于RGB-D特征分层融合的焊缝检测与分割装置,目的是提高焊缝检测分割精度。
本发明技术方案如下:一种基于RGB-D特征分层融合的焊缝检测与分割方法,包括以下步骤:步骤一、对焊缝的RGB图像和点云数据进行多平面分割预处理,得到各平面的RGB-D数据;步骤二、将得到的各平面的RGB-D数据输入改进的Mask R-CNN模型中识别分割,所述改进的Mask R-CNN模型包括在主干网络中由ResNet-FPN对RGB-D数据的RGB图像和深度图像分别逐层提取特征,然后逐层地将深度特征与RGB特征采用注意力感知的RGB与深度特征融合模块来进行特征融合,在特征金字塔中对RGB特征进行下采样的每一层都使用与之对应的深度特征进行融合,并且将融合后的特征逐层传递到特征金字塔的上采样过程中。
进一步地,所述注意力感知的RGB与深度特征融合模块包括通道注意力模块和空间注意力模块,所述通道注意力模块为SE模块,所述注意力感知的RGB与深度特征融合模块将所述深度特征经过所述SE模块的结果、所述深度特征经过所述空间注意力模块后与所述RGB特征交叉点乘的结果、所述RGB特征经过所述空间注意力模块后与所述特征交叉点乘的结果以及所述RGB特征经过所述SE模块的结果相加进行输出。RGB特征与深度特征交叉点乘能更好地表示工件图像的颜色、纹理、形状与深度信息。
进一步地,所述空间注意力模块对特征图先进行通道数压缩,然后由两个空洞卷积进行特征提取,最后对通道数进行还原再使用sigmod函数激活输出。通过空洞卷积提取的特征可以较好地保留空间信息。
进一步地,所述对焊缝的RGB图像和点云数据进行多平面分割预处理,包括以下步骤:S1、使用体素滤波对点云数据进行下采样;S2、使用统计滤波剔除点云中的离群点;S3、使用随机一致性采样方法拟合平面,得到俯仰角和翻滚角,再利用俯仰角和翻滚角将所述拟合平面的点云旋转至法向量平行于z轴;S4、根据工件的RGB图像和点云数据的对应关系分割出所述拟合平面对应的RGB-D图像,移除点云中的所述拟合平面;S5、重复步骤S3、S4,得到各平面的RGB-D数据。
进一步地,所述步骤S5中重复步骤S3、S4直至所述点云中剩余数据小于阈值时停止,所述阈值为点云中剩余数据量与点云数据总量的百分比。
进一步地,所述改进的Mask R-CNN模型包括在Mask R-CNN模型中增加MaskGIoUHead模块,所述Mask R-CNN模型的Mask Head的输出通过卷积及最大化池化后与Mask Head模块的输入特征图进行拼接构成MaskGIoU Head模块的输入,所述MaskGIoU Head模块中使用4个卷积层及3个全连接层依次连接,最后一个全连接层的输出设置为类的数量,所述MaskGIoU Head模块的损失函数定义为,
Figure BDA0003795749980000021
Figure BDA0003795749980000022
LMaskGIoU=1-GIoU
其中\是求补集,B是预测边界框,Bgt是真实边界框,C是覆盖预测边界框与真实边界框之间的最小框。
进一步地,在所述Mask Head模块中14×14×256特征图到28×28×256特征图的反卷积层前添加特征金字塔网络。
本发明的另一技术方案如下:一种基于RGB-D特征分层融合的焊缝检测与分割装置,包括控制模块,所述控制模块包括处理器以及存储器,所述存储器上存储有计算机程序,所述计算机程序被所述处理器执行时,实现上述的基于RGB-D特征分层融合的焊缝检测与分割方法。
本发明所提供的技术方案的优点在于:
本发明通过RGB图像和点云数据进行多平面分割预处理及对Mask R-CNN模型的改进使RGB特征和深度特征融合,提高了多平面焊缝的检测精度。
附图说明
图1是基于RGB-D特征分层融合的焊缝检测与分割方法步骤示意图。
图2是多平面分割方法流程示意图。
图3是改进的Mask R-CNN模型的主干网络融合结构示意图。
图4是注意力感知的RGB与深度特征融合模块结构示意图。
图5是改进Mask R-CNN模型网络结构示意图。
图6是实施例实验中待分割的工件原始图。
图7是直接对原图使用Mask R-CNN进行分割的结果图。
图8是基于RGB-D特征分层融合的焊缝检测与分割方法的结果图。
具体实施方式
下面结合实施例对本发明作进一步说明,应理解这些实施例仅用于说明本发明而不用于限制本发明的范围,在阅读了本说明之后,本领域技术人员对本说明的各种等同形式的修改均落于本申请所附权利要求所限定的范围内。
请结合图1所示,本发明实施例的基于RGB-D特征分层融合的焊缝检测与分割方法包括步骤一、对焊缝的RGB图像和点云数据进行多平面分割预处理,得到各平面的RGB-D数据;步骤二、将得到的各平面的RGB-D数据输入改进的Mask R-CNN模型中识别分割。
工业现场待焊接的工件RGB-D数据由结构光相机采集,其中RGB图像以三通道灰度图的形式存储为png格式,深度信息存储为pcd格式的rgb彩色有序点云,二者分辨率均为1920×1200。不同焊缝可能分布在工件的同一平面上,也可能分布在不同平面,还可能是跨越两个不同平面,但从其上方拍摄的图像中它是在一个平面的。为了将容易被识别为一条焊缝的情形确保识别为两条不同平面上的焊缝,需要先对工件的不同平面进行分割。
请结合图2所示,在多平面分割方法中,首先使用体素滤波对点云进行下采样,虽然与体素滤波器相比,随机下采样的效率更高,但会破坏点云的微观结构。采用体素滤波器对点云进行下采样处理,既可以降低点云的密集程度,又可以保持其结构特征,方便后续的平面拟合。体素滤波器采用VoexlGrid,输入的点云数据被构建为一个三维体素栅格,滤波后只保留每个体素内所有点的重心,虽然使用体素中心速度更快,但将重心作为采样点可以更精确地表示表示曲面。VoexlGrid计算的具体过程是,先计算点云最小包围盒的边长lx、ly、lz
Figure BDA0003795749980000041
其中,xmax、ymax、zmax和xmin、ymin、zmin分别为点云在XYZ三个坐标轴上的最大值和最小值。然后计算体素在XYZ三个方向的数量,
Figure BDA0003795749980000042
其中,Dx、Dy、Dz分别表示每个体素在XYZ方向上的数量,r为预先设置的体素栅格的边长为,
Figure BDA0003795749980000045
表示向下取整。接着,计算每个体素在点云中的一维索引,
Figure BDA0003795749980000043
其中,hx、hy、hz表示体素的三维索引。最后,将集合h中的元素从小到大排列,保留每个体素的重点,舍弃其他点。
此时点云中仍存在一些由测量噪声引入的离群点,它们在空间中的分布较为稀疏。使用统计滤波剔除点云中的离群点。具体计算过程为,首先计算点云中每个点到其他k个点之间的距离的平均值μ和标准差σ,当某个点距离k个点的平均距离在(μ-σ·std,μ+σ·std)内时保留,否则判为离群点并剔除,其中k和std是预设的两个阈值。
接着使用随机一致性采样(RANSAC)方法拟合主平面,具体包括步骤:选择平面中的三个点作为模型的最小数据集;使用这三个点计算出平面方程;计算其他点到该平面的距离,若小于阈值,则点在该平面上;以内点数量为基准,比较当前平面方程与之前最好的平面方程,保留内点数最多的平面方程;迭代N次后停止,返回内点数最多的平面方程的参数。RANSAC拟合得到的工件点云的主平面方程为:
A·x+B·y+C·z=D
将主平面点云分别投影到XZ和YZ平面上,得到两个直线方程,
Figure BDA0003795749980000044
根据直线方程的参数计算得到两条直线的倾斜角,作为旋转点云的翻滚角(roll)和俯仰角(pitch),
Figure BDA0003795749980000051
再利用这两个角度将该拟合平面点云旋转至法向量平行于z轴。
最后根据工件的RGB图像和点云数据的对应关系分割出该拟合平面对应的RGB-D图像,移除点云中的该平面,对剩余的外点再次进行RANSAC平面分割,即重复上述过程直到点云最终剩余点数量小于阈值(总数量的某个百分比),一般选取经验值20%作为阈值。
为了降低计算量,平面方程的拟合在稀疏点云中进行计算,得到的平面方程在原始稠密有序点云中提取位于每个平面上下4mm范围内的点云作为该平面的点云集合,离群点使用NAN值进行填充,最终分割得到的多平面稠密有序点云,分辨率为1920×1200。分割后的每个平面的有序点云的Z轴方向上的深度归一化并映射到[0,255],根据点云中每个点在宽度和长度上的编号,生成灰度图形式的深度图像,灰度值越大,深度越深,纯白色(即灰度值为255)表示无限远的背景。借助每个平面的有序点云,对应到RGB图像中的每个像素点,将一张RGB图像拓展为多张,每张图像上只保留一个工件平面,背景用纯白填充。
改进的Mask R-CNN模型具体以Mask R-CNN模型中的ResNet-FPN为主干网络,假设输入的RGB和深度图像分辨率都为1248×768。经过ResNet-FPN对两者分别逐层提取特征,然后逐层地将深度特征与RGB特征采用图3所示的结构来进行特征融合,在特征金字塔中对RGB特征进行下采样的每一层都使用与之对应的深度特征进行融合,并且将融合后的特征逐层传递到特征金字塔的上采样过程中。图中向上的箭头表示ResNet的残差块(ResidualBlock),fusion是注意力感知的RGB与深度特征融合模块,虚线框内是原Mask R-CNN模型中原始的主干网络ResNet-FPN。
注意力感知的RGB与深度特征融合模块同时对RGB特征和深度特征使用通道注意力与空间注意力,RGB特征和深度特征通过空间注意力相互交叉融合,最后相加得到融合后的特征,融合后的特征结合了RGB特征与深度特征的优点,对图像的颜色、纹理、形状与深度信息具有较强的表示能力。请结合图4所示,其中
Figure BDA0003795749980000052
为矩阵相加,
Figure BDA0003795749980000053
为矩阵点乘,
Figure BDA0003795749980000054
为sigmod函数,d-dilated conv为空洞卷积。注意力感知的RGB与深度特征融合模块的具体结构是这样的,该融合模块呈对称状,RGB特征与深度特征都通过一个通道注意力模块和一个空间注意力模块。通道注意力使用的是Squeeze and Excitation(SE)模块,空间注意力则先将通道数压缩到原来的1/r,再通过2个卷积核为3×3,膨胀率为d的空洞卷积进行特征提取,再将通道还原并使用sigmod函数激活后与深度特征(RGB特征)进行交叉点乘,最后将4个经过注意力模块的特征相加,得到融合后的特征,其尺寸与原RGB特征和深度特征相同。空洞卷积具有更大的感受野,由其提取的特征可以较好地保留空间信息,RGB特征与深度特征交叉点乘得到的特征能更好地表示工件图像的颜色、纹理、形状与深度信息。本实施例中降维系数r=16,空洞卷积的扩张率d=4。
另外,请结合图5所示,其中
Figure BDA0003795749980000061
为矩阵相加,
Figure BDA0003795749980000062
为矩阵拼接。本发明在MaskR-CNN模型中加入MaskGIoU Head模块,Mask Head模块的输出通过卷积及最大化池化后与Mask Head模块的输入14×14×256特征图进行拼接构成MaskGIoU Head模块的输入,MaskGIoU Head模块中使用4个卷积层及3个全连接层进行操作,前两个全连接层的输出设置为1024,最后一个全连接层的输出设置为类的数量。该模型在推理阶段得到了预测的Mask分数,通过将预测的Mask分数与分类分数相乘来重新评估Mask分数。MaskGIoU Head使焊缝的预测框更加精准,能够更好地把整个焊缝框进去,提高了对焊缝的定位能力。除此以外,本发明模型还将Mask Scoring R-CNN中的MaskIoU Head的用作于损失函数的IoU替换为GIoU,有效解决了训练初期由于Mask预测框与真实框之间没有重合部分而导致无法优化的问题,MaskGIoU Head的损失函数定义如公式(3)所示,
Figure BDA0003795749980000063
Figure BDA0003795749980000064
LMaskGIoU=1-GIoU (3)
其中\是求补集,即
Figure BDA0003795749980000065
B是预测边界框,Bgt是真实边界框,C是覆盖预测边界框与真实边界框之间的最小框。对于预测框与真实框不重叠的情况,GIoU通过向目标框缓慢移动来增加二者的重叠区域以达到最大化预测框与真实框之间重叠区域的目的,这是一个不断迭代的过程。使用GIoU可以解决预测框与真实框无重叠区域造成的梯度消失问题,可以得到比IoU损失函数更高精度的预测框。
为了进一步提升焊缝分割精度,在Mask R-CNN模型Mask Head中构建特征金字塔网络,融合了特征图多尺度特征,使得Mask Head中28×28×C的特征图更加精细,由于大型焊缝特征的准确表达对28×28×C的特征图要求更高,更加精细的特征图对大型焊缝特征有了更高精度的表达,最后转换为输出的焊缝掩码时提高了焊缝分割的边界质量框。具体地,在Mask Head中14×14×256特征图到28×28×256特征图的反卷积层前添加一个小型特征金字塔网络,即对14×14×256特征图进行卷积得到7×7×256再反卷积得到14×14×256后与前述的反卷积层前的14×14×256特征图进行矩阵相加,再经过反卷积层得到28×28×256特征图。该操作实现了对14×14×256特征图的多尺度特征融合,同时关注焊缝的全局特征与焊缝边缘部分的细节,并提升了对大型焊缝的分割精度。
本发明实施例的基于RGB-D特征分层融合的焊缝检测与分割装置,设有控制模块,控制模块可采用硬件、软件或者硬件与软件结合的方式进行实施,或者是构成至少包含一个处理器及存储器的计算机装置,该存储器即储存了实现上述基于RGB-D特征分层融合的焊缝检测与分割方法步骤的计算机程序,处理器用于执行该存储器上的计算机程序进行形成上述的实施例的方法步骤。
对于本发明方法采用以下方式进行实验验证,将面阵结构光相机采集到的工件的RGB图像和点云数据处理得到工件各平面的RGB-D图像,然后使用深度学习图像标签标注软件labelme对RGB-D图像进行多边形掩码标注,每一张RGB-D图像得到一个与之对应的json文件,最后将其处理成COCO数据集格式并随机选择80%作为训练集,20%作为测试集。训练样本为524张RGB-D图像,测试样本为132张RGB-D图像。
焊缝实例分割任务对应的标注类型是目标实例,实验采用COCO数据集格式,焊缝实例分割的评价标准如表1所示。AP代表所有类别的平均精度,作为最终COCO评价整体标准。AP的定义使用IOU的标准。表1中area是指分割掩码mask中像素的数量。同时AP也计算不同尺度目标如大目标,中目标以及小目标的实例分割精度。
表1焊缝数据集评价指标
Figure BDA0003795749980000071
在基于RGB-D特征分层融合的改进Mask R-CNN模型中,设置学习率为0.005,如果不设置初始权重从头开始训练,经过80000次左右迭代后,模型损失趋于收敛,如果设置初始权重为预训练模型权重,经过20000次左右迭代后,模型损失即可趋于收敛。经6次实验(如表2所示),将不同焊缝实例分割方法性能进行对比,本文方法对工业场景下焊缝实例分割精度(AP)达到82.017%,实例分割结果示例图如图6至8所示,其中图6是待分割的工件原始图像。图7是直接对原图使用Mask R-CNN进行分割的结果,其对于上图漏检右侧焊缝,对于中图焊缝没有完整分割,对于下图中将一条焊缝识别为两条。图8是本发明方法进行分割的结果。其中,#Params是模型参数的大小,Fusion是本文上述提到的基于RGB-D数据特征分层融合的方法。
表2不同焊缝分割方法性能对比
Figure BDA0003795749980000081

Claims (8)

1.一种基于RGB-D特征分层融合的焊缝检测与分割方法,其特征在于,包括以下步骤:步骤一、对焊缝的RGB图像和点云数据进行多平面分割预处理,得到各平面的RGB-D数据;步骤二、将得到的各平面的RGB-D数据输入改进的Mask R-CNN模型中识别分割,所述改进的Mask R-CNN模型包括在主干网络中由ResNet-FPN对RGB-D数据的RGB图像和深度图像分别逐层提取特征,然后逐层地将深度特征与RGB特征采用注意力感知的RGB与深度特征融合模块来进行特征融合,在特征金字塔中对RGB特征进行下采样的每一层都使用与之对应的深度特征进行融合,并且将融合后的特征逐层传递到特征金字塔的上采样过程中。
2.根据权利要求1所述的基于RGB-D特征分层融合的焊缝检测与分割方法,其特征在于,所述注意力感知的RGB与深度特征融合模块包括通道注意力模块和空间注意力模块,所述通道注意力模块为SE模块,所述注意力感知的RGB与深度特征融合模块将所述深度特征经过所述SE模块的结果、所述深度特征经过所述空间注意力模块后与所述RGB特征交叉点乘的结果、所述RGB特征经过所述空间注意力模块后与所述特征交叉点乘的结果以及所述RGB特征经过所述SE模块的结果相加进行输出。
3.根据权利要求2所述的基于RGB-D特征分层融合的焊缝检测与分割方法,其特征在于,所述空间注意力模块对特征图先进行通道数压缩,然后由两个空洞卷积进行特征提取,最后对通道数进行还原再使用sigmod函数激活输出。
4.根据权利要求1所述的基于RGB-D特征分层融合的焊缝检测与分割方法,其特征在于,所述对焊缝的RGB图像和点云数据进行多平面分割预处理,包括以下步骤:S1、使用体素滤波对点云数据进行下采样;S2、使用统计滤波剔除点云中的离群点;S3、使用随机一致性采样方法拟合平面,得到俯仰角和翻滚角,再利用俯仰角和翻滚角将所述拟合平面的点云旋转至法向量平行于z轴;S4、根据工件的RGB图像和点云数据的对应关系分割出所述拟合平面对应的RGB-D图像,移除点云中的所述拟合平面;S5、重复步骤S3、S4,得到各平面的RGB-D数据。
5.根据权利要求4所述的基于RGB-D特征分层融合的焊缝检测与分割方法,其特征在于,所述步骤S5中重复步骤S3、S4直至所述点云中剩余数据小于阈值时停止,所述阈值为点云中剩余数据量与点云数据总量的百分比。
6.根据权利要求1所述的基于RGB-D特征分层融合的焊缝检测与分割方法,其特征在于,所述改进的Mask R-CNN模型包括在Mask R-CNN模型中增加MaskGIoU Head模块,所述Mask R-CNN模型的Mask Head的输出通过卷积及最大化池化后与Mask Head模块的输入特征图进行拼接构成MaskGIoU Head模块的输入,所述MaskGIoU Head模块中使用4个卷积层及3个全连接层依次连接,最后一个全连接层的输出设置为类的数量,所述MaskGIoU Head模块的损失函数定义为,
Figure FDA0003795749970000021
Figure FDA0003795749970000022
LMaskGIoU=1-GIoU
其中\是求补集,B是预测边界框,Bgt是真实边界框,C是覆盖预测边界框与真实边界框之间的最小框。
7.根据权利要求6所述的基于RGB-D特征分层融合的焊缝检测与分割方法,其特征在于,在所述Mask Head模块中14×14×256特征图到28×28×256特征图的反卷积层前添加特征金字塔网络。
8.一种基于RGB-D特征分层融合的焊缝检测与分割装置,包括控制模块,所述控制模块包括处理器以及存储器,所述存储器上存储有计算机程序,其特征在于,所述计算机程序被所述处理器执行时,实现权利要求1至7中任意一项所述的基于RGB-D特征分层融合的焊缝检测与分割方法。
CN202210968239.2A 2022-08-12 2022-08-12 基于rgb-d特征分层融合的焊缝检测与分割方法及装置 Pending CN115393294A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210968239.2A CN115393294A (zh) 2022-08-12 2022-08-12 基于rgb-d特征分层融合的焊缝检测与分割方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210968239.2A CN115393294A (zh) 2022-08-12 2022-08-12 基于rgb-d特征分层融合的焊缝检测与分割方法及装置

Publications (1)

Publication Number Publication Date
CN115393294A true CN115393294A (zh) 2022-11-25

Family

ID=84118614

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210968239.2A Pending CN115393294A (zh) 2022-08-12 2022-08-12 基于rgb-d特征分层融合的焊缝检测与分割方法及装置

Country Status (1)

Country Link
CN (1) CN115393294A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117557553A (zh) * 2023-12-28 2024-02-13 中核武汉核电运行技术股份有限公司 一种核电站管道焊缝检测方法及装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117557553A (zh) * 2023-12-28 2024-02-13 中核武汉核电运行技术股份有限公司 一种核电站管道焊缝检测方法及装置
CN117557553B (zh) * 2023-12-28 2024-05-24 中核武汉核电运行技术股份有限公司 一种核电站管道焊缝检测方法及装置

Similar Documents

Publication Publication Date Title
CN110738697B (zh) 基于深度学习的单目深度估计方法
CN111160214B (zh) 一种基于数据融合的3d目标检测方法
CN109919013A (zh) 视频图像中基于深度学习的人脸检测方法及装置
CN113065546B (zh) 一种基于注意力机制和霍夫投票的目标位姿估计方法及系统
CN110084817B (zh) 基于深度学习的数字高程模型生产方法
CN113168510A (zh) 通过细化形状先验分割对象
US11915362B2 (en) UV mapping on 3D objects with the use of artificial intelligence
EP4174792A1 (en) Method for scene understanding and semantic analysis of objects
Tabib et al. Learning-based hole detection in 3D point cloud towards hole filling
US20240161355A1 (en) Generation of stylized drawing of three-dimensional shapes using neural networks
CN113449784A (zh) 基于先验属性图谱的图像多分类方法、装置、设备及介质
CN115238758A (zh) 一种基于点云特征增强的多任务三维目标检测方法
CN115482268A (zh) 一种基于散斑匹配网络的高精度三维形貌测量方法与系统
CN115393294A (zh) 基于rgb-d特征分层融合的焊缝检测与分割方法及装置
CN117496085A (zh) 一种基于手绘草图的参数化三维模型生成方法及系统
CN116403062A (zh) 一种点云目标检测方法、系统、设备及介质
Denk et al. Feature line detection of noisy triangulated CSGbased objects using deep learning
Lee et al. ELF-Nets: deep learning on point clouds using extended laplacian filter
CN114219757A (zh) 一种基于改进Mask R-CNN的车辆智能定损方法
CN115170854A (zh) 基于端到端的PCANetV2的图像分类方法和系统
CN114118125A (zh) 多模态输入与空间划分的三维目标检测方法
CN110827238A (zh) 一种改进的全卷积神经网络的侧扫声纳图像特征提取方法
EP4266257A1 (en) 3d reconstruction from images
CN115984583B (zh) 数据处理方法、装置、计算机设备、存储介质和程序产品
CN114049444B (zh) 一种3d场景生成方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination