CN114255220A - 一种基于Transformer神经网络的焊缝质量检测方法 - Google Patents

一种基于Transformer神经网络的焊缝质量检测方法 Download PDF

Info

Publication number
CN114255220A
CN114255220A CN202111571635.3A CN202111571635A CN114255220A CN 114255220 A CN114255220 A CN 114255220A CN 202111571635 A CN202111571635 A CN 202111571635A CN 114255220 A CN114255220 A CN 114255220A
Authority
CN
China
Prior art keywords
neural network
welding
image
data
transformer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111571635.3A
Other languages
English (en)
Inventor
张勋兵
李聪聪
马成
孙雪蓓
孙玉玲
王斌
朱薪颖
高香玉
陈敏
李佳慧
王继伟
魏凯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xuzhou XCMG Excavator Machinery Co Ltd
Original Assignee
Xuzhou XCMG Excavator Machinery Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xuzhou XCMG Excavator Machinery Co Ltd filed Critical Xuzhou XCMG Excavator Machinery Co Ltd
Priority to CN202111571635.3A priority Critical patent/CN114255220A/zh
Publication of CN114255220A publication Critical patent/CN114255220A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开一种基于Transformer神经网络的焊缝质量检测方法,包括以下步骤:S1、在焊接机械手靠近焊枪端加装高速容熔池监控相机,实时获取焊接拍摄图像数据,监测电弧、熔池、坡口等状态;S2、对获取到的数据实施基本的数据增强外,还使用多张图像重叠增强方法,提高焊缝这类小目标检测效率;S3、构建基于自注意力的视觉Transformer神经网络焊缝识别模型;S4、采用多模态相关注意力方法,来可视化本模型训练过程变化,并对模型结构进行调整;S5、利用训练好的模型,对焊缝质量进行检测。本发明使得数据在实际应用中具有较强的鲁棒性和代表性,有效减少了计算无力的缺陷,高效提高计算的效率和准确性。

Description

一种基于Transformer神经网络的焊缝质量检测方法
技术领域
本发明涉及一种基于Transformer神经网络的焊缝质量检测方法,属于深度学习和焊缝质量检测技术领域。
背景技术
在实际焊接过程中,由于环境或人为因素的影像,例如:高温、尘埃、强光辐射、手抖、人为精度判断失误等原因,从而导致了焊缝存在偏焊、气孔、熔深不足等问题,这些问题不仅给焊接过程和后续使用过程带来安全隐患,同时造成了企业或工厂的利益损失。因此,在焊接过程中对于焊缝进行有效的质量检测,不但可以弥补安全隐患,同时提高企业或工厂的效益。
注意力机制(Attention Mechanism),源于人类视觉的研究,在认知科学中,又要信息处理瓶颈的限制,人类会选择性地关注全部信息的一部分,同时忽略其他可见信息,即为注意力机制;而在计算机视觉中,注意力机制主要是让系统把注意力放在感兴趣的区域,具备注意力机制的神经网络一方面可以自主学习注意力机制,另一方面利用注意力机制可以高效理解神经网络所见到的世界。
Transformer神经网络模型,研究广泛用于在不同的自然语言任务中,包括:文本分类、机器翻译和问答系统;由于Transformer在自然语言中取得巨大成功,所以研究者尝试将它应用在视觉任务中;Transformer架构是基于自注意力机制,该机制主要用来学习序列元素之间的关系;它相对于递归神经网络(recurrent network)的主要优势就是,可以并行且长期获取全局特征信息。此外,由于Transformer的预训练特性,它可以维持很好的模型尺度性,避免不同尺度模型带来的人为标注的问题。
现有的基于工业传感技术焊缝质量检测技术:
在焊接过程中会产生许多不同的物理现象,如电磁辐射,光辐射、红外辐射和声波发射等。这些现象会产生不同类型的信号,通常这些信号与焊接质量密切相关。
1.基于超声波的焊缝质量检测
基于被测物体材料的声学性能进行检测,若被测物体内部某处存在缺陷,则此处对超声波传播波形的反射情况和穿透时间的能量和无缺陷的位置相比较有很大差异,根据差异可检测出缺陷的位置、形状和大小等特征。
2.基于红外辐射的焊缝质量检测
将一恒定的热流注入被测物体,如果某处位置有缺陷,则与无缺陷位置相比两者的热扩散系数存在差异,则两处表面的温度分布就会不同,从而它们发出的红外线就会不同,根据被测物体表面温度分布图,就能确定被测物体内部缺陷的位置。
3.基于X射线的焊缝质量检测
将X射线投射到焊缝上,若在某个位置处焊缝内部存在缺陷(气孔或者未融合等)时,此处透过的X射线强度高于无缺陷位置的射线强度,根据射线强度差别导致投射到数字底片上的图像特征有所不同,因此可以通过图像处理对焊缝内部缺陷进行提取和识别。
现有的基于机器视觉(图像)的焊缝质量检测:
使用机器视觉对焊缝质量进行检测模拟了人眼对焊缝质量检测,可以实时判断焊缝成形质量。重点在于对视觉传感器获得的图像的处理方法。深度学习与传统的图像处理方法相比,深度网络可以自动从图像中学习并更新网络参数,使其具有强大的特征学习能力。目前深度学习技术的很多模型都被应用在焊缝缺陷图像中,其中应用比较广泛的包括卷积神经网络(Convolutional Neural Networks,CNN)和Faster R-CNN两种网络模型。
1.基于卷积神经网络
步骤1:焊缝样本采集
在实际采集过程中,采用视觉曝光的方式进行了样本采集,突出目标的表面特征。
步骤2:焊缝数据预处理
利用Sin函数对焊缝图像进行一次非线性变换,将原始图像的灰度直方图分布进行拉伸,提高图像的对比度,同时对采集的数据进行数据扩增。
步骤3:参数选择与模型训练
数据按照4:1的比例划分为训练集和验证集,通过搭建的卷积神经网络在训练集中进行训练,并通过在验证集中的性能表现进行模型调参,最终得到稳定的模型。
步骤4:模型预测分析
将每一条焊缝区域中的图像采集完后,采用数字编码的形式做好标签,并依次输入到训练好的卷积神经网络模型中进行预测分析。
卷积神经网络可自动提取图像的颜色、边缘和纹理等特征,避免了传统算法中复杂的特征提取过程。基于卷积神经网络的方法主要是增加卷积神经网络的层数以及与其他模型进行融合,从而克服原来网络结构简单、特区特征类别单一的缺点,增强了网络对焊缝缺陷特征的提取能力。
2.基于Faster R-CNN网络
步骤1:数据预处理
首先将图像进行人工数据清洗;然后将清洗后的数据通过灰度变换和仿射变换对数据做增强和扩充处理;最后将图像进行数据标注。
步骤2:构建Faster-RCNN网络
Faster-RCNN网络包括四个部分:特征提取网络、RPN网络、ROIPooling层以及分类与回归网络。首先经过经典的卷积神经网络对图像进行特征提取,然后使用RPN网络得到候选区域框,进而ROIPooling层输出固定尺寸的特征图,最后对特征图分类和回归处理得出检测结果。
步骤3:训练Faster-RCNN网络
在网络训练前设置超参数,包括学习率、权重衰减、迭代次数等。通过构建的Faster-RCNN网络在训练集中进行训练,结合验证集中的性能表现进行调参,获得稳定的模型。
步骤4:模型预测分析
基于Faster-RCNN网络模型,对焊缝图像数据进行质量检测。
基于Faster R-CNN的方法主要进行了模型融合,单一的网络模型往往不能提取所有有用的特征信息,采用多个模型进行融合的方式可以充分利用各个模型的优势提取多维特征,获得更多的细节信息。
现有技术存在以下缺点:
(1)传统的焊缝质量检测技术对缺陷的显示结果不直观,容易受主观因素的影响。
(2)基于卷积神经网络的方法虽然准确率相比与传统方法得到了显著提高,但并没有在焊缝图像中定位出缺陷的位置。而基于Faster R-CNN的方法虽然给出了缺陷的位置,但只对某类缺陷识别率高,整体的识别准确率不高。同时存在模型设计困难和达不到预期性能等问题。
(3)现有技术,对应采集到的数据实施了一定预处理操作,然而没有达到数据增强的目的,仅仅是对数据进行了清洗,没有进一步突出数据的特点,对于后续的方案操作,会带来大量额外的计算和消耗。
(4)采用了深度学习方法,构建了相应的深度卷积网络,但是其网络结构没有采用特定的残差网络结构,对于卷积层数较深的情况下,其卷积效果将会很不理想,从而造成大量计算损耗。
(5)对于整个场景输入数据,进行卷积操作时,其输入数据不同区域的初始权重是固定的,这就导致关注点不突出,可能导致焦点丢失,进一步增大错误率,增加无效计算的数量,最终导致计算的损耗和浪费。
发明内容
针对上述现有技术存在的问题,本发明提供一种基于Transformer神经网络的焊缝质量检测方法,采用图像增强等一系列的数据预处理操作,对采集到的数据进行相关处理,使得数据在实际应用中具有较强的鲁棒性和代表性;采用独特的深度残差网络结构,既确保了卷积网络的深度,也就是保证了数据表征的层次高和内容足够丰富,也保证了深层次的网络结构不会出现“梯度爆炸”的效果,有效减少了计算无力的缺陷,高效提高计算的效率和准确性;采用注意力机制,在高效、准确计算的基础上,进一步提高兴趣区域的权重,协助深度卷积网络更快速定位到兴趣区域,进一步提高运算速度,满足实时性需求和相关工业性标准。
为了实现上述目的,本发明采用的技术方案是:一种基于Transformer神经网络的焊缝质量检测方法,包括以下步骤:
S1、在焊接机械手靠近焊枪端加装高速容熔池监控相机,实时获取焊接拍摄图像数据,监测电弧、熔池、坡口等状态;
S2、对获取到的数据实施基本的数据增强,使用多张图像重叠增强方法,提高焊缝这类小目标检测效率;
S3、构建基于自注意力的视觉Transformer神经网络焊缝识别模型;
S4、采用多模态相关注意力方法,来可视化本模型训练过程变化,并对模型结构进行调整;
S5、利用训练好的模型,对焊缝质量进行检测。
优选的,所述的步骤S1包括以下基本操作:
S11、该相机模块固定在焊接机械手靠近焊枪端,实现对焊缝情况进行实时稳定的拍摄;
S12、该相机模块可以将获取的拍摄数据实时传输至数据处理端。
优选的,所述的步骤S2包括以下基本操作:
S21、进行基础的图像增强方法,包括:光照图像增强和几何图像增强;
S22、在保留原始图像信息基础上,实施模拟图像遮挡的增强方法;
S23、使用多张图像重叠增强,进一步提高小目标检测精度。
优选的,所述的步骤S3包括以下基本操作:
S31、使用卷积神经网络作为基干特征提取器,将提取到的特征信息输入到后续的Transformer编解码结构中;
S32、将获取的特征信息输入到Transformer编码器结构中,得到编码之后的特征信息;
S33、将编码特征信息输入解码器结构中,这里解码器使用多头解码器,也就是将编码特征信息共享给不同的解码器,并行实现解码分解操作,输出不同的目标特征结果;
S34、将目标特征信息输入到预测前馈网络中,预测多个目标的坐标和类别信息;
S35、为了提高上述模型训练过程的准确性,本方法在解码器结构中添加辅助训练的损失函数,用以提高预测目标类别精度。
优选的,所述的步骤S4包括以下基本操作:
S41、关注图像和特征编码向量之间的多模态交互关系,构建本发明方法的模型可视化图;
S42、多模态相关注意力图初始化规则;
S43、多模态相关注意力图更新规则。
优选的,所述的步骤S5包括以下基本操作:
S51、根据上述提出的,基于Transformer神经网络模型,对于获取到的焊缝图像数据,进行质量检测,得到焊缝是否满足质量要求的结果。
本发明的有益效果是:
(1)采用图像增强等一系列的数据预处理操作,对采集到的数据进行相关处理,使得数据在实际应用中具有较强的鲁棒性和代表性。
(2)采用独特的深度残差网络结构,既确保了卷积网络的深度,也就是保证了数据表征的层次高和内容足够丰富,也保证了深层次的网络结构不会出现“梯度爆炸”的效果,有效减少了计算无力的缺陷,高效提高计算的效率和准确性。
(3)采用注意力机制,在高效、准确计算的基础上,进一步提高兴趣区域的权重,协助深度卷积网络更快速定位到兴趣区域,进一步提高运算速度,满足实时性需求和相关工业性标准。
附图说明
图1为本发明一种基于Transformer神经网络的焊缝质量检测方法的模块示意图;
图2为本发明一种基于Transformer神经网络的焊缝质量检测方法的Transformer神经网络基本架构图;
图3为本发明一种基于Transformer神经网络的焊缝质量检测方法计算交互注意力特征图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明了,下面通过附图及实施例,对本发明进行进一步详细说明。但是应该理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限制本发明的范围。
除非另有定义,本文所使用的所有的技术术语和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同,本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。
如图1-3所示,一种基于Transformer神经网络的焊缝质量检测方法,包括以下步骤:
S1、在焊接机械手靠近焊枪端加装高速容熔池监控相机,实时获取焊接拍摄图像数据,监测电弧、熔池、坡口等状态;本发明的首要前提是,在焊接机械手靠近焊枪端加装高速容熔池监控相机,实时获取焊接拍摄图像数据,监测电弧、熔池、坡口等状态;该相机模块还具备网络子模块,可以将实时拍摄的焊接操作图像或视频,传输至服务器端进行后续处理。
S11、该相机模块固定在焊接机械手靠近焊枪端,实现对焊缝情况进行实时稳定的拍摄;
S12、该相机模块可以将获取的拍摄数据实时传输至数据处理端。
经过这一步就可以获得焊缝图像数据集,并且传输至服务器端,结果简单的尺度归一化操作后,输入到后续步骤进行训练操作。
S2、对获取到的数据实施基本的数据增强,使用多张图像重叠增强方法,提高焊缝这类小目标检测效率。
S21、进行基础的图像增强方法,包括:光照图像增强和几何图像增强;
S22、在保留原始图像信息基础上,实施模拟图像遮挡的增强方法;
S23、使用多张图像重叠增强,进一步提高小目标检测精度。
结合步骤1得到的图像数据集,结果尺度归一化操作后,需要进一步对图像数据进行增强,这样不仅提高了图像特征的泛化性,同时减少目标和输入之间的分布误差。
为了增加输入图像数据的多样性,本方法首先进行像素级别的基础数据增强,主要包括:光照图像增强和几何图像增强。
针对光照图像增强;本方法采用光照、对比度、色调、饱和度和噪声等角度进行增强。
而对于几何图像增强;本方法使用随机尺度化、随机裁剪、随机翻转和随机旋转来实现。
像素级别的基础数据增强保留了具体的图像特征信息,在此基础上,本方法进一步实施特征级别增强,主要是模拟目标遮挡进行鲁棒性数据增强;这里主要采用随机擦除或随机切除图像数据中的部分内容,使用特定像素值进行填充(像素值范围为0-255),使用这些处理后的图像进行训练,提高模型对于遮挡目标检测的鲁棒性,因此,对于被遮挡的焊缝气泡或偏焊具有很好的检测效果。
此外,本方法进一步使用多种图像重叠的策略提高小目标的检测精度,尤其对于焊接中造成的气泡、焊缝等小目标进行检测;具体来说,本方法采用四张图像重叠混合,重叠后的混合图像,缩放到单张图像的尺度大小,这样每张图像都具有不同的特征信息,而且,由于混合图像导致了原始图像目标尺度变小,更加有利于识别小目标特征;同时,对于一批数据(例如:16张混合重叠图像为一批),采用批正则化进行操作,实现每批图像中的分布均衡,降低检测误差。
S3、构建基于自注意力的视觉Transformer神经网络焊缝识别模型。
S31、使用卷积神经网络作为基干特征提取器,将提取到的特征信息输入到后续的Transformer编解码结构中;
S32、将获取的特征信息输入到Transformer编码器结构中,得到编码之后的特征信息;
S33、将编码特征信息输入解码器结构中,这里解码器使用多头解码器,也就是将编码特征信息共享给不同的解码器,并行实现解码分解操作,输出不同的目标特征结果;
S34、将目标特征信息输入到预测前馈网络中,预测多个目标的坐标和类别信息;
S35、为了提高上述模型训练过程的准确性,本方法在解码器结构中添加辅助训练的损失函数,用以提高预测目标类别精度。
整个Transformer神经网络主要包含三个主要组件,包括:1.一个卷积神经网络作为基干特征提取器;2.一个编解码结构的Transformer网络;3.以及一个简答的前馈神经网络(FFN)。具体如图2所示。
基干特征提取器,这一组件主要是提取数据基本特征,用于后续的训练操作。为了满足便捷快速的目的,本方法选用28层结构的MobileNet。MobileNet网络首先包含一个3x3的标准卷积层,后面堆积各种分组卷积层,同时部分分组卷积采用步长为2(stride=2)进行下采样操作,最后将不同分组卷积的结果进行拼接,得到本方法需要的基础特征信息。其中,输入的图像数据表示为
Figure BDA0003423500570000091
(即三通道图像),而得到的特征信息表示为f∈RC ×H×W
Transformer编码器结构,首先将特征信息输入到1x1卷积层中,用来实现特征降维的操作。由于Transformer编码器需要将一个序列作为输入(即二维数据),因此,本文方法将特征信息的空间维度压缩为一个维度,这样特征信息的维度表示为d×HW。每一个编码层包含一个多头自注意力模块和一个前馈神经网络,并且每一个注意力层都嵌入了位置信息,实现Transformer神经网络结构的信息不变性。
Transformer解码器结构,借助多头自注意力机制,将编码器编码嵌入的特征信息转化为N个相同尺度的特征信息。这N个不同的特征信息同样是位置不变性的,因为在解码器阶段同样嵌入位置信息,这样对于焊缝气泡、焊缝偏焊、焊缝熔深不足等不同问题,可以实现并行同步检测。这样,经过Transformer解码器结构,可以得到针对N个不同的目标的N个预测信息。
前馈神经网络(FFN),经过上述的编码器和解码器结构后,将最后的预测信息输入到一个3层感知机结构,不同层之间使用ReLU激活函数。前馈神经网络实现预测目标的坐标框,以及每个目标对应的N个预测框。
S4、采用多模态相关注意力方法,来可视化本模型训练过程变化,并对模型结构进行调整。
S41、关注图像和特征编码向量之间的多模态交互关系,构建本发明方法的模型可视化图;
S42、多模态相关注意力图初始化规则;
S43、多模态相关注意力图更新规则。
一般神经网络可视化采用梯度热力图进行可视化,但是应用于Transformer神经网络模型上,就会导致信息的丢失,因为Transformer模型输入信息不仅包括特征信息,还包括位置信息和查询信息,因此本发明采用图像和特征编码向量之间的多模态交互关系,构建本发明方法的模型可视化图,具体如图3所示。
关注图像和特征编码向量之间的多模态交互关系,构建本发明方法的模型可视化图,这里将图像和向量之间的多模态相关注意力图表示为:Att,Aii,Ati,Ait,其中i,t分别表示图像和特征编码向量,Att,Aii为自注意力关系特征图,Att,Aii为相互注意力关系特征图。多模态相关注意力图初始化规则,对于自注意力图来说,它们初始化为:Aii=1i×i,Att=1t ×t,对于相互注意力图来说,它们初始化为:Ait=0i×i,Ati=0t×t。多模态相关注意力图更新规则,表示为:
Figure BDA0003423500570000101
其中,⊙表示为哈达玛积,
Figure BDA0003423500570000102
中,yt是每类想要被可视化类别的结果,Εh是多头注意力权重的均值。
S5、利用训练好的模型,对焊缝质量进行检测。
S51、根据上述提出的,基于Transformer神经网络模型,对于获取到的焊缝图像数据,进行质量检测,得到焊缝是否满足质量要求的结果。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换或改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.一种基于Transformer神经网络的焊缝质量检测方法,其特征在于,包括以下步骤:
S1、在焊接机械手靠近焊枪端加装高速容熔池监控相机,实时获取焊接拍摄图像数据,监测电弧、熔池、坡口等状态;
S2、对获取到的数据实施基本的数据增强,使用多张图像重叠增强方法,提高焊缝这类小目标检测效率;
S3、构建基于自注意力的视觉Transformer神经网络焊缝识别模型;
S4、采用多模态相关注意力方法,来可视化本模型训练过程变化,并对模型结构进行调整;
S5、利用训练好的模型,对焊缝质量进行检测。
2.根据权利要求1所述的一种基于Transformer神经网络的焊缝质量检测方法,其特征在于,所述的步骤S1包括以下基本操作:
S11、该相机模块固定在焊接机械手靠近焊枪端,实现对焊缝情况进行实时稳定的拍摄;
S12、该相机模块可以将获取的拍摄数据实时传输至数据处理端。
3.根据权利要求1所述的一种基于Transformer神经网络的焊缝质量检测方法,其特征在于,所述的步骤S2包括以下基本操作:
S21、进行基础的图像增强方法,包括:光照图像增强和几何图像增强;
S22、在保留原始图像信息基础上,实施模拟图像遮挡的增强方法;
S23、使用多张图像重叠增强,进一步提高小目标检测精度。
4.根据权利要求1所述的一种基于Transformer神经网络的焊缝质量检测方法,其特征在于,所述的步骤S3包括以下基本操作:
S31、使用卷积神经网络作为基干特征提取器,将提取到的特征信息输入到后续的Transformer编解码结构中;
S32、将获取的特征信息输入到Transformer编码器结构中,得到编码之后的特征信息;
S33、将编码特征信息输入解码器结构中,解码器使用多头解码器,也就是将编码特征信息共享给不同的解码器,并行实现解码分解操作,输出不同的目标特征结果;
S34、将目标特征信息输入到预测前馈网络中,预测多个目标的坐标和类别信息;
S35、为了提高上述模型训练过程的准确性,本方法在解码器结构中添加辅助训练的损失函数,用以提高预测目标类别精度。
5.根据权利要求1所述的一种基于Transformer神经网络的焊缝质量检测方法,其特征在于,所述的步骤S4包括以下基本操作:
S41、关注图像和特征编码向量之间的多模态交互关系,构建本发明方法的模型可视化图;
S42、多模态相关注意力图初始化规则;
S43、多模态相关注意力图更新规则。
6.根据权利要求1所述的一种基于Transformer神经网络的焊缝质量检测方法,其特征在于,所述的步骤S5包括以下基本操作:
S51、根据上述提出的,基于Transformer神经网络模型,对于获取到的焊缝图像数据,进行质量检测,得到焊缝是否满足质量要求的结果。
CN202111571635.3A 2021-12-21 2021-12-21 一种基于Transformer神经网络的焊缝质量检测方法 Pending CN114255220A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111571635.3A CN114255220A (zh) 2021-12-21 2021-12-21 一种基于Transformer神经网络的焊缝质量检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111571635.3A CN114255220A (zh) 2021-12-21 2021-12-21 一种基于Transformer神经网络的焊缝质量检测方法

Publications (1)

Publication Number Publication Date
CN114255220A true CN114255220A (zh) 2022-03-29

Family

ID=80796281

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111571635.3A Pending CN114255220A (zh) 2021-12-21 2021-12-21 一种基于Transformer神经网络的焊缝质量检测方法

Country Status (1)

Country Link
CN (1) CN114255220A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115049844A (zh) * 2022-06-29 2022-09-13 厦门大学 一种增强视觉信息流的图像描述生成方法
CN115471674A (zh) * 2022-09-20 2022-12-13 浙江科达利实业有限公司 基于图像处理的新能源车二氧化碳管的性能监测系统
CN116630950A (zh) * 2023-07-25 2023-08-22 济南大学 一种高精度识别轮辋焊缝的方法
CN117381261A (zh) * 2023-12-13 2024-01-12 德阳市华建机械设备有限公司 一种自动化焊接机的故障识别装置及方法
CN115049844B (zh) * 2022-06-29 2024-06-04 厦门大学 一种增强视觉信息流的图像描述生成方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115049844A (zh) * 2022-06-29 2022-09-13 厦门大学 一种增强视觉信息流的图像描述生成方法
CN115049844B (zh) * 2022-06-29 2024-06-04 厦门大学 一种增强视觉信息流的图像描述生成方法
CN115471674A (zh) * 2022-09-20 2022-12-13 浙江科达利实业有限公司 基于图像处理的新能源车二氧化碳管的性能监测系统
CN116630950A (zh) * 2023-07-25 2023-08-22 济南大学 一种高精度识别轮辋焊缝的方法
CN117381261A (zh) * 2023-12-13 2024-01-12 德阳市华建机械设备有限公司 一种自动化焊接机的故障识别装置及方法
CN117381261B (zh) * 2023-12-13 2024-03-08 德阳市华建机械设备有限公司 一种自动化焊接机的故障识别装置及方法

Similar Documents

Publication Publication Date Title
CN113065558B (zh) 一种结合注意力机制的轻量级小目标检测方法
CN114255220A (zh) 一种基于Transformer神经网络的焊缝质量检测方法
Hu et al. A lightweight spatial and temporal multi-feature fusion network for defect detection
CN108830170B (zh) 一种基于分层特征表示的端到端目标跟踪方法
CN110781736A (zh) 基于双流网络将姿态和注意力相结合的行人重识别方法
Sahu et al. A novel parameter adaptive dual channel MSPCNN based single image dehazing for intelligent transportation systems
Hong et al. USOD10K: a new benchmark dataset for underwater salient object detection
Zou et al. Light-weight segmentation network based on SOLOv2 for weld seam feature extraction
CN113343966B (zh) 一种红外与可见光图像文本描述生成方法
Ling et al. Articulated Object Manipulation with Coarse-to-fine Affordance for Mitigating the Effect of Point Cloud Noise
Wang et al. MeDERT: A metal surface defect detection model
Zhang et al. Transnet: Category-level transparent object pose estimation
Musa et al. Marine robotics: An improved algorithm for object detection underwater
Ge et al. Real-time pose estimation for an underwater object combined with deep learning and prior information
Zou et al. Gpt-cope: A graph-guided point transformer for category-level object pose estimation
Yuan et al. Prototype-guided multitask adversarial network for cross-domain LiDAR point clouds semantic segmentation
Li et al. Wooden spoon crack detection by prior knowledge-enriched deep convolutional network
Zhao et al. Deep learning-based laser and infrared composite imaging for armor target identification and segmentation in complex battlefield environments
Raju et al. Convolutional neural network demystified for a comprehensive learning with industrial application
Lu et al. Deep neural network for precision multi-band infrared image segmentation
Niu et al. Underwater Waste Recognition and Localization Based on Improved YOLOv5.
Zhu et al. Leveraging body pose estimation for gesture recognition in human-robot interaction using synthetic data
Wang et al. Deformable feature pyramid network for aluminum profile surface defect detection
Liang et al. A stable diffusion enhanced YOLOV5 model for metal stamped part defect detection based on improved network structure
Ren et al. Optimization for image stereo-matching using deep reinforcement learning in rule constraints and parallax estimation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination