CN113658132B - 基于计算机视觉的结构件焊缝检测方法 - Google Patents
基于计算机视觉的结构件焊缝检测方法 Download PDFInfo
- Publication number
- CN113658132B CN113658132B CN202110937964.9A CN202110937964A CN113658132B CN 113658132 B CN113658132 B CN 113658132B CN 202110937964 A CN202110937964 A CN 202110937964A CN 113658132 B CN113658132 B CN 113658132B
- Authority
- CN
- China
- Prior art keywords
- image
- segmentation
- welding seam
- area
- weld
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/8851—Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/8851—Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
- G01N2021/8887—Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30152—Solder
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Chemical & Material Sciences (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Probability & Statistics with Applications (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Analytical Chemistry (AREA)
- Biochemistry (AREA)
- General Health & Medical Sciences (AREA)
- Immunology (AREA)
- Pathology (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及计算机视觉技术领域,具体涉及一种基于计算机视觉的结构件焊缝检测方法。该方法包括:采集拼装完成的结构件图像,利用神经网络识别出结构件图像中存在焊缝的目标图像;根据目标图像对应的神经网络获取目标图像以焊缝为敏感区域的类激活图;对类激活图的灰度图像进行阈值分割,得到焊缝的最小外接矩形;对最小外接矩形进行扩增,获取焊缝分割区域,在目标图像中裁剪出焊缝分割区域作为焊缝参考图并分区;通过计算焊缝参考图中每两个像素点之间的颜色距离、空间距离和类激活差异获取每两个像素点之间的综合差异,依据综合差异和分区的数量对焊缝参考图进行超像素分割,得到焊缝区域。本发明实施例能够提高超像素分割的准确性。
Description
技术领域
本发明涉及计算机视觉技术领域,具体涉及一种基于计算机视觉的结构件焊缝检测方法。
背景技术
除了对焊接技术和焊接工艺的要求以外,焊接质量检测也是焊接结构质量管理的重要一环。焊接质量检测是指对焊接成果的检测,目的是保证焊接结构的完整性、可靠性、安全性和使用性。
由于拼装结构件拼装制造的复杂程度和焊接环境等不确定因素,容易产生含有焊瘤、气孔和飞溅等缺陷的焊缝。焊接失效会导致拼装结构件的功能丧失,进而导致设备的瘫痪,引发工程性问题。在评估焊接质量时,对焊缝的检测不可避免。
在人工检测无法满足现代化焊接技术的情况下,如何对焊缝进行高效且准确的检测具有重要的实际意义。
发明内容
为了解决上述技术问题,本发明的目的在于提供一种基于计算机视觉的结构件焊缝检测方法,所采用的技术方案具体如下:
本发明一个实施例提供了一种基于计算机视觉的结构件焊缝检测方法,该方法包括以下步骤:
采集拼装完成的结构件图像,利用神经网络识别出所述结构件图像中存在焊缝的目标图像;
根据所述目标图像对应的神经网络获取所述目标图像以焊缝区域为敏感区域的类激活图;对所述类激活图的灰度图像进行阈值分割,得到焊缝区域的最小外接矩形;
对所述最小外接矩形进行扩增,获取焊缝分割区域,在所述目标图像中裁剪出所述焊缝分割区域作为焊缝参考图,并根据所述最小外接矩形的区域和扩增的区域对所述焊缝参考图进行分区;
通过计算所述焊缝参考图中每两个像素点之间的颜色距离、空间距离和类激活差异获取每两个像素点之间的综合差异,依据所述综合差异和所述焊缝参考图分区的数量对所述焊缝参考图进行超像素分割,得到焊缝区域。
优选的,所述类激活图的获取方法为:
基于梯度的可解释性对所述目标图像对应的神经网络中最后一层卷积层进行再次计算,获取所述类激活图。
优选的,所述阈值分割的方法为:
将所述类激活图进行灰度转换,得到灰度图像,对所述灰度图像根据灰度值采用最大类间方差法进行自适应的阈值分割。
优选的,所述最小外接矩形的获取方法为:
通过所述阈值分割得到所述灰度图像的二值图像,对所述二值图像进行连通域提取,并去除噪点连通域,获取去除噪点后的连通域的最小外接矩形作为所述最小外接矩形。
优选的,所述焊缝分割区域的获取方法为:
将所述最小外接矩形的角点坐标沿短边向两端分别扩增,得到新的角点坐标,以新的角点坐标形成的区域作为所述焊缝分割区域。
优选的,所述颜色距离的获取方法为:
将所述焊缝参考图转换为LAB颜色空间图像,根据所述LAB颜色空间图像中每两个像素之间的要素值的差值计算所述颜色距离。
优选的,所述类激活差异的获取方法为:
根据所述灰度图像中每两个像素之间的类激活灰度值的差值计算所述类激活差异。
优选的,所述焊缝区域的获取方法为:
以所述焊缝参考图分区的数量作为超像素分割的超像素数量,根据所述综合差异对所述焊缝参考图中的每个像素进行聚类,并不断迭代优化,得到所述焊缝区域。
本发明实施例至少具有如下有益效果:
通过神经网络对结构件图像进行焊缝识别,并获得存在焊缝的目标图像的类激活图,获取焊缝的最小外接矩形并扩增,得到焊缝参考图,对其进行超像素分割,得到焊缝区域。本发明实施例能够提高超像素分割的准确性,避免了超像素分割分区过多导致焊缝区域检测不全的现象。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案和优点,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它附图。
图1为本发明一个实施例提供的一种基于计算机视觉的结构件焊缝检测方法的步骤流程图。
具体实施方式
为了更进一步阐述本发明为达成预定发明目的所采取的技术手段及功效,以下结合附图及较佳实施例,对依据本发明提出的一种基于计算机视觉的结构件焊缝检测方法,其具体实施方式、结构、特征及其功效,详细说明如下。在下述说明中,不同的“一个实施例”或“另一个实施例”指的不一定是同一实施例。此外,一或多个实施例中的特定特征、结构、或特点可由任何合适形式组合。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。
下面结合附图具体的说明本发明所提供的一种基于计算机视觉的结构件焊缝检测方法的具体方案。
请参阅图1,其示出了本发明一个实施例提供的一种基于计算机视觉的结构件焊缝检测方法的步骤流程图,该方法包括以下步骤:
步骤S001,采集拼装完成的结构件图像,利用神经网络识别出结构件图像中存在焊缝的目标图像。
在拼装制造流水线中部署相机,用以拍摄拼装制造后的结构件图像,该结构件图像为RGB图像,即可见光图像。该图像应当将结构件焊缝表面覆盖完全,且采集图像的相机分辨率越大越好。
利用神经网络判断所拍摄的结构件是否存在焊缝,神经网络的训练过程为:
训练网络需要采集大量包含焊缝和不包含焊缝的结构件图像,以便于网络学到焊缝的特征;先将结构件可见光图像采用归一化进行预处理,即将图片矩阵变为[0,1]之间的浮点数,以便模型更好地收敛;然后将处理后的图像数据与进行one-hot编码的标签数据送到网络中进行训练,以判断是否存在焊缝。标签数据通过人为标注,不存在焊缝用数字0表示,存在焊缝用数字1表示。
作为一个示例,本发明实施例中神经网络采用ResNet18网络结构的卷积神经网络,网络的结构由编码器、全连接组成。在其他实施例中也可以采用SENet等能够实现相同功能的网络结构的卷积神经网络。
编码器先对结构件可见光图像进行特征提取,输入为归一化的结构件可见光图像数据,输出为特征图;全连接起到将特征映射到样本标记空间的作用,输入为编码器产生的特征图进行展平(Flatten)操作得到的一维向量,分类函数采用Softmax函数,最终输出该图像是否存在焊缝的概率。损失函数采用交叉熵损失函数。取概率最大的索引,得出该图像是否包含焊缝。
步骤S002,根据目标图像对应的神经网络获取目标图像以焊缝区域为敏感区域的类激活图;对类激活图的灰度图像进行阈值分割,得到焊缝区域的最小外接矩形。
具体的步骤包括:
1.基于梯度的可解释性对目标图像对应的神经网络中最后一层卷积层进行再次计算,获取类激活图。
作为一个示例,本发明实施例采用GradCAM++方法,基于梯度的可解释性,输入图像后,在步骤S001中检测焊缝的神经网络中的最后一层卷积层进行再次计算,最终输出类激活热力图。
该热力图中,越敏感的地方,即焊缝区域,温度越高,颜色越红;越不敏感的地方,温度越低。
2.将类激活图进行灰度转换,得到灰度图像,对灰度图像根据灰度值采用最大类间方差法进行自适应的阈值分割。
将类激活热力图进行灰度转换,得到灰度图像,该灰度图像中灰度值越大表示该处越为敏感位置,即焊缝位置。
对灰度图像采用最大类间方差法进行阈值化,具体的步骤包括:
首先设初始阈值为T0,将图像分为前景区域C1和目标区域C2;分别计算前景区域C1内像素的平均灰度值w1和目标区域C2内像素的平均灰度值w2,前景区域C1占整幅图像的比例u1和目标区域C2占整幅图像的比例u2,以及整幅图像的总平均灰度值w。
根据下列公式计算两个区域的类间方差:
σ2=u1(w1-w)2+u2(w2-w)2
循环上述步骤,直到求得类间方差达到最大值时,得到对应的最佳阈值T。
根据获取的最佳阈值T对灰度图像进行分割处理,将图像中灰度值大于T的区域内的所有灰度值置为255,反之置为0,得到类激活二值图像。
最大类间方差法(OSTU)是一种经典的自适应阈值分割的图像处理方法。它的基本思想是根据图像的灰度直方图将图像分为目标区域和背景区域,计算这两个区域的类间方差,当类间方差取得最大值时,则两个区域的差别达到最大,从而确定此时的阈值为最佳,用其进行图像分割。OSTU能够自动获得最佳的分割阈值,算法稳定,操作简单,不受图像亮度和对比度的影响。
3.通过阈值分割得到灰度图像的二值图像,对二值图像进行连通域提取,并去除噪点连通域,获取去除噪点后的连通域的最小外接矩形作为最小外接矩形。
对类激活二值图像进行连通域提取,得到图像中的每个连通域,同时将连通域的面积小于面积阈值的噪点连通域过滤,以去除很小的连通域。其中连通区域的邻接方式为4邻接或者8邻接。
作为一个示例,本发明实施例中通过基于行程的标记提取连通域,在其他实施例中还可以采用基于轮廓的标记方法等其他能够达到相同效果的提取连通域的方法。
作为一个示例,本发明实施例中面积阈值的取值为50。
本发明实施例以去除噪点后的连通域只有一个的情况为例,即代表图像中只有一条焊缝,当剩余的连通域为多个时,说明存在多条焊缝,此时获取每个连通域的最小外接矩形,并分别进行后续步骤得到每条焊缝的焊缝区域。
作为一个示例,本发明实施例通过OpenCV获取最小外接矩形。
步骤S003,对最小外接矩形进行扩增,获取焊缝分割区域,在目标图像中裁剪出焊缝分割区域作为焊缝参考图,并根据最小外接矩形的区域和扩增的区域对焊缝参考图进行分区。
具体的步骤包括:
1.将最小外接矩形的角点坐标沿短边向两端分别扩增,得到新的角点坐标,以新的角点坐标形成的区域作为焊缝分割区域。
假设一个最小外接矩形区域的质心坐标为(100,100),该矩形宽为50,高为100,则其角点坐标为:左下角(75,50),右下角(125,50),左上角(75,150),右上角(125,150)。
将原有最小外接矩形区域进行沿短边方向扩大2倍,即分别向短边两侧扩大短边的长度,扩增后,得到新的角点坐标为:左下角(25,50),右下角(175,50),左上角(25,150),右上角(175,150)。以新的角点坐标形成的区域作为焊缝分割区域。
2.在目标图像中裁剪出焊缝分割区域作为焊缝参考图,其中,最小外接矩形所在区域为初步焊缝区域,两侧扩增的区域分别为第一缓冲区域和第二缓冲区域,完成对焊缝参考图的分区。
步骤S004,通过计算焊缝参考图中每两个像素点之间的颜色距离、空间距离和类激活差异获取每两个像素点之间的综合差异,依据综合差异和焊缝参考图分区的数量对焊缝参考图进行超像素分割,得到焊缝区域。
具体的步骤包括:
1.将焊缝参考图转换为LAB颜色空间图像,根据LAB颜色空间图像中每两个像素之间的要素值的差值计算颜色距离。
将结构件可见光图像从RGB空间转换为LAB空间,LAB颜色空间表现的颜色更全面,计算颜色距离a:
其中,lj表示LAB颜色空间图像中第个像素的L值,li表示LAB颜色空间图像中第个像素的L值;aj表示LAB颜色空间图像中第个像素的a值,ai表示LAB颜色空间图像中第个像素的值;bj表示LAB颜色空间图像中第个像素的b值,bi表示LAB颜色空间图像中第个像素的b值。
2.计算焊缝参考图中每两个像素点之间的空间距离db:
其中,(xj,yj)表示第个像素的坐标,(xi,yi)表示第个像素的坐标。
3.根据灰度图像中每两个像素之间的类激活灰度值的差值计算类激活差异dc:
其中,gCATL表示类激活的灰度图像,gCATLj表示灰度图像中第个像素的类激活灰度值,gCATLi表示灰度图像中第个像素的类激活灰度值。
4.获取每两个像素点之间的综合差异D:
其中,通过参数A、B、C来协调三种距离的比例分配。
作为一个示例,本发明实施例中A的取值为4,B的取值为3,C的取值为5。
综合差异考虑到LAB空间的颜色差异,空间坐标的邻近性及类激活灰度值的大小,综合考虑三方面因素,来评估像素间的相似度。D的值越小,表示两个像素的相似度越大。
5.以焊缝参考图分区的数量作为超像素分割的超像素数量,根据综合差异对焊缝参考图中的每个像素进行聚类,并不断迭代优化,得到焊缝区域。
根据步骤S003可知将焊缝参考图分为了3个区域,因此,超像素数量为3,超像素分割的步骤包括:
(1)初始化种子点,即聚类中心:在每个区域随机分配一个种子点。
(2)在种子点的n*n邻域内重新选择种子点。
计算该邻域内所有像素点的梯度值,将种子点移到该邻域内梯度最小的地方。避免种子点落在梯度较大的轮廓边界上,以免影响后续聚类效果。
作为一个示例,本发明实施例中n的取值为5。
(3)在每个种子点周围的邻域内通过判断每个像素点归属于哪个聚类中心为其分配类标签。
具体的,基于距离模型D来获取种子点与像素点的相似度,由于每个像素点都会被多个种子点搜索到,所以每个像素点都会有一个与周围种子点的距离,取最小值对应的种子点作为该像素点的聚类中心。
超像素分割的搜索范围限制为三个区域的并集,加速算法收敛。
(4)通过不断重复上述步骤(1)-(3),对聚类结果进行迭代优化直到误差收敛,即每个像素点聚类中心不再发生变化为止,划分出结构件中比较相似的区域,最终得到3个区域,对于每一个区域内的像素点都是像素点距离D比较接近的。
需要说明的是,迭代次数需要进行调试,本发明实施例中迭代次数经验值为50次。
经过超像素分割后,初步焊缝区域所在的区域即为焊缝区域。
超像素通常定义为位置相邻且颜色、亮度、纹理等特征相似的形状不规则,又有一定视觉意义的像素块。使用超像素分割能够利用较少数量的像素块替换大量像素来表达图像特征,极大地减少后续图像处理的计算成本。同时,能够为输入图像提供一种更自然的、具有感知意义的表示,为后续算法处理提供了一种模拟动物视觉处理的可能。
综上所述,本发明实施例采集拼装完成的结构件图像,利用神经网络识别出结构件图像中存在焊缝的目标图像;根据目标图像对应的神经网络获取目标图像以焊缝为敏感区域的类激活图;对类激活图的灰度图像进行阈值分割,得到焊缝的最小外接矩形;对最小外接矩形进行扩增,获取焊缝分割区域,并在目标图像中裁剪出焊缝分割区域作为焊缝参考图,并根据最小外接矩形的区域和扩增的区域对焊缝参考图进行分区;通过计算焊缝参考图中每两个像素点之间的颜色距离、空间距离和类激活差异获取每两个像素点之间的综合差异,依据综合差异和焊缝参考图分区的数量对焊缝参考图进行超像素分割,得到焊缝区域。本发明实施例能够提高超像素分割的准确性,避免了过多的超像素分割分区导致检测不全的现象,并减少了多余的计算。
需要说明的是:上述本发明实施例先后顺序仅仅为了描述,不代表实施例的优劣。且上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (1)
1.基于计算机视觉的结构件焊缝检测方法,其特征在于,该方法包括以下步骤:
采集拼装完成的结构件图像,利用神经网络识别出所述结构件图像中存在焊缝的目标图像;
根据所述目标图像对应的神经网络获取所述目标图像以焊缝为敏感区域的类激活图;对所述类激活图的灰度图像进行阈值分割,得到焊缝的最小外接矩形;
对所述最小外接矩形进行扩增,获取焊缝分割区域,在所述目标图像中裁剪出所述焊缝分割区域作为焊缝参考图,并根据所述最小外接矩形的区域和扩增的区域对所述焊缝参考图进行分区;
通过计算所述焊缝参考图中每两个像素点之间的颜色距离、空间距离和类激活差异获取每两个像素点之间的综合差异,依据所述综合差异和所述焊缝参考图分区的数量对所述焊缝参考图进行超像素分割,得到焊缝区域;
所述目标图像的识别方法为:
以归一化的结构件图像作为所述神经网络的输入,分类函数采用Softmax函数,损失函数采用交叉熵损失,输出该图像是否存在焊缝的概率,取概率最大的索引,得出该图像是否包含焊缝;
所述类激活图的获取方法为:
基于梯度的可解释性对所述目标图像对应的神经网络中最后一层卷积层进行再次计算,获取所述类激活图;
所述阈值分割的方法为:
将所述类激活图进行灰度转换,得到灰度图像,对所述灰度图像根据灰度值采用最大类间方差法进行自适应的阈值分割;
所述最小外接矩形的获取方法为:
通过所述阈值分割得到所述灰度图像的二值图像,对所述二值图像进行连通域提取,并去除噪点连通域,获取去除噪点后的连通域的最小外接矩形作为所述最小外接矩形;
所述焊缝分割区域的获取方法为:
将所述最小外接矩形的角点坐标沿短边向两端分别扩增,得到新的角点坐标,以新的角点坐标形成的区域作为所述焊缝分割区域;
所述颜色距离的获取方法为:
将所述焊缝参考图转换为LAB颜色空间图像,根据所述LAB颜色空间图像中每两个像素之间的要素值的差值计算所述颜色距离;
所述类激活差异的获取方法为:
根据所述灰度图像中每两个像素之间的类激活灰度值的差值计算所述类激活差异;
所述焊缝区域的获取方法为:
以所述焊缝参考图分区的数量作为超像素分割的超像素数量,根据所述综合差异对所述焊缝参考图中的每个像素进行聚类,并不断迭代优化,得到所述焊缝区域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110937964.9A CN113658132B (zh) | 2021-08-16 | 2021-08-16 | 基于计算机视觉的结构件焊缝检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110937964.9A CN113658132B (zh) | 2021-08-16 | 2021-08-16 | 基于计算机视觉的结构件焊缝检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113658132A CN113658132A (zh) | 2021-11-16 |
CN113658132B true CN113658132B (zh) | 2022-08-19 |
Family
ID=78491089
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110937964.9A Active CN113658132B (zh) | 2021-08-16 | 2021-08-16 | 基于计算机视觉的结构件焊缝检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113658132B (zh) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114523203B (zh) * | 2022-03-13 | 2022-11-29 | 扬州沃盛车业制造有限公司 | 一种激光智能焊接方法及系统 |
CN114943736B (zh) * | 2022-07-21 | 2022-10-25 | 山东嘉翔汽车散热器有限公司 | 一种汽车散热翅片生产质量检测方法及系统 |
CN115439846B (zh) * | 2022-08-09 | 2023-04-25 | 北京邮电大学 | 图像的分割方法、装置、电子设备及介质 |
CN115082866B (zh) * | 2022-08-19 | 2022-11-29 | 江苏南通二建集团讯腾云创智能科技有限公司 | 一种楼宇智能化消防火灾识别方法 |
CN115205289B (zh) * | 2022-09-15 | 2022-12-06 | 山东雅满家生物质科技有限公司 | 基于视觉的软木地板原材料分级方法 |
CN115471674B (zh) * | 2022-09-20 | 2023-06-27 | 浙江科达利实业有限公司 | 基于图像处理的新能源车二氧化碳管的性能监测系统 |
CN115457004B (zh) * | 2022-09-22 | 2023-05-26 | 山东华太新能源电池有限公司 | 基于计算机视觉的锌膏的智能检测方法 |
CN115278255B (zh) * | 2022-09-23 | 2022-12-20 | 山东宝德龙健身器材有限公司 | 一种用于力量器械安全管理的数据存储系统 |
CN115272778A (zh) * | 2022-09-28 | 2022-11-01 | 南通乾升信息科技有限公司 | 基于rpa和计算机视觉的可回收垃圾分类方法及系统 |
CN116228776B (zh) * | 2023-05-10 | 2023-07-21 | 威海职业学院(威海市技术学院) | 一种机电设备焊接缺陷识别方法及系统 |
CN116664579B (zh) * | 2023-08-01 | 2023-09-29 | 苏州精控能源科技有限公司 | 一种电池包焊接质量图像检测方法 |
CN117314920B (zh) * | 2023-11-30 | 2024-02-02 | 江苏高特高金属科技有限公司 | 一种金属管道x光焊缝表面焊瘤检测方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107424142A (zh) * | 2017-03-30 | 2017-12-01 | 上海万如科技发展有限公司 | 一种基于图像显著性检测的焊缝识别方法 |
CN109886298A (zh) * | 2019-01-16 | 2019-06-14 | 江苏大学 | 一种基于卷积神经网络的焊缝质量检测方法 |
CN110751628A (zh) * | 2019-09-24 | 2020-02-04 | 河海大学常州校区 | 一种基于超声图像的焊缝缺陷自动识别方法 |
WO2021004402A1 (zh) * | 2019-07-05 | 2021-01-14 | 深圳数字生命研究院 | 图像识别方法及装置、存储介质和处理器 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110675370A (zh) * | 2019-09-04 | 2020-01-10 | 武汉理工大学 | 一种基于深度学习的焊接模拟器虚拟焊缝缺陷检测方法 |
-
2021
- 2021-08-16 CN CN202110937964.9A patent/CN113658132B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107424142A (zh) * | 2017-03-30 | 2017-12-01 | 上海万如科技发展有限公司 | 一种基于图像显著性检测的焊缝识别方法 |
CN109886298A (zh) * | 2019-01-16 | 2019-06-14 | 江苏大学 | 一种基于卷积神经网络的焊缝质量检测方法 |
WO2021004402A1 (zh) * | 2019-07-05 | 2021-01-14 | 深圳数字生命研究院 | 图像识别方法及装置、存储介质和处理器 |
CN110751628A (zh) * | 2019-09-24 | 2020-02-04 | 河海大学常州校区 | 一种基于超声图像的焊缝缺陷自动识别方法 |
Non-Patent Citations (1)
Title |
---|
基于改进卷积神经网络的管焊缝X射线图像缺陷识别方法;樊丁等;《焊接学报》;20200131;第41卷(第1期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113658132A (zh) | 2021-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113658132B (zh) | 基于计算机视觉的结构件焊缝检测方法 | |
CN111223088B (zh) | 一种基于深层卷积神经网络的铸件表面缺陷识别方法 | |
CN108898610B (zh) | 一种基于mask-RCNN的物体轮廓提取方法 | |
CN108961235B (zh) | 一种基于YOLOv3网络和粒子滤波算法的缺陷绝缘子识别方法 | |
CN108960245B (zh) | 轮胎模具字符的检测与识别方法、装置、设备及存储介质 | |
CN108918536B (zh) | 轮胎模具表面字符缺陷检测方法、装置、设备及存储介质 | |
CN112241699A (zh) | 物体缺陷类别识别方法、装置、计算机设备和存储介质 | |
CN111915704A (zh) | 一种基于深度学习的苹果分级识别方法 | |
CN111079518B (zh) | 一种基于执法办案区场景下的倒地异常行为识别方法 | |
CN110866455B (zh) | 一种路面水体检测方法 | |
CN110751619A (zh) | 一种绝缘子缺陷检测方法 | |
CN116258722B (zh) | 基于图像处理的桥梁建筑智能检测方法 | |
CN115272204A (zh) | 一种基于机器视觉的轴承表面划痕检测方法 | |
CN114331986A (zh) | 一种基于无人机视觉的坝体裂纹识别与测量方法 | |
CN108274476B (zh) | 一种人形机器人抓取球体的方法 | |
CN111915628B (zh) | 一种基于预测目标密集边界点的单阶段实例分割方法 | |
CN113393426A (zh) | 一种轧钢板表面缺陷检测方法 | |
CN111274964B (zh) | 一种基于无人机视觉显著性分析水面污染物的检测方法 | |
CN111695373A (zh) | 斑马线的定位方法、系统、介质及设备 | |
CN113610052A (zh) | 一种基于深度学习的隧道渗漏水自动识别方法 | |
CN111738264A (zh) | 一种机房设备显示面板数据的智能采集方法 | |
CN108985294B (zh) | 一种轮胎模具图片的定位方法、装置、设备及存储介质 | |
CN111160372A (zh) | 一种基于高速卷积神经网络的大目标识别方法 | |
CN110889418A (zh) | 一种气体轮廓识别方法 | |
CN115410184A (zh) | 一种基于深度神经网络的目标检测车牌识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |