CN110210497B - 一种鲁棒实时焊缝特征检测方法 - Google Patents

一种鲁棒实时焊缝特征检测方法 Download PDF

Info

Publication number
CN110210497B
CN110210497B CN201910444181.XA CN201910444181A CN110210497B CN 110210497 B CN110210497 B CN 110210497B CN 201910444181 A CN201910444181 A CN 201910444181A CN 110210497 B CN110210497 B CN 110210497B
Authority
CN
China
Prior art keywords
image
frame
layer
representing
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910444181.XA
Other languages
English (en)
Other versions
CN110210497A (zh
Inventor
邹焱飚
陈向志
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN201910444181.XA priority Critical patent/CN110210497B/zh
Publication of CN110210497A publication Critical patent/CN110210497A/zh
Application granted granted Critical
Publication of CN110210497B publication Critical patent/CN110210497B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • G06V10/464Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种鲁棒实时焊缝特征检测方法,包括步骤:S1,实时采集焊缝图像;S2,将所采集的图像以一特定值为中心裁剪成一定大小的图像作为网络输入;S3,使用多层卷积神经网络处理裁剪后的图像,获得图像的高层语义特征和图像的局部信息和全局信息;S4,将多层特征拼接,使用卷积神经网络实现局部信息和全局信息的融合,获得高层融合特征;S5,使用循环神经网络处理高层融合特征,学习并获取包含时间上下文信息的高层融合特征;S6,在特征图上生成一系列候选框;S7,使用卷积神经网络对所得包含时间上下文信息的高层融合特征进行处理,结合所述候选框获取焊缝位置和类别。本发明在图像中存在大量噪声时具有稳定的焊缝检测结果。

Description

一种鲁棒实时焊缝特征检测方法
技术领域
本发明涉及焊接轨迹自动检测系统,主要涉及基于激光视觉传感器的焊缝检测,具体涉及一种鲁棒实时焊缝特征检测方法。
背景技术
机器人焊接在提高生产效率、延长生产时间的同时降低生产成本,为企业带来更大的利润。然而,受限于“示教-再现”的工作模式,现存的机器人焊接方式不具备实时适应焊缝轨迹改变的能力,从而对工件的定位和装夹精度提出极高的要求,难以达到柔性制造水平。基于激光视觉传感器的机器人焊缝实时检测系统,通过激光视觉传感器和智能焊缝检测算法实现焊缝的实时准确检测,利用检测结果控制机器人运动到实际焊缝位置实现高精度焊接。针对焊缝检测时利用传统图像处理方法难以在强弧光和飞溅噪声的图像中实现焊缝定位,焊缝检测系统性能受此严重制约的问题,本发明提出一种鲁棒实时焊缝特征检测方法,利用深度学习方法实现强噪声下焊缝特征的准确检测。
发明内容
本发明的目的在于克服现有技术的不足,提供一种抗干扰能力强,实时性好的焊缝特征检测算法,实现强噪声下焊缝的准确检测,进而提高焊缝检测系统的鲁棒性。
本发明的上述目的至少通过如下技术方案之一实现:
一种鲁棒实时焊缝特征检测方法,包括以下步骤:
S1,激光视觉传感器实时采集焊缝图像并传输至嵌入式工业处理器;
S2,将所采集的图像以一特定值为中心,裁剪一定大小的图像作为网络输入;
S3,使用多层卷积神经网络处理步骤S2中裁剪后的图像,获得图像的高层语义特征;并进一步并列使用多层卷积神经网络获取图像的局部信息和全局信息;
S4,将步骤S3中获取的包含焊缝图像的局部信息和全局信息的多层特征拼接,使用卷积神经网络实现局部信息和全局信息的融合,获得高层融合特征;
S5,使用循环神经网络处理步骤S4中的高层融合特征,学习特征中包含的焊缝时间上下文信息,获取包含时间上下文信息的高层融合特征;
S6,在步骤S5所得特征图上生成一系列候选框;
S7,使用卷积神经网络对步骤S5所得包含时间上下文信息的高层融合特征进行处理,结合步骤S6所得候选框,获取焊缝位置和类别。
进一步地,所述步骤S2具体包括:
若当前图像为起始帧,则裁剪中心为手动设定值;
若当前图像非起始帧,则裁剪中心为前一帧焊缝图像检测结果。
进一步地,所述步骤S3具体包括:
使用卷积神经网络对裁剪后的图像进行处理,具体包括,使用卷积层提取图像的高层语义特征,使用最大池化层缩小特征图尺寸,其中卷积层数量根据卷积特征的感受野大小确定,卷积特征的感受野计算公式为:
Rn-1=(Rn-1)*s+k
其中,Rn-1和Rn分别表示第n-1层和第n层的感受野,s表示卷积步长,k表示卷积核大小;
在图像特征缩小至一定尺寸后,并列使用不同空洞率的空洞卷积获取图像的局部信息和全局信息,实现特征感受野迅速扩大的同时保证特征图尺寸保持不变;
在各卷积层后,添加BN层提高网络收敛速度和提升网络性能,BN变换表示为:
其中,m是批数据量,μB为小批量数据的期望,是方差,/>是正则化后数值,yi是从新构建的输出,γ和β是学习参数,ε是为保证式子的数值稳定性而添加的常量。
进一步地,所述步骤S4具体包括:
在进行特征融合前,将各并列特征按顺序进行拼接,接着使用1x1大小的卷积核进行卷积实现各层特征融合;
特征融合后利用3x3的卷积核在其特征层上进行卷积,将步长设置为2,进一步减小特征图尺寸;
使用3x3的卷积核进行卷积,实现特征的进一步融合。
进一步地,所述步骤S5具体包括:
使用1x1大小的卷积核在特征图上进行卷积,将特征通道进一步压缩以减少RNN的学习量;
使用以GRU为基本单元的RNN学习时间上下文信息,每层网络的神经元数量与输入到RNN的数据长度相同,所述GRU的信息转化关系为:
其中rt表示更新门,zt表示重置门,ht-1表示上一时刻隐藏层的状态,xt表示当前时刻的输入,Wr,Wz表示权重,br,bz和bh表示偏置量,/>表示tanh层输出,σ()表示sigmoid层运算,tanh()表示tanh层运算。
RNN处理后的特征图上,使用1x1大小的卷积核进行卷积,将特征通道恢复至压缩前大小。
进一步地,所述步骤S6具体包括:
在每个特征的中心位置生成不同尺寸的一组默认框,每个默认框的尺寸由以下公式确定:
其中,表示默认框的宽,/>表示默认框的高,sk表示基础默认框边长,表示每个框的长宽比,对于ar=1的情况,增加一个正方形默认框,其边长为:
其中sk和sk+1分别表示当前层和下一层基础默认框的边长,由实际焊缝尺寸确定。
进一步地,所述步骤S7具体包括:
在训练阶段,其步骤包括:
对四个位置参数进行编码,编码方式如式下:
tpx=(xp-xa)/wa,tpy=(yp-ya)/ha,
tpw=log(wp/wa),tph=log(hp/ha),
其中xp,xa和x*分别表示预测横坐标、默认框横坐标和实际横坐标,yp,ya和y*分别表示预测纵坐标、默认框纵坐标和实际纵坐标,hp,ha和h*分别表示预测高度、默认框高和实际高,wp,wa和w*分别表示预测宽、默认框宽和实际宽,tpx,tpy,tpw和tph分别表示预测横坐标,预测纵坐标,预测宽和预测高的编码,和/>分别表示实际横坐标,实际纵坐标,实际宽和实际高的编码;
利用Jaccard相似度算法判断默认框是否包含目标,进而将候选框设置为正样本或负样本,所述Jaccard相似度的计算公式为:
其定义为真实框A(目标真实位置)与默认框B的重叠区域的面积与二者在图像中所占的总面积的比值,选择0.5作为阈值,Jaccard相似度大于0.5的为正样本,小于0.5的为负样本;
利用卷积实现分类和回归,对于具有k种类别的焊缝数据,在分类时每个特征位置需要预测的类别数为k+1,包括k种焊缝类和1种背景类;每个默认框须通过4个参数表征,分别为中心点横坐标x,纵坐标y,候选框的高度h和宽度w,因此对于l个默认框,定位时每个特征位置需要回归的参数有4l个;
根据编码结果和检测结果,计算损失,多任务损失函数为:
其中pi表示各类别置信度,表示经过编码的默认框分数,其中正样本分数为1,负样本分数为0,Ncls表示类别数,Nreg表示定位参数数量,λ表示定位损失所占的权重,ti表示编码值;
在预测阶段,其步骤包括:
利用卷积实现分类和回归,对于具有k种类别的焊缝数据,在分类时每个特征位置需要预测的类别数为k+1,包括k种焊缝类和1种背景类;每个默认框须通过4个参数表征,分别为中心点横坐标x0,纵坐标y0,候选框的高度h0和宽度w0,因此对于l个默认框,定位时每个特征位置需要回归的参数有4l个;
根据卷积结果,选择置信度最高的框为焊缝目标框,确定焊缝类别;
对检测结果进行解码,获得焊缝的位置,解码方式为:
x=tx*wa+xa,y=ty*ha+ya,
x=tx*wa+xa,y=ty*ha+ya,
其中tx,ty,tw和th分别表示为网络预测后获取的横坐标,纵坐标,候选框的高度和候选框的宽度,x,y,w和h分别表示为解码后获取的横坐标实际位置,纵坐标实际位置,候选框的高度实际位置和候选框的宽度实际位置。
相比于现有技术,本发明针对焊缝检测任务具有特征少,精度要求高和同类噪声干扰大的特点,结合深度学习目标检测算法的优越性,综合利用不同特征层携带的局部信息和全局信息实现焊缝的快速,准确检测。同时,本发明根据焊接过程的连续性特点,使用循环神经网络以实现对连续多帧焊缝图像经过融合后的特征进行处理,学习其特征中包含的连续图像的时间上下文信息,利用时间上下文信息实现连续强噪声下的焊缝位置检测,在图像中存在大量噪声时具有稳定的焊缝检测结果。
附图说明
图1是本发明实施例中激光视觉焊缝检测系统的结构示意图;
图2是本发明实施例中激光视觉传感器的结构示意图;
图3是鲁棒实时焊缝特征检测方法的框架。
具体实施方式
下面结合实施例及附图对本发明作进一步的详细描述,但本发明的实施方式不限于此。
实施例
如图1所示,激光视觉焊缝检测系统包括焊接保护气瓶1,多功能数字焊接电源2,六轴焊接机器人3,传感器夹具4,激光视觉传感器5,焊接工件和工作台6,工业控制计算机7。如图2所示,激光视觉传感器5由激光器5-1,工业相机5-2,相机镜头5-3,以及滤光片5-4构成。激光器5-1和工业相机5-2成20°角安装。激光视觉传感器5通过传感器夹具4固定前置安装于焊枪前端,实现焊缝特征的实时采集。
如图3所示,本实施例所提出的鲁棒实时焊缝特征检测方法在激光视觉传感器5采集所得图像中实现焊缝特征的检测,具体包括步骤:
S1,激光视觉传感器实时采集焊缝图像并传输至嵌入式工业处理器;
S2,将所采集的图像以一特定值为中心,裁剪一定大小的图像作为网络输入;
S3,使用多层卷积神经网络处理步骤S2中裁剪后的图像,获得图像的高层语义特征;并进一步并列使用多层卷积神经网络获取图像的局部信息和全局信息;
S4,将步骤S3中获取的包含焊缝图像的局部信息和全局信息的多层特征拼接,使用卷积神经网络实现局部信息和全局信息的融合,获得高层融合特征;
S5,使用循环神经网络处理步骤S4中的高层融合特征,学习特征中包含的焊缝时间上下文信息,获取包含时间上下文信息的高层融合特征;
S6,在步骤S5所得特征图上生成一系列候选框;
S7,使用卷积神经网络对步骤S5所得包含时间上下文信息的高层融合特征进行处理,结合步骤S6所得候选框,获取焊缝位置和类别。
进一步地,所述步骤S2具体包括:
若当前图像为起始帧,则裁剪中心为手动设定值;若当前图像非起始帧,则裁剪中心为前一帧焊缝图像检测结果,本实施例中,所裁剪的图像长和宽分别为300像素。
进一步地,所述步骤S3具体包括:
S31、使用卷积神经网络对裁剪后的图像进行处理,具体包括,使用卷积层提取图像的高层语义特征,使用最大池化层缩小特征图尺寸,其中卷积层数量根据卷积特征的感受野大小确定,卷积特征的感受野计算公式为:
Rn-1=(Rn-1)*s+k
其中,Rn-1和Rn分别表示第n-1层和第n层的感受野,s表示卷积步长,k表示卷积核大小;
S32、在图像特征缩小至一定大小后,并列使用不同空洞率的空洞卷积获取图像的局部信息和全局信息,实现特征感受野迅速扩大的同时保证特征图尺寸保持不变;
S33、在各卷积层后,添加BN层提高网络收敛速度和提升网络性能,所述BN变换表示为:
其中,m是批数据量,μB为小批量数据的期望,是方差,/>是正则化后数值,yi是从新构建的输出,γ和β是学习参数,ε是为保证式子的数值稳定性而添加的常量。
进一步地,所述步骤S4具体包括:
S41、在进行特征融合前,将各并列特征按顺序进行拼接,在此基础上使用1x1大小的卷积核进行卷积实现各层特征融合;
S42、特征融合后利用3x3的卷积核在其特征层上进行卷积,将步长设置为2,进一步减小特征图尺寸;
S43、在此基础上使用3x3的卷积核进行卷积,实现特征的进一步融合。
进一步地,所述步骤S5具体包括:
S51、使用1x1大小的卷积核在特征图上进行卷积,将特征通道进一步压缩以减少RNN的学习量;
S52、使用以GRU为基本单元的RNN学习时间上下文信息,每层网络的神经元数量与输入到RNN的数据长度相同,GRU的信息转化关系为:
rt=σ(Wr·[ht-1,xt]+br)
zt=σ(Wz·[ht-1,xt]+bz)
其中rt表示更新门,zt表示重置门,ht-1表示上一时刻隐藏层的状态,xt表示当前时刻的输入,Wr,Wz表示权重,br,bz和bh表示偏置量,/>表示tanh层输出,σ()表示sigmoid层运算,tanh()表示tanh层运算。
S53、RNN处理后的特征图上,使用1x1大小的卷积核进行卷积,将特征通道恢复至压缩前大小。
进一步地,所述步骤S6具体包括:
在每个特征的中心位置生成不同尺寸的一组默认框,每个默认框的尺寸由以下公式确定:
其中,表示默认框的宽,/>表示默认框的高,sk表示基础默认框边长,表示每个框的长宽比,对于ar=1的情况,增加一个正方形默认框,其边长为:
其中sk和sk+1分别表示当前层和下一层基础默认框的边长,由实际焊缝尺寸确定。
进一步地,所述步骤S7具体包括:
在训练阶段,其步骤为:
S701、对四个位置参数进行编码,编码方式如式下:
tpx=(xp-xa)/wa,tpy=(yp-ya)/ha,
tpw=log(wp/wa),tph=log(hp/ha),
其中xp,xa和x*分别表示预测横坐标、默认框横坐标和实际横坐标,yp,ya和y*分别表示预测纵坐标、默认框纵坐标和实际纵坐标,hp,ha和h*分别表示预测高度、默认框高和实际高,wp,wa和w*分别表示预测宽、默认框宽和实际宽,tpx,tpy,tpw和tph分别表示预测横坐标,预测纵坐标,预测宽和预测高的编码,和/>分别表示实际横坐标,实际纵坐标,实际宽和实际高的编码;
S702、利用Jaccard相似度算法判断默认框是否包含目标,进而将候选框设置为正样本或负样本,所述Jaccard相似度的计算公式为:
其定义为真实框A与默认框B的重叠区域的面积与二者在图像中所占的总面积的比值,选择0.5作为阈值,Jaccard相似度大于0.5的为正样本,小于0.5的为负样本;
S703、利用卷积实现分类和回归,对于具有k种类别的焊缝数据,在分类时每个特征位置需要预测的类别数为k+1,包括k种焊缝类和1种背景类;每个默认框须通过4个参数表征,分别为中心点横坐标x0,纵坐标y0,候选框的高度h0和宽度w0,因此对于l个默认框,定位时每个特征位置需要回归的参数有4l个;
S704、根据编码结果和检测结果,计算损失,多任务损失函数为:
其中pi表示各类别置信度,表示经过编码的默认框分数,其中正样本分数为1,负样本分数为0,λ表示定位损失所占的权重,Ncls表示类别数,Nreg表示定位参数数量,λ表示定位损失所占的权重,ti和/>表示编码值;
在预测阶段,其步骤为:
S711、利用卷积实现分类和回归,对于具有k种类别的焊缝数据,在分类时每个特征位置需要预测的类别数为k+1,包括k种焊缝类和1种背景类;每个默认框须通过4个参数表征,分别为中心点横坐标x,纵坐标y,候选框的高度h和宽度w,因此对于l个默认框,定位时每个特征位置需要回归的参数有4l个;
S712、根据卷积结果,选择置信度最高的框为焊缝目标框,确定焊缝类别;
S713、对检测结果进行解码,获得焊缝的位置,解码方式为:
x=tx*wa+xa,y=ty*ha+ya,
其中tx,ty,tw和th分别表示为网络预测后获取的横坐标,纵坐标,候选框的高度和候选框的宽度,x,y,w和h分别表示为解码后获取的横坐标实际位置,纵坐标实际位置,候选框的高度实际位置和候选框的宽度实际位置。
最终检测结果用于控制机器人运动,实现高精度焊接。
上述实施例仅为清楚地说明本发明所做的举例,而并非对本发明实施方式的限定。其他的任何以上述说明为基础,背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,均在本发明的保护范围之内。

Claims (6)

1.一种鲁棒实时焊缝特征检测方法,其特征在于,包括以下步骤:
S1,激光视觉传感器实时采集焊缝图像并传输至嵌入式工业处理器;
S2,将所采集的图像以一特定值为中心,裁剪一定大小的图像作为网络输入;
S3,使用多层卷积神经网络处理步骤S2中裁剪后的图像,获得图像的高层语义特征;并进一步并列使用多层卷积神经网络获取图像的局部信息和全局信息;
S4,将步骤S3中获取的包含焊缝图像的局部信息和全局信息的多层特征拼接,使用卷积神经网络实现局部信息和全局信息的融合,获得高层融合特征;
S5,使用循环神经网络处理步骤S4中的高层融合特征,学习特征中包含的焊缝时间上下文信息,获取包含时间上下文信息的高层融合特征;
S6,在步骤S5所得特征图上生成一系列候选框;
S7,使用卷积神经网络对步骤S5所得包含时间上下文信息的高层融合特征进行处理,结合步骤S6所得候选框,获取焊缝位置和类别;
其中,步骤S7具体包括:
在训练阶段,其步骤为:
对四个位置参数进行编码,编码方式如式下:
tpx=(xp-xa)/wa,tpy=(yp-ya)/ha,
tpw=log(wp/wa),tph=log(hp/ha),
其中xp,xa和x*分别表示预测横坐标、默认框横坐标和实际横坐标,yp,ya和y*分别表示预测纵坐标、默认框纵坐标和实际纵坐标,hp,ha和h*分别表示预测高度、默认框高和实际高,wp,wa和w*分别表示预测宽、默认框宽和实际宽,tpx,tpy,tpw和tph分别表示预测横坐标,预测纵坐标,预测宽和预测高的编码,和/>分别表示实际横坐标,实际纵坐标,实际宽和实际高的编码;
利用Jaccard相似度算法判断默认框是否包含目标,进而将候选框设置为正样本或负样本,所述Jaccard相似度的计算公式为:
其定义为真实框A与默认框B的重叠区域的面积与二者在图像中所占的总面积的比值;
利用卷积实现分类和回归,对于具有k种类别的焊缝数据,在分类时每个特征位置需要预测的类别数为k+1,包括k种焊缝类和1种背景类;每个默认框须通过4个参数表征,分别为中心点横坐标x,纵坐标y,候选框的高度h和宽度w,因此对于l个默认框,定位时每个特征位置需要回归的参数有4l个;
根据编码结果和检测结果,计算损失,多任务损失函数为:
其中pi表示各类别置信度,表示经过编码的默认框分数,其中正样本分数为1,负样本分数为0,Ncls表示类别数,Nreg表示定位参数数量,λ表示定位损失所占的权重,ti和/>表示编码值;
在预测阶段,其步骤为:
利用卷积实现分类和回归,对于具有k种类别的焊缝数据,在分类时每个特征位置需要预测的类别数为k+1,包括k种焊缝类和1种背景类;每个默认框须通过4个参数表征,分别为中心点横坐标x0,纵坐标y0,候选框的高度h0和宽度w0,因此对于l个默认框,定位时每个特征位置需要回归的参数有4l个;
根据卷积结果,选择置信度最高的框为焊缝目标框,确定焊缝类别;
对检测结果进行解码,获得焊缝的位置,解码方式为:
x=tx*wa+xa,y=ty*ha+ya,
其中tx,ty,tw和th分别表示为网络预测后获取的横坐标,纵坐标,候选框的高度和候选框的宽度,x,y,w和h分别表示为解码后获取的横坐标实际位置,纵坐标实际位置,候选框的高度实际位置和候选框的宽度实际位置。
2.根据权利要求1所述的鲁棒实时焊缝特征检测方法,其特征在于,所述步骤S2具体包括:
若当前图像为起始帧,则裁剪中心为手动设定值;
若当前图像非起始帧,则裁剪中心为前一帧焊缝图像检测结果。
3.根据权利要求1所述的鲁棒实时焊缝特征检测方法,其特征在于,所述步骤S3具体包括:
使用卷积神经网络对裁剪后的图像进行处理,具体包括,使用卷积层提取图像的高层语义特征,使用最大池化层缩小特征图尺寸,其中卷积层数量根据卷积特征的感受野大小确定,卷积特征的感受野计算公式为:
Rn-1=(Rn-1)*s+k
其中,Rn-1和Rn分别表示第n-1层和第n层的感受野,s表示卷积步长,k表示卷积核大小;
在图像特征缩小至一定尺寸后,并列使用不同空洞率的空洞卷积获取图像的局部信息和全局信息,实现特征感受野迅速扩大的同时保证特征图尺寸保持不变;
在各卷积层后,添加BN层提高网络收敛速度和提升网络性能,BN变换表示为:
其中,m是批数据量,μB为小批量数据的期望,是方差,/>是正则化后数值,yi是从新构建的输出,γ和β是学习参数,ε是为保证式子的数值稳定性而添加的常量。
4.根据权利要求1所述的鲁棒实时焊缝特征检测方法,其特征在于,所述步骤S4具体包括:
在进行特征融合前,将各并列特征按顺序进行拼接,接着使用1x1大小的卷积核进行卷积实现各层特征融合;
特征融合后利用3x3的卷积核在其特征层上进行卷积,将步长设置为2,进一步减小特征图尺寸;
使用3x3的卷积核进行卷积,实现特征的进一步融合。
5.根据权利要求1所述的鲁棒实时焊缝特征检测方法,其特征在于,所述步骤S5具体包括:
使用1x1大小的卷积核在特征图上进行卷积,将特征通道进一步压缩以减少RNN的学习量;
使用以GRU为基本单元的RNN学习时间上下文信息,每层网络的神经元数量与输入到RNN的数据长度相同,所述GRU的信息转化关系为:
rt=σ(Wr·[ht-1,xt]+br)
zt=σ(Wz·[ht-1,xt]+bz)
其中rt表示更新门,zt表示重置门,ht-1表示上一时刻隐藏层的状态,xt表示当前时刻的输入,Wr,Wz表示权重,br,bz和bh表示偏置量,/>表示tanh层输出,σ()表示sigmoid层运算,tanh()表示tanh层运算;
RNN处理后的特征图上,使用1x1大小的卷积核进行卷积,将特征通道恢复至压缩前大小。
6.根据权利要求1所述的鲁棒实时焊缝特征检测方法,其特征在于,所述步骤S6具体包括:
在每个特征的中心位置生成不同尺寸的一组默认框,每个默认框的尺寸由以下公式确定:
其中,表示默认框的宽,/>表示默认框的高,sk表示基础默认框边长,表示每个框的长宽比,对于ar=1的情况,增加一个正方形默认框,其边长为:
其中sk和sk+1分别表示当前层和下一层基础默认框的边长,其值由实际焊缝尺寸确定。
CN201910444181.XA 2019-05-27 2019-05-27 一种鲁棒实时焊缝特征检测方法 Active CN110210497B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910444181.XA CN110210497B (zh) 2019-05-27 2019-05-27 一种鲁棒实时焊缝特征检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910444181.XA CN110210497B (zh) 2019-05-27 2019-05-27 一种鲁棒实时焊缝特征检测方法

Publications (2)

Publication Number Publication Date
CN110210497A CN110210497A (zh) 2019-09-06
CN110210497B true CN110210497B (zh) 2023-07-21

Family

ID=67788850

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910444181.XA Active CN110210497B (zh) 2019-05-27 2019-05-27 一种鲁棒实时焊缝特征检测方法

Country Status (1)

Country Link
CN (1) CN110210497B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110796162B (zh) * 2019-09-18 2023-08-29 平安科技(深圳)有限公司 图像识别、训练识别模型的方法、相关设备及存储介质
CN110826514A (zh) * 2019-11-13 2020-02-21 国网青海省电力公司海东供电公司 一种基于深度学习的施工现场违章智能识别方法
CN110751134B (zh) * 2019-12-23 2020-05-12 长沙智能驾驶研究院有限公司 目标检测方法、装置、存储介质及计算机设备
CN112132779B (zh) * 2020-08-13 2024-08-27 中国计量大学上虞高等研究院有限公司 电阻焊焊接剪切强度、熔核大小和位置的实时检测方法
CN112633235B (zh) * 2020-12-31 2022-08-16 华中科技大学 基于机器人的车体焊缝打磨余量分类方法及设备
CN118072947A (zh) * 2024-04-18 2024-05-24 长春理工大学 一种结合时空特征的癫痫预测方法及系统

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11327475B2 (en) * 2016-05-09 2022-05-10 Strong Force Iot Portfolio 2016, Llc Methods and systems for intelligent collection and analysis of vehicle data
US10811151B2 (en) * 2017-07-05 2020-10-20 Electric Power Research Institute, Inc. Apparatus and method for identifying cracks in a structure using a multi-stage classifier
CN108509978B (zh) * 2018-02-28 2022-06-07 中南大学 基于cnn的多级特征融合的多类目标检测方法及模型
CN108596892B (zh) * 2018-04-23 2020-08-18 西安交通大学 一种基于改进LeNet-5模型的焊缝缺陷识别方法
CN109035204B (zh) * 2018-06-25 2021-06-08 华南理工大学 一种焊缝目标实时检测方法
CN109492688B (zh) * 2018-11-05 2021-07-30 深圳一步智造科技有限公司 焊缝跟踪方法、装置及计算机可读存储介质

Also Published As

Publication number Publication date
CN110210497A (zh) 2019-09-06

Similar Documents

Publication Publication Date Title
CN110210497B (zh) 一种鲁棒实时焊缝特征检测方法
US11878433B2 (en) Method for detecting grasping position of robot in grasping object
CN112232214A (zh) 一种基于深度特征融合和注意力机制的实时目标检测方法
CN113139559B (zh) 一种目标检测模型的训练方法、数据的标注方法和装置
CN109919934A (zh) 一种基于多源域深度迁移学习的液晶面板缺陷检测方法
CN110223382B (zh) 基于深度学习的单帧图像自由视点三维模型重建方法
CN111368637B (zh) 一种基于多掩模卷积神经网络的搬运机器人识别目标方法
CN114155372A (zh) 一种基于深度学习的结构光焊缝曲线识别与拟合方法
CN113601306B (zh) 基于一维分割网络的充电设施箱体焊缝打磨方法
CN110610130A (zh) 一种多传感器信息融合的输电线路机器人导航方法及系统
CN117669008B (zh) 一种基于深度学习的地基沉降预测方法及系统
CN113012228B (zh) 一种工件定位系统及基于深度学习的工件定位方法
CN118279272A (zh) 一种基于改进YOLOv8的钢板表面缺陷检测方法
CN112215301B (zh) 基于卷积神经网络的影像直线探测方法
CN110111358B (zh) 一种基于多层时序滤波的目标跟踪方法
CN117173547A (zh) 一种基于改进的YOLOv6算法的水下目标检测方法
CN114549958B (zh) 基于上下文信息感知机理的夜间和伪装目标检测方法
CN116182894A (zh) 一种单目视觉里程计方法、装置、系统及存储介质
CN112949761A (zh) 三维图像神经网络模型的训练方法、装置和计算机设备
CN112487909A (zh) 一种基于并联卷积神经网络的水果品种识别方法
CN116652387A (zh) 基于轻量级目标检测网络的激光视觉实时焊缝跟踪方法
CN111062380A (zh) 一种基于rfcn算法改进的目标检测方法
Wang et al. Existing weld seam recognition based on sub-region BP_Adaboost algorithm
CN113033669B (zh) 一种基于可学习的特征图过滤与图注意力网络的视觉场景识别方法
CN113111721B (zh) 基于多无人机视角图像数据驱动的人体行为智能识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant