CN110210497A - 一种鲁棒实时焊缝特征检测方法 - Google Patents

一种鲁棒实时焊缝特征检测方法 Download PDF

Info

Publication number
CN110210497A
CN110210497A CN201910444181.XA CN201910444181A CN110210497A CN 110210497 A CN110210497 A CN 110210497A CN 201910444181 A CN201910444181 A CN 201910444181A CN 110210497 A CN110210497 A CN 110210497A
Authority
CN
China
Prior art keywords
frame
image
feature
indicate
convolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910444181.XA
Other languages
English (en)
Other versions
CN110210497B (zh
Inventor
邹焱飚
陈向志
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN201910444181.XA priority Critical patent/CN110210497B/zh
Publication of CN110210497A publication Critical patent/CN110210497A/zh
Application granted granted Critical
Publication of CN110210497B publication Critical patent/CN110210497B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • G06V10/464Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种鲁棒实时焊缝特征检测方法,包括步骤:S1,实时采集焊缝图像;S2,将所采集的图像以一特定值为中心裁剪成一定大小的图像作为网络输入;S3,使用多层卷积神经网络处理裁剪后的图像,获得图像的高层语义特征和图像的局部信息和全局信息;S4,将多层特征拼接,使用卷积神经网络实现局部信息和全局信息的融合,获得高层融合特征;S5,使用循环神经网络处理高层融合特征,学习并获取包含时间上下文信息的高层融合特征;S6,在特征图上生成一系列候选框;S7,使用卷积神经网络对所得包含时间上下文信息的高层融合特征进行处理,结合所述候选框获取焊缝位置和类别。本发明在图像中存在大量噪声时具有稳定的焊缝检测结果。

Description

一种鲁棒实时焊缝特征检测方法
技术领域
本发明涉及焊接轨迹自动检测系统,主要涉及基于激光视觉传感器的焊缝检测,具体涉及一种鲁棒实时焊缝特征检测方法。
背景技术
机器人焊接在提高生产效率、延长生产时间的同时降低生产成本,为企业带来更大的利润。然而,受限于“示教-再现”的工作模式,现存的机器人焊接方式不具备实时适应焊缝轨迹改变的能力,从而对工件的定位和装夹精度提出极高的要求,难以达到柔性制造水平。基于激光视觉传感器的机器人焊缝实时检测系统,通过激光视觉传感器和智能焊缝检测算法实现焊缝的实时准确检测,利用检测结果控制机器人运动到实际焊缝位置实现高精度焊接。针对焊缝检测时利用传统图像处理方法难以在强弧光和飞溅噪声的图像中实现焊缝定位,焊缝检测系统性能受此严重制约的问题,本发明提出一种鲁棒实时焊缝特征检测方法,利用深度学习方法实现强噪声下焊缝特征的准确检测。
发明内容
本发明的目的在于克服现有技术的不足,提供一种抗干扰能力强,实时性好的焊缝特征检测算法,实现强噪声下焊缝的准确检测,进而提高焊缝检测系统的鲁棒性。
本发明的上述目的至少通过如下技术方案之一实现:
一种鲁棒实时焊缝特征检测方法,包括以下步骤:
S1,激光视觉传感器实时采集焊缝图像并传输至嵌入式工业处理器;
S2,将所采集的图像以一特定值为中心,裁剪一定大小的图像作为网络输入;
S3,使用多层卷积神经网络处理步骤S2中裁剪后的图像,获得图像的高层语义特征;并进一步并列使用多层卷积神经网络获取图像的局部信息和全局信息;
S4,将步骤S3中获取的包含焊缝图像的局部信息和全局信息的多层特征拼接,使用卷积神经网络实现局部信息和全局信息的融合,获得高层融合特征;
S5,使用循环神经网络处理步骤S4中的高层融合特征,学习特征中包含的焊缝时间上下文信息,获取包含时间上下文信息的高层融合特征;
S6,在步骤S5所得特征图上生成一系列候选框;
S7,使用卷积神经网络对步骤S5所得包含时间上下文信息的高层融合特征进行处理,结合步骤S6所得候选框,获取焊缝位置和类别。
进一步地,所述步骤S2具体包括:
若当前图像为起始帧,则裁剪中心为手动设定值;
若当前图像非起始帧,则裁剪中心为前一帧焊缝图像检测结果。
进一步地,所述步骤S3具体包括:
使用卷积神经网络对裁剪后的图像进行处理,具体包括,使用卷积层提取图像的高层语义特征,使用最大池化层缩小特征图尺寸,其中卷积层数量根据卷积特征的感受野大小确定,卷积特征的感受野计算公式为:
Rn-1=(Rn-1)*s+k
其中,Rn-1和Rn分别表示第n-1层和第n层的感受野,s表示卷积步长,k表示卷积核大小;
在图像特征缩小至一定尺寸后,并列使用不同空洞率的空洞卷积获取图像的局部信息和全局信息,实现特征感受野迅速扩大的同时保证特征图尺寸保持不变;
在各卷积层后,添加BN层提高网络收敛速度和提升网络性能,BN变换表示为:
其中,m是批数据量,μB为小批量数据的期望,是方差,是正则化后数值,yi是从新构建的输出,γ和β是学习参数,ε是为保证式子的数值稳定性而添加的常量。
进一步地,所述步骤S4具体包括:
在进行特征融合前,将各并列特征按顺序进行拼接,接着使用1x1大小的卷积核进行卷积实现各层特征融合;
特征融合后利用3x3的卷积核在其特征层上进行卷积,将步长设置为2,进一步减小特征图尺寸;
使用3x3的卷积核进行卷积,实现特征的进一步融合。
进一步地,所述步骤S5具体包括:
使用1x1大小的卷积核在特征图上进行卷积,将特征通道进一步压缩以减少RNN的学习量;
使用以GRU为基本单元的RNN学习时间上下文信息,每层网络的神经元数量与输入到RNN的数据长度相同,所述GRU的信息转化关系为:
rt=σ(Wr·[ht-1,xt]+br)
zt=σ(Wz·[ht-1,xt]+bz)
其中rt表示更新门,zt表示重置门,ht-1表示上一时刻隐藏层的状态,xt表示当前时刻的输入,Wr,Wz表示权重,br,bz和bh表示偏置量,表示tanh层输出,σ()表示sigmoid层运算,tanh()表示tanh层运算。
RNN处理后的特征图上,使用1x1大小的卷积核进行卷积,将特征通道恢复至压缩前大小。
进一步地,所述步骤S6具体包括:
在每个特征的中心位置生成不同尺寸的一组默认框,每个默认框的尺寸由以下公式确定:
其中,表示默认框的宽,表示默认框的高,sk表示基础默认框边长,表示每个框的长宽比,对于ar=1的情况,增加一个正方形默认框,其边长为:
其中sk和sk+1分别表示当前层和下一层基础默认框的边长,由实际焊缝尺寸确定。
进一步地,所述步骤S7具体包括:
在训练阶段,其步骤包括:
对四个位置参数进行编码,编码方式如式下:
tx=(x-xa)/wa,ty=(y-ya)/ha,
tw=log(w/wa),th=log(h/ha),
其中x,xa和x*分别表示预测横坐标、默认框横坐标和实际横坐标,其中x,xa和x*分别表示预测横坐标、默认框横坐标和实际横坐标,y,ya和y*分别表示预测纵坐标、默认框纵坐标和实际纵坐标,h,ha和h*分别表示预测高度、默认框高和实际高,w,wa和w*分别表示预测宽、默认框宽和实际宽,tx,ty,tw和th分别表示预测横坐标,预测纵坐标,预测宽和预测高的编码,分别表示实际横坐标,实际纵坐标,实际宽和实际高的编码;
利用Jaccard相似度算法判断默认框是否包含目标,进而将候选框设置为正样本或负样本,所述Jaccard相似度的计算公式为:
其定义为真实框A(目标真实位置)与默认框B的重叠区域的面积与二者在图像中所占的总面积的比值,选择0.5作为阈值,Jaccard相似度大于0.5的为正样本,小于0.5的为负样本;
利用卷积实现分类和回归,对于具有k种类别的焊缝数据,在分类时每个特征位置需要预测的类别数为k+1,包括k种焊缝类和1种背景类;每个默认框须通过4个参数表征,分别为中心点横坐标x,纵坐标y,候选框的高度h和宽度w,因此对于l个默认框,定位时每个特征位置需要回归的参数有4l个;
根据编码结果和检测结果,计算损失,多任务损失函数为:
其中pi表示各类别置信度,表示经过编码的默认框分数,其中正样本分数为1,负样本分数为0,Ncls表示类别数,Nreg表示定位参数数量,λ表示定位损失所占的权重,ti表示编码值;
在预测阶段,其步骤包括:
利用卷积实现分类和回归,对于具有k种类别的焊缝数据,在分类时每个特征位置需要预测的类别数为k+1,包括k种焊缝类和1种背景类;每个默认框须通过4个参数表征,分别为中心点横坐标x,纵坐标y,候选框的高度h和宽度w,因此对于l个默认框,定位时每个特征位置需要回归的参数有4l个;
根据卷积结果,选择置信度最高的框为焊缝目标框,确定焊缝类别;
对检测结果进行解码,获得焊缝的位置,解码方式为:
x=tx*wa+xa,y=ty*ha+ya,
其中tx,ty,tw和th为网络预测值,x,y,w和h表示解码后实际位置。
相比于现有技术,本发明针对焊缝检测任务具有特征少,精度要求高和同类噪声干扰大的特点,结合深度学习目标检测算法的优越性,综合利用不同特征层携带的局部信息和全局信息实现焊缝的快速,准确检测。同时,本发明根据焊接过程的连续性特点,使用循环神经网络以实现对连续多帧焊缝图像经过融合后的特征进行处理,学习其特征中包含的连续图像的时间上下文信息,利用时间上下文信息实现连续强噪声下的焊缝位置检测,在图像中存在大量噪声时具有稳定的焊缝检测结果。
附图说明
图1是本发明实施例中激光视觉焊缝检测系统的结构示意图;
图2是本发明实施例中激光视觉传感器的结构示意图;
图3是鲁棒实时焊缝特征检测方法的框架。
具体实施方式
下面结合实施例及附图对本发明作进一步的详细描述,但本发明的实施方式不限于此。
实施例
如图1所示,激光视觉焊缝检测系统包括焊接保护气瓶1,多功能数字焊接电源2,六轴焊接机器人3,传感器夹具4,激光视觉传感器5,焊接工件和工作台6,工业控制计算机7。如图2所示,激光视觉传感器5由激光器5-1,工业相机5-2,相机镜头5-3,以及滤光片5-4构成。激光器5-1和工业相机5-2成20°角安装。激光视觉传感器5通过传感器夹具4固定前置安装于焊枪前端,实现焊缝特征的实时采集。
如图3所示,本实施例所提出的鲁棒实时焊缝特征检测方法在激光视觉传感器5采集所得图像中实现焊缝特征的检测,具体包括步骤:
S1,激光视觉传感器实时采集焊缝图像并传输至嵌入式工业处理器;
S2,将所采集的图像以一特定值为中心,裁剪一定大小的图像作为网络输入;
S3,使用多层卷积神经网络处理步骤S2中裁剪后的图像,获得图像的高层语义特征;并进一步并列使用多层卷积神经网络获取图像的局部信息和全局信息;
S4,将步骤S3中获取的包含焊缝图像的局部信息和全局信息的多层特征拼接,使用卷积神经网络实现局部信息和全局信息的融合,获得高层融合特征;
S5,使用循环神经网络处理步骤S4中的高层融合特征,学习特征中包含的焊缝时间上下文信息,获取包含时间上下文信息的高层融合特征;
S6,在步骤S5所得特征图上生成一系列候选框;
S7,使用卷积神经网络对步骤S5所得包含时间上下文信息的高层融合特征进行处理,结合步骤S6所得候选框,获取焊缝位置和类别。
进一步地,所述步骤S2具体包括:
若当前图像为起始帧,则裁剪中心为手动设定值;若当前图像非起始帧,则裁剪中心为前一帧焊缝图像检测结果,本实施例中,所裁剪的图像长和宽分别为300像素。
进一步地,所述步骤S3具体包括:
S31、使用卷积神经网络对裁剪后的图像进行处理,具体包括,使用卷积层提取图像的高层语义特征,使用最大池化层缩小特征图尺寸,其中卷积层数量根据卷积特征的感受野大小确定,卷积特征的感受野计算公式为:
Rn-1=(Rn-1)*s+k
其中,Rn-1和Rn分别表示第n-1层和第n层的感受野,s表示卷积步长,k表示卷积核大小;
S32、在图像特征缩小至一定大小后,并列使用不同空洞率的空洞卷积获取图像的局部信息和全局信息,实现特征感受野迅速扩大的同时保证特征图尺寸保持不变;
S33、在各卷积层后,添加BN层提高网络收敛速度和提升网络性能,所述BN变换表示为:
其中,m是批数据量,μB为小批量数据的期望,是方差,是正则化后数值,yi是从新构建的输出,γ和β是学习参数,ε是为保证式子的数值稳定性而添加的常量。
进一步地,所述步骤S4具体包括:
S41、在进行特征融合前,将各并列特征按顺序进行拼接,在此基础上使用1x1大小的卷积核进行卷积实现各层特征融合;
S42、特征融合后利用3x3的卷积核在其特征层上进行卷积,将步长设置为2,进一步减小特征图尺寸;
S43、在此基础上使用3x3的卷积核进行卷积,实现特征的进一步融合。
进一步地,所述步骤S5具体包括:
S51、使用1x1大小的卷积核在特征图上进行卷积,将特征通道进一步压缩以减少RNN的学习量;
S52、使用以GRU为基本单元的RNN学习时间上下文信息,每层网络的神经元数量与输入到RNN的数据长度相同,GRU的信息转化关系为:
rt=σ(Wr·[ht-1,xt]+br)
zt=σ(Wz·[ht-1,xt]+bz)
其中rt表示更新门,zt表示重置门,ht-1表示上一时刻隐藏层的状态,xt表示当前时刻的输入,Wr,Wz和Wh表示权重,br,bz和bh表示偏置量,表示tanh层输出,σ()表示sigmoid层运算,tanh()表示tanh层运算。
S53、RNN处理后的特征图上,使用1x1大小的卷积核进行卷积,将特征通道恢复至压缩前大小。
进一步地,所述步骤S6具体包括:
在每个特征的中心位置生成不同尺寸的一组默认框,每个默认框的尺寸由以下公式确定:
其中,表示默认框的宽,表示默认框的高,sk表示基础默认框边长,表示每个框的长宽比,对于ar=1的情况,增加一个正方形默认框,其边长为:
其中sk和sk+1分别表示当前层和下一层基础默认框的边长,由实际焊缝尺寸确定。
进一步地,所述步骤S7具体包括:
在训练阶段,其步骤为:
S701、对四个位置参数进行编码,编码方式如式下:
tx=(x-xa)/wa,ty=(y-ya)/ha,
tw=log(w/wa),th=log(h/ha),
其中x,xa和x*分别表示预测横坐标、默认框横坐标和实际横坐标,其中x,xa和x*分别表示预测横坐标、默认框横坐标和实际横坐标,y,ya和y*分别表示预测纵坐标、默认框纵坐标和实际纵坐标,h,ha和h*分别表示预测高度、默认框高和实际高,w,wa和w*分别表示预测宽、默认框宽和实际宽,tx,ty,tw和th分别表示预测横坐标,预测纵坐标,预测宽和预测高的编码,分别表示实际横坐标,实际纵坐标,实际宽和实际高的编码;
S702、利用Jaccard相似度算法判断默认框是否包含目标,进而将候选框设置为正样本或负样本,所述Jaccard相似度的计算公式为:
其定义为真实框A与默认框B的重叠区域的面积与二者在图像中所占的总面积的比值,选择0.5作为阈值,Jaccard相似度大于0.5的为正样本,小于0.5的为负样本;
S703、利用卷积实现分类和回归,对于具有k种类别的焊缝数据,在分类时每个特征位置需要预测的类别数为k+1,包括k种焊缝类和1种背景类;每个默认框须通过4个参数表征,分别为中心点横坐标x,纵坐标y,候选框的高度h和宽度w,因此对于l个默认框,定位时每个特征位置需要回归的参数有4l个;
S704、根据编码结果和检测结果,计算损失,多任务损失函数为:
其中pi表示各类别置信度,表示经过编码的默认框分数,其中正样本分数为1,负样本分数为0,λ表示定位损失所占的权重,Ncls表示类别数,Nreg表示定位参数数量,λ表示定位损失所占的权重,ti表示编码值;
在预测阶段,其步骤为:
S711、利用卷积实现分类和回归,对于具有k种类别的焊缝数据,在分类时每个特征位置需要预测的类别数为k+1,包括k种焊缝类和1种背景类;每个默认框须通过4个参数表征,分别为中心点横坐标x,纵坐标y,候选框的高度h和宽度w,因此对于l个默认框,定位时每个特征位置需要回归的参数有4l个;
S712、根据卷积结果,选择置信度最高的框为焊缝目标框,确定焊缝类别;
S713、对检测结果进行解码,获得焊缝的位置,解码方式为:
x=tx*wa+xa,y=ty*ha+ya,
其中tx,ty,tw和th为网络预测值,x,y,w和h表示解码后实际位置。
最终检测结果用于控制机器人运动,实现高精度焊接。
上述实施例仅为清楚地说明本发明所做的举例,而并非对本发明实施方式的限定。其他的任何以上述说明为基础,背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,均在本发明的保护范围之内。

Claims (7)

1.一种鲁棒实时焊缝特征检测方法,其特征在于,包括以下步骤:
S1,激光视觉传感器实时采集焊缝图像并传输至嵌入式工业处理器;
S2,将所采集的图像以一特定值为中心,裁剪一定大小的图像作为网络输入;
S3,使用多层卷积神经网络处理步骤S2中裁剪后的图像,获得图像的高层语义特征;并进一步并列使用多层卷积神经网络获取图像的局部信息和全局信息;
S4,将步骤S3中获取的包含焊缝图像的局部信息和全局信息的多层特征拼接,使用卷积神经网络实现局部信息和全局信息的融合,获得高层融合特征;
S5,使用循环神经网络处理步骤S4中的高层融合特征,学习特征中包含的焊缝时间上下文信息,获取包含时间上下文信息的高层融合特征;
S6,在步骤S5所得特征图上生成一系列候选框;
S7,使用卷积神经网络对步骤S5所得包含时间上下文信息的高层融合特征进行处理,结合步骤S6所得候选框,获取焊缝位置和类别。
2.根据权利要求1所述的鲁棒实时焊缝特征检测方法,其特征在于,所述步骤S2具体包括:
若当前图像为起始帧,则裁剪中心为手动设定值;
若当前图像非起始帧,则裁剪中心为前一帧焊缝图像检测结果。
3.根据权利要求1所述的鲁棒实时焊缝特征检测方法,其特征在于,所述步骤S3具体包括:
使用卷积神经网络对裁剪后的图像进行处理,具体包括,使用卷积层提取图像的高层语义特征,使用最大池化层缩小特征图尺寸,其中卷积层数量根据卷积特征的感受野大小确定,卷积特征的感受野计算公式为:
Rn-1=(Rn-1)*s+k
其中,Rn-1和Rn分别表示第n-1层和第n层的感受野,s表示卷积步长,k表示卷积核大小;
在图像特征缩小至一定尺寸后,并列使用不同空洞率的空洞卷积获取图像的局部信息和全局信息,实现特征感受野迅速扩大的同时保证特征图尺寸保持不变;
在各卷积层后,添加BN层提高网络收敛速度和提升网络性能,BN变换表示为:
其中,m是批数据量,μB为小批量数据的期望,是方差,是正则化后数值,yi是从新构建的输出,γ和β是学习参数,ε是为保证式子的数值稳定性而添加的常量。
4.根据权利要求1所述的鲁棒实时焊缝特征检测方法,其特征在于,所述步骤S4具体包括:
在进行特征融合前,将各并列特征按顺序进行拼接,接着使用1x1大小的卷积核进行卷积实现各层特征融合;
特征融合后利用3x3的卷积核在其特征层上进行卷积,将步长设置为2,进一步减小特征图尺寸;
使用3x3的卷积核进行卷积,实现特征的进一步融合。
5.根据权利要求1所述的鲁棒实时焊缝特征检测方法,其特征在于,所述步骤S5具体包括:
使用1x1大小的卷积核在特征图上进行卷积,将特征通道进一步压缩以减少RNN的学习量;
使用以GRU为基本单元的RNN学习时间上下文信息,每层网络的神经元数量与输入到RNN的数据长度相同,所述GRU的信息转化关系为:
rt=σ(Wr·[ht-1,xt]+br)
zt=σ(Wz·[ht-1,xt]+bz)
其中rt表示更新门,zt表示重置门,ht-1表示上一时刻隐藏层的状态,xt表示当前时刻的输入,Wr,Wz表示权重,br,bz和bh表示偏置量,表示tanh层输出,σ()表示sigmoid层运算,tanh()表示tanh层运算。
RNN处理后的特征图上,使用1x1大小的卷积核进行卷积,将特征通道恢复至压缩前大小。
6.根据权利要求1所述的鲁棒实时焊缝特征检测方法,其特征在于,所述步骤S6具体包括:
在每个特征的中心位置生成不同尺寸的一组默认框,每个默认框的尺寸由以下公式确定:
其中,表示默认框的宽,表示默认框的高,sk表示基础默认框边长,表示每个框的长宽比,对于ar=1的情况,增加一个正方形默认框,其边长为:
其中sk和sk+1分别表示当前层和下一层基础默认框的边长,其值由实际焊缝尺寸确定。
7.根据权利要求1所述的鲁棒实时焊缝特征检测方法,其特征在于,所述步骤S7具体包括:
在训练阶段,其步骤为:
对四个位置参数进行编码,编码方式如式下:
tx=(x-xa)/wa,ty=(y-ya)/ha,
tw=log(w/wa),th=log(h/ha),
其中x,xa和x*分别表示预测横坐标、默认框横坐标和实际横坐标,y,ya和y*分别表示预测纵坐标、默认框纵坐标和实际纵坐标,h,ha和h*分别表示预测高度、默认框高和实际高,w,wa和w*分别表示预测宽、默认框宽和实际宽,tx,ty,tw和th分别表示预测横坐标,预测纵坐标,预测宽和预测高的编码, 分别表示实际横坐标,实际纵坐标,实际宽和实际高的编码;
利用Jaccard相似度算法判断默认框是否包含目标,进而将候选框设置为正样本或负样本,所述Jaccard相似度的计算公式为:
其定义为真实框A与默认框B的重叠区域的面积与二者在图像中所占的总面积的比值,选择0.5作为阈值,Jaccard相似度大于0.5的为正样本,小于0.5的为负样本;
利用卷积实现分类和回归,对于具有k种类别的焊缝数据,在分类时每个特征位置需要预测的类别数为k+1,包括k种焊缝类和1种背景类;每个默认框须通过4个参数表征,分别为中心点横坐标x,纵坐标y,候选框的高度h和宽度w,因此对于l个默认框,定位时每个特征位置需要回归的参数有4l个;
根据编码结果和检测结果,计算损失,多任务损失函数为:
其中pi表示各类别置信度,表示经过编码的默认框分数,其中正样本分数为1,负样本分数为0,Ncls表示类别数,Nreg表示定位参数数量,λ表示定位损失所占的权重,ti表示编码值;
在预测阶段,其步骤为:
利用卷积实现分类和回归,对于具有k种类别的焊缝数据,在分类时每个特征位置需要预测的类别数为k+1,包括k种焊缝类和1种背景类;每个默认框须通过4个参数表征,分别为中心点横坐标x,纵坐标y,候选框的高度h和宽度w,因此对于l个默认框,定位时每个特征位置需要回归的参数有4l个;
根据卷积结果,选择置信度最高的框为焊缝目标框,确定焊缝类别;
对检测结果进行解码,获得焊缝的位置,解码方式为:
x=tx*wa+xa,y=ty*ha+ya,
其中tx,ty,tw和th为网络预测值,x,y,w和h表示解码后实际位置。
CN201910444181.XA 2019-05-27 2019-05-27 一种鲁棒实时焊缝特征检测方法 Active CN110210497B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910444181.XA CN110210497B (zh) 2019-05-27 2019-05-27 一种鲁棒实时焊缝特征检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910444181.XA CN110210497B (zh) 2019-05-27 2019-05-27 一种鲁棒实时焊缝特征检测方法

Publications (2)

Publication Number Publication Date
CN110210497A true CN110210497A (zh) 2019-09-06
CN110210497B CN110210497B (zh) 2023-07-21

Family

ID=67788850

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910444181.XA Active CN110210497B (zh) 2019-05-27 2019-05-27 一种鲁棒实时焊缝特征检测方法

Country Status (1)

Country Link
CN (1) CN110210497B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110751134A (zh) * 2019-12-23 2020-02-04 长沙智能驾驶研究院有限公司 目标检测方法、存储介质及计算机设备
CN110826514A (zh) * 2019-11-13 2020-02-21 国网青海省电力公司海东供电公司 一种基于深度学习的施工现场违章智能识别方法
WO2021051520A1 (zh) * 2019-09-18 2021-03-25 平安科技(深圳)有限公司 图像识别、训练识别模型的方法、相关设备及存储介质
CN112633235A (zh) * 2020-12-31 2021-04-09 华中科技大学 基于机器人的车体焊缝打磨余量分类方法及设备
CN118072947A (zh) * 2024-04-18 2024-05-24 长春理工大学 一种结合时空特征的癫痫预测方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108509978A (zh) * 2018-02-28 2018-09-07 中南大学 基于cnn的多级特征融合的多类目标检测方法及模型
CN108596892A (zh) * 2018-04-23 2018-09-28 西安交通大学 一种基于改进LeNet-5模型的焊缝缺陷识别方法
CN109035204A (zh) * 2018-06-25 2018-12-18 华南理工大学 一种焊缝目标实时检测方法
US20190019589A1 (en) * 2017-07-05 2019-01-17 Electric Power Research Institute, Inc. Apparatus and method for identifying cracks in a structure using a multi-stage classifier
CN109492688A (zh) * 2018-11-05 2019-03-19 深圳步智造科技有限公司 焊缝跟踪方法、装置及计算机可读存储介质
US20190146478A1 (en) * 2016-05-09 2019-05-16 Strong Force Iot Portfolio 2016, Llc Methods and systems of diagnosing machine components using analog sensor data and neural network

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190146478A1 (en) * 2016-05-09 2019-05-16 Strong Force Iot Portfolio 2016, Llc Methods and systems of diagnosing machine components using analog sensor data and neural network
US20190019589A1 (en) * 2017-07-05 2019-01-17 Electric Power Research Institute, Inc. Apparatus and method for identifying cracks in a structure using a multi-stage classifier
CN108509978A (zh) * 2018-02-28 2018-09-07 中南大学 基于cnn的多级特征融合的多类目标检测方法及模型
CN108596892A (zh) * 2018-04-23 2018-09-28 西安交通大学 一种基于改进LeNet-5模型的焊缝缺陷识别方法
CN109035204A (zh) * 2018-06-25 2018-12-18 华南理工大学 一种焊缝目标实时检测方法
CN109492688A (zh) * 2018-11-05 2019-03-19 深圳步智造科技有限公司 焊缝跟踪方法、装置及计算机可读存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ZOU YANBIAO 等: "Real-time seam tracking control system based on line laser visions", 《OPTICS AND LASER TECHNOLOGY》 *
邹焱飚 等: "基于概率连续模型的激光视觉焊缝自动跟踪", 《机械工程学报》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021051520A1 (zh) * 2019-09-18 2021-03-25 平安科技(深圳)有限公司 图像识别、训练识别模型的方法、相关设备及存储介质
CN110826514A (zh) * 2019-11-13 2020-02-21 国网青海省电力公司海东供电公司 一种基于深度学习的施工现场违章智能识别方法
CN110751134A (zh) * 2019-12-23 2020-02-04 长沙智能驾驶研究院有限公司 目标检测方法、存储介质及计算机设备
CN110751134B (zh) * 2019-12-23 2020-05-12 长沙智能驾驶研究院有限公司 目标检测方法、装置、存储介质及计算机设备
CN112633235A (zh) * 2020-12-31 2021-04-09 华中科技大学 基于机器人的车体焊缝打磨余量分类方法及设备
CN112633235B (zh) * 2020-12-31 2022-08-16 华中科技大学 基于机器人的车体焊缝打磨余量分类方法及设备
CN118072947A (zh) * 2024-04-18 2024-05-24 长春理工大学 一种结合时空特征的癫痫预测方法及系统

Also Published As

Publication number Publication date
CN110210497B (zh) 2023-07-21

Similar Documents

Publication Publication Date Title
CN110210497A (zh) 一种鲁棒实时焊缝特征检测方法
Sanchez et al. A review: Comparison of performance metrics of pretrained models for object detection using the TensorFlow framework
US20220366576A1 (en) Method for target tracking, electronic device, and storage medium
CN105760824B (zh) 一种运动人体跟踪方法和系统
CN110163889A (zh) 目标跟踪方法、目标跟踪装置、目标跟踪设备
CN109543662B (zh) 基于区域提议的目标检测方法、系统、装置和存储介质
CN111126399A (zh) 一种图像检测方法、装置、设备及可读存储介质
CN111461106A (zh) 基于可重配置网络的对象检测方法及装置
CN110688925A (zh) 基于深度学习的级联目标识别方法及系统
CN111626176A (zh) 一种遥感图像的地物目标检测方法及系统
CN110675429A (zh) 基于孪生网络和相关滤波器的长短程互补型目标跟踪方法
CN109345559B (zh) 基于样本扩充和深度分类网络的运动目标跟踪方法
CN110310305A (zh) 一种基于bssd检测与卡尔曼滤波的目标跟踪方法与装置
Goodarzi et al. Optimization of a cnn-based object detector for fisheye cameras
CN112487964A (zh) 姿态检测识别方法、设备及计算机可读存储介质
Tang et al. Smoking behavior detection based on improved YOLOv5s algorithm
CN114565842A (zh) 基于Nvidia Jetson嵌入式硬件的无人机实时目标检测方法及系统
CN111339934A (zh) 一种融合图像预处理与深度学习目标检测的人头检测方法
CN111626109A (zh) 一种基于双流卷积神经网络的跌倒行为分析检测方法
CN111368770A (zh) 基于骨骼点检测与跟踪的手势识别方法
CN112766460A (zh) 一种基于子区域和bp神经网络的焊缝识别方法
CN117809082A (zh) 基于裂缝自分割模型的桥梁裂缝病害检测方法及装置
CN110111358B (zh) 一种基于多层时序滤波的目标跟踪方法
CN112115914B (zh) 目标检测方法及装置、电子设备和存储介质
CN115565146A (zh) 基于自编码器获取鸟瞰图特征的感知模型训练方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant