CN112927250B - 一种基于多粒度注意力分层网络的边缘检测系统和方法 - Google Patents

一种基于多粒度注意力分层网络的边缘检测系统和方法 Download PDF

Info

Publication number
CN112927250B
CN112927250B CN202110246519.8A CN202110246519A CN112927250B CN 112927250 B CN112927250 B CN 112927250B CN 202110246519 A CN202110246519 A CN 202110246519A CN 112927250 B CN112927250 B CN 112927250B
Authority
CN
China
Prior art keywords
feature map
convolution
feature
module
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110246519.8A
Other languages
English (en)
Other versions
CN112927250A (zh
Inventor
夏书银
单宏远
高新波
罗跃国
孟坤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Post and Telecommunications
Original Assignee
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Post and Telecommunications filed Critical Chongqing University of Post and Telecommunications
Priority to CN202110246519.8A priority Critical patent/CN112927250B/zh
Publication of CN112927250A publication Critical patent/CN112927250A/zh
Application granted granted Critical
Publication of CN112927250B publication Critical patent/CN112927250B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • G06T5/30Erosion or dilatation, e.g. thinning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于多粒度注意力分层网络的边缘检测系统和方法,该系统包含多个用于捕获高级特征的多粒度特征分层模块和多个用于融合低级特征的通道注意力模块和空间注意力模块,以及用于融合特征图的特征图融合模块;本发明使用通道注意力模块、空间注意力模块和多粒度特征分层模块结合的方法去解决深度神经网络预测边界过厚和背景干扰的问题,能从自然图像中提取清晰的边缘,无需手工提取边缘特征,并且取得良好的视觉效果,提升边缘检测评价指标的性能。

Description

一种基于多粒度注意力分层网络的边缘检测系统和方法
技术领域
本发明涉及一种图片处理技术领域,具体涉及一种基于多粒度注意力分层网络的边缘检测系统和方法。
背景技术
数据指数性爆发增长是互联网时代的一个重要特征,而图像数据是人类从客观世界获取信息的一个高效来源。图像边缘检测是图像处理和计算机视觉中的基本任务之一,尤其是特征提取中的一个研究领域。其目标是从自然图像中获取亮度变化剧烈的像素点构成的集合,边缘是图像最基础也最重要的基本特征之一,广泛应用于运动检测、图像分割、模式识别、人脸识别等数字图像技术领域。传统的边缘检测方法侧重于图像的纹理梯度,计算量小,但是需要人工提取图像特征,且检测效果受到噪声的干扰严重,在检测图片的边缘时经常会发生误检或漏检的情况。随着半导体行业、计算机硬件的发展,算力瓶颈已被打破,推动了深度学习的发展,基于深度学习的边缘检测方法推动了边缘检测的新一轮潮流,许多基于深度学习的边缘检测方法取得了令人印象深刻的效果。
发明《CN106097306A-获取图像边缘检测算子的方法、图像边缘检测方法及装置》提供了一种获取图像边缘检测算子的方法,该方法通过目标划分模块在目标图像中划分出第一目标像素点的四邻域,然后进行预设插值倍率进行双线性插值处理:从四邻域中任选一个像素点作为第二目标像素点,建立第一目标像素点和第二目标像素点的位置关系,根据位置关系以及双线性插值公式确定图像边缘检测函数关系式。此方法比传统的图像边缘检测算子(如Sobel算子、Canny算子等)具有更好的抗噪性能,但存在一个问题,即插值倍率需要人为预先设定。如何设定合适的插值倍率,针对不同类型的图像是否需要适当调整插值倍率,这一参数对边缘检测的效果有一定程度的影响。
发明《CN109255794A-一种标准件深度全卷积特征边缘检测方法》提供一种标准件全卷积特征边缘检测方法,该方法基于全卷积特征(RCF)技术,在卷积神经网络(CNN)构架下,从数据集中训练出全卷积特征卷积神经网络作为初始边缘检测模型,生成标准件边缘图,。然后由专家标注出标准件边缘图的关键边缘、非关键边缘和错误边缘,将所有关键边缘作为正样本、所有非关键边缘和错误边缘作为负样本从而得到专家辅助标准件边缘图。建立损失函数,量化正样本与边缘检测模型生成的边缘图之间的“误差”,通过梯度下降算法,强化学习,缩小“误差”,得到新的边缘检测模型。该方法采用深度学习模型,可以自动地学习到图像中的边缘特征,不需要人工设计特征提取算法,相对传统边缘检测方法有较大提升。尽管基于CNN的方法擅长产生具有语义的轮廓,且无需手工提取边缘特征,但与专家标注图相比,预测边缘相对较厚。
发明内容
本发明所要解决的技术问题是:现有的边缘检测方法需要人为预先设定插值倍率,手工提取边缘特征,预测边缘较厚,本发明提供了解决上述问题的一种基于多粒度注意力分层网络的边缘检测系统和方法。
本发明通过下述技术方案实现:
基于多粒度注意力分层网络的边缘检测系统,包括特征图融合模块、多个多粒度特征分层模块、多个通道注意力模块和多个空间注意力模块;
所述空间注意力模块用于对分层网络前两层卷积输出的的特征图进行筛选,获得底层特征细节丰富的特征图,并将所述底层特征细节丰富的特征图发送给所述特征图融合模块;
所述多粒度特征分层模块用于对分层网络后三层卷积输出的特征图进行膨胀卷积,并将膨胀卷积后的特征图与普通卷积的特征图做残差,获得充分提取和融合了多粒度的特征图,并将所述充分提取和融合了多粒度的特征图发送给所述通道注意力模块;
所述通道注意力模块对所述充分提取和融合了多粒度的特征图进行加权处理,提取出特征图中的关键边缘信息,并将具有关键边缘信息的特征图发送给所述特征图融合模块;
所述特征图融合模块将所述底层特征细节丰富的特征图和具有关键边缘信息的特征图进行融合,得到最终的边缘检测图。
现有边缘检测技术需要人工设计特征提取算法,对图像边缘部分的处理不够细致,得到的边缘检测图的边缘较厚。由于直接使用池化层将信息融合可能会丢失关键信息,导致关键信息无法被直接识别出来,所以本发明通过所述空间注意力模块,将图像中的空间域信息做对应的空间变换,从而将关键的信息提取出来并剔除噪声,分层网络前两层卷积输出的的特征图具有低级特征,低级特征通常包含丰富的细节前景和复杂的背景,这是干扰边缘检测效果的一个重要因素,通过所述空间注意力模块去帅选包含丰富细节的底层特征的空间信息,而不是平等的考虑所有的空间位置,这有助于生成更加清晰的边缘;分层网络后三层卷积输出的特征图具有高级特征,所述多粒度特征分层模块采用不同扩张系数的膨胀卷积去获取高级特征的多粒度特征,得到不同粒度的特征图,将所述不同粒度的特征图与后三层输出的特征图做残差,防止过拟合及梯度消失,增加信息流的流动,通过这种方式,所述多粒度特征分层模块的输出充分提取和融合了多粒度特征,膨胀卷积与普通卷积的相同点在于,卷积核的大小是一样的,故分层网络的参数数量不变,但是膨胀卷积具有更大的感受野,因此膨胀卷积能更好的提取图像相邻像素点之间的关系。分层网络中不同的特征通道对不同的语义产生响应,所述通道注意力模块对每个通道上的特征图像都赋予一个权重,以此加权关联性较高的边缘特征图,权重越大表示该通道与关键信息的相关度越高,通过所述通道注意力模块,更高效地提取出特征图中的关键边缘信息,本发明使用通道注意力模块、空间注意力模块和多粒度特征分层模块结合的方法去解决深度神经网络预测边界过厚和背景干扰的问题,能从自然图像中提取清晰的边缘,无需手工提取边缘特征,并且取得良好的视觉效果,提升边缘检测评价指标的性能。
具体的,所述多粒度特征分层模块用公式表示为:
Figure BDA0002964287800000031
其中,f表示输入,f∈RH×W×C,其中H和W表示图像的高和宽,C表示输入特征图的通道数,x0=H0(f),H0表示网络模型第三层卷积、第四层卷积和第五层卷积对输入的数据集所做的普通卷积,其卷积核大小为1x1,Hi表示多粒度特征分层模块对输入的特征图使用不同扩张系数进行的膨胀卷积,不同扩张系数的膨胀卷积接收到来自普通卷积的残差,以此增加信息的流动,K表示膨胀卷积的个数。
采用扩张系数分别为1,2,3的膨胀卷积去获取高级特征的多粒度特征,然后将卷积后的特征图与具有不同粒度的特征图做残差,以此防止过拟合以及梯度消失,增加信息流的流动。通过这种方式,该模块的输出充分的提取和融合了多粒度特征。
优选的,当K设置为3时,所述多粒度特征分层模块的输出为:
MFM(f)=([x0x1,x2,x3])[]表示对矩阵在指定维度上进行拼接操作。
具体的,令f∈RH×W×C表示一个具有C个通道的高层特征图,首先,所述通道注意力模块将全局平均池化应用于f,得到一个包含全局信息的向量v∈Rc;之后,所述通道注意力模块通过两个连续的全连接层来获取通道之间的权重关系;采用sigmoid激活函数将权重归一化到[0,1]之间;归一化过程用以下公式表示:
w=F(v,W)=Sigmoid(fc2(σ(fc1(v,W1)),W))
其中w表示各个通道的权重,σ表示Relu激活函数,fc1,fc2表示两个全连接层,v表示f经过全局平均池化后的向量,所述通道注意力模块可定义为:
CA(f)=w*f+f。
CNN中不同的特征通道对不同的语义产生响应。使用通道注意力机制,为不同特征通道增加通道注意力,以此加权那些关联性较高的特征图。
具体的,令fl∈RW×H×C表示为具有C个通道的底层特征图,所述空间注意力模块使用两个卷积层进行卷积,以此用于接收底层特征的全局信息而不增加参数;然后所述空间注意力模块采用sigmoid激活函数对特征图进行归一化处理,将其映射到[0,1]之间,所述空间注意力模块表示为:
S1=conv1(conv2(CA(f)))
S2=conv1(conv2(CA(f)))
其中CA(f)表示通道注意力,conv1和conv2分别代表k x1和1x k卷积层,所述空间注意力模块最后的输出表示为:
SA(fl,CA(f))=fl*F(CA(f))=fl*Sigmoid(S1+S2)。
一种基于多粒度注意力分层网络的边缘检测方法,包括以下步骤:
训练阶段:
网络模型参数初始化;
将数据集输入参数初始化后的网络模型中,所述网络模型对所述数据集进行多层卷积处理,输出特征图;
对第二层卷积输出的特征图进行上采样,将上采样后的特征图与第一层卷积输出的特征图进行拼接,对拼接后的特征图进行卷积、筛选,得到底层特征细节丰富的第一特征图;
对第三层卷积输出的特征图、第四层卷积输出的特征图和第五层卷积输出的特征图分别进行膨胀卷积;
将膨胀卷积后的第三层卷积输出的特征图与第三层卷积输出的特征图做残差,再依次加权、卷积和上采样后,得到第二特征图;
将膨胀卷积后的第四层卷积输出的特征图与第四层卷积输出的特征图做残差,再依次加权、卷积和上采样后,得到第三特征图;
将膨胀卷积后的第五层卷积输出的特征图与第五层卷积输出的特征图做残差,再依次加权、卷积和上采样后,得到第四特征图;
所述第一特征图分别与所述第二特征图、第三特征图和第四特征图进行拼接后,得到三个初次拼接特征图;再将所述三个初次拼接特征图进行相互拼接,并合成为一张特征图;通过损失函数对合成后的特征图进行监督训练,输出最终边缘检测图,得到训练好的网络模型;
预测阶段:
使用训练好的网络模型对待检测的图像进行边缘检测。
每次经过所述网络模型骨干网络的卷积层采样后,特征图的尺寸都会变小,因此需要通过上采样将特征图统一到相同尺寸;通过所述空间注意力模块对特征图进行筛选,得到底层特征细节丰富的第一特征图;通过所述多粒度特征分层模块对第三层卷积输出的特征图、第四层卷积输出的特征图和第五层卷积输出的特征图分别进行膨胀卷积和残差处理,得到充分提取和融合了多粒度的特征图;所述多粒度特征分层模块将处理后的特征图输入到所述通道注意力模块,所述通道注意力模块对输入的特征图进行加权处理,得到具有关键边缘信息的特征图;对所述通道注意力模块输出的特征图进行卷积、上采样,得到第二特征图、第三特征图和第四特征图,最后将获得的特征图进行两次拼接,再合成为一张特征图,通过损失函数对合成的一张特征图进行优化,网络模型输出最终的边缘检测图。本发明方法克服了现有技术中需要人工设计特征提取算法的问题,可以自动地学习到图像中的边缘特征,而且本发明发放对图像边缘部分处理地更加细致,预测出来的边缘图像能产生更好的视觉效果。
具体的,所述损失函数定义为:
L(W)=LBCE(W)+λ(LDice(W))
其中λ是平衡LBCE与LDice的一个超参数;
Figure BDA0002964287800000051
Figure BDA0002964287800000052
其中I是一个输出图像,T是模型的输出预测图像,E表示图像中所有的像素点,E+表示图像中所有的边缘像素点,E-表示图像中所有的非边缘点,
Figure BDA0002964287800000053
是目标像素点在所有像素点中的比例,W为网络可训练的参数,pi为第i个边缘像素的预测值,ti为第i个边缘像素的真实值。
优选的,所述网络模型参数初始化时,BatchSize设置为8,初始学习率设置为0.01,权重衰减设置为1e-4,训练epoch设置为20,λ设置为0.01。
优选的,通过梯度下降算法和反向传播算法,不断优化损失函数,拟合出清晰的特征图边缘。
优选的,所述网络模型以VGG网络为骨干网络,移除三个全连接层和最后的池化层。
本发明具有如下的优点和有益效果:
本发明一种基于多粒度注意力分层网络的边缘检测系统和方法,提出了一种新颖的边缘检测网络模型,该网络模型使用通道注意力模块、空间注意力模块和多粒度特征分层模块融合的方法去解决深度神经网络预测边界过厚和背景干扰的问题。可以从自然图像中提取清晰的边缘,无需手工提取边缘特征,并且取得良好的视觉效果,提升边缘检测评价指标的性能。
附图说明
此处所说明的附图用来提供对本发明实施例的进一步理解,构成本申请的一部分,并不构成对本发明实施例的限定。在附图中:
图1为本发明的系统结构图。
图2为本发明方法的网络框架示意图。
图3为本发明实施实验结果。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,下面结合实施例和附图,对本发明作进一步的详细说明,本发明的示意性实施方式及其说明仅用于解释本发明,并不作为对本发明的限定。
实施例
现有的边缘检测方法需要人为预先设定插值倍率,手工提取边缘特征,预测边缘较厚,本实施例一种基于多粒度注意力分层网络的边缘检测系统和方法,提出一种新颖的边缘检测网络模型,该网络模型使用通道注意力模块、空间注意力模块和多粒度特征分层模块结合的方法去解决深度神经网络预测边界过厚和背景干扰的问题,可以从自然图像中提取清晰的边缘,无需手工提取边缘特征,并且取得良好的视觉效果,提升边缘检测评价指标的性能。
如图1和图2所示,基于多粒度注意力分层网络的边缘检测系统,包括特征图融合模块、多个多粒度特征分层模块、多个通道注意力模块和多个空间注意力模块;
空间注意力模块用于对分层网络前两层卷积输出的的特征图进行筛选,获得底层特征细节丰富的特征图,并将底层特征细节丰富的特征图发送给特征图融合模块;
多粒度特征分层模块用于对分层网络后三层卷积输出的特征图进行膨胀卷积,并将膨胀卷积后的特征图与普通卷积的特征图做残差,获得充分提取和融合了多粒度的特征图,并将充分提取和融合了多粒度的特征图发送给通道注意力模块;
通道注意力模块对充分提取和融合了多粒度的特征图进行加权处理,提取出特征图中的关键边缘信息,并将具有关键边缘信息的特征图发送给特征图融合模块;
特征图融合模块将底层特征细节丰富的特征图和具有关键边缘信息的特征图进行融合,得到最终的边缘检测图。
现有边缘检测技术需要人工设计特征提取算法,对图像边缘部分的处理不够细致,得到的边缘检测图的边缘较厚。由于直接使用池化层将信息融合可能会丢失关键信息,导致关键信息无法被直接识别出来,所以本实施例通过空间注意力模块,将图像中的空间域信息做对应的空间变换,从而将关键的信息提取出来并剔除噪声,分层网络前两层卷积输出的的特征图具有低级特征,低级特征通常包含丰富的细节前景和复杂的背景,这是干扰边缘检测效果的一个重要因素,通过空间注意力模块去帅选包含丰富细节的底层特征的空间信息,而不是平等的考虑所有的空间位置,这有助于生成更加清晰的边缘;分层网络后三层卷积输出的特征图具有高级特征,多粒度特征分层模块采用不同扩张系数的膨胀卷积去获取高级特征的多粒度特征,得到不同粒度的特征图,将不同粒度的特征图与后三层输出的特征图做残差,防止过拟合及梯度消失,增加信息流的流动,通过这种方式,多粒度特征分层模块的输出充分提取和融合了多粒度特征,膨胀卷积与普通卷积的相同点在于,卷积核的大小是一样的,故分层网络的参数数量不变,但是膨胀卷积具有更大的感受野,因此膨胀卷积能更好的提取图像相邻像素点之间的关系。分层网络中不同的特征通道对不同的语义产生响应,通道注意力模块对每个通道上的特征图像都赋予一个权重,以此加权关联性较高的边缘特征图,权重越大表示该通道与关键信息的相关度越高,通过通道注意力模块,更高效地提取出特征图中的关键边缘信息,本实施例使用通道注意力模块、空间注意力模块和多粒度特征分层模块结合的方法去解决深度神经网络预测边界过厚和背景干扰的问题,能从自然图像中提取清晰的边缘,无需手工提取边缘特征,并且取得良好的视觉效果,提升边缘检测评价指标的性能。
多粒度特征分层模块用公式表示为:
Figure BDA0002964287800000071
其中,f表示输入,f∈RH×W×C,其中H和W表示图像的高和宽,C表示输入特征图的通道数,x0=H0(f),H0表示网络模型第三层卷积、第四层卷积和第五层卷积对输入的数据集所做的普通卷积,其卷积核大小为1x1,Hi表示多粒度特征分层模块对输入的特征图使用不同扩张系数进行的膨胀卷积,不同扩张系数的膨胀卷积接收到来自普通卷积的残差,以此增加信息的流动,K表示膨胀卷积的个数。
采用扩张系数分别为1,2,3的膨胀卷积去获取高级特征的多粒度特征,然后将卷积后的特征图与具有不同粒度的特征图做残差,以此防止过拟合以及梯度消失,增加信息流的流动。通过这种方式,该模块的输出充分的提取和融合了多粒度特征。
本实施例中K设置为3,当K设置为3时,多粒度特征分层模块的输出为:
MFM(f)=([x0,x1,x2,x3])[]表示对矩阵在指定维度上进行拼接操作。
具体的,令f∈RH×W×C表示一个具有C个通道的高层特征图,首先,通道注意力模块将全局平均池化应用于f,得到一个包含全局信息的向量v∈Rc;之后,通道注意力模块通过两个连续的全连接层来获取通道之间的权重关系;采用sigmoid激活函数将权重归一化到[0,1]之间;归一化过程用以下公式表示:
w=F(v,W)=Sigmoid(fc2(σ(fc1(v,W1)),W))
其中w表示各个通道的权重,σ表示Relu激活函数,fc1,fc2表示两个全连接层,v表示f经过全局平均池化后的向量,通道注意力模块可定义为:
CA(f)=w*f+f。
CNN中不同的特征通道对不同的语义产生响应。使用通道注意力机制,为不同特征通道增加通道注意力,以此加权那些关联性较高的特征图。
令fl∈RW×H×C表示为具有C个通道的底层特征图,空间注意力模块使用两个卷积层进行卷积,以此用于接收底层特征的全局信息而不增加参数;然后空间注意力模块采用sigmoid激活函数对特征图进行归一化处理,将其映射到[0,1]之间,空间注意力模块表示为:
S1=conv1(conv2(CA(f)))
S2=conv1(conv2(CA(f)))
其中CA(f)表示通道注意力,conv1和conv2分别代表k x1和1xk卷积层,空间注意力模块最后的输出表示为:
SA(fl,CA(f))=fl*F(CA(f))=fl*Sigmoid(S1+S2)。
如图2所示,一种基于多粒度注意力分层网络的边缘检测方法,包括以下步骤:
训练阶段:
网络模型参数初始化;
将数据集输入参数初始化后的网络模型中,网络模型对所述数据集进行多层卷积处理,输出特征图;
对第二层卷积输出的特征图进行上采样,将上采样后的特征图与第一层卷积输出的特征图进行拼接,对拼接后的特征图进行卷积、筛选,得到底层特征细节丰富的第一特征图;
对第三层卷积输出的特征图、第四层卷积输出的特征图和第五层卷积输出的特征图分别进行膨胀卷积;
将膨胀卷积后的第三层卷积输出的特征图与第三层卷积输出的特征图做残差,再依次加权、卷积和上采样后,得到第二特征图;
将膨胀卷积后的第四层卷积输出的特征图与第四层卷积输出的特征图做残差,再依次加权、卷积和上采样后,得到第三特征图;
将膨胀卷积后的第五层卷积输出的特征图与第五层卷积输出的特征图做残差,再依次加权、卷积和上采样后,得到第四特征图;
第一特征图分别与第二特征图、第三特征图和第四特征图进行拼接后,得到三个初次拼接特征图;再将三个初次拼接特征图进行相互拼接,并合成为一张特征图;通过损失函数对合成后的特征图进行监督训练,输出最终边缘检测图,得到训练好的网络模型;
预测阶段:
使用训练好的网络模型对待检测的图像进行边缘检测。
每次经过网络模型骨干网络的卷积层采样后,特征图的尺寸都会变小,因此需要通过上采样将特征图统一到相同尺寸;通过空间注意力模块对特征图进行筛选,得到底层特征细节丰富的第一特征图;通过多粒度特征分层模块对第三层卷积输出的特征图、第四层卷积输出的特征图和第五层卷积输出的特征图分别进行膨胀卷积和残差处理,得到充分提取和融合了多粒度的特征图;多粒度特征分层模块将处理后的特征图输入到通道注意力模块,通道注意力模块对输入的特征图进行加权处理,得到具有关键边缘信息的特征图;对通道注意力模块输出的特征图进行卷积、上采样,得到第二特征图、第三特征图和第四特征图,最后将获得的特征图进行两次拼接,再合成为一张特征图,通过损失函数对合成的一张特征图进行优化,网络模型输出最终的边缘检测图。本实施例方法克服了现有技术中需要人工设计特征提取算法的问题,可以自动地学习到图像中的边缘特征,而且本发明发放对图像边缘部分处理地更加细致,预测出来的边缘图像能产生更好的视觉效果。
结合类平衡交叉熵损失函数来训练网络,函数定义为:
Figure BDA0002964287800000101
其中I是一个输出图像,T是模型的输出预测图像,E表示图像中所有的像素点,E+表示图像中所有的边缘像素点,E-表示图像中所有的非边缘点。
Figure BDA0002964287800000102
是目标像素点在所有像素点中的比例,W为网络可训练的参数。类平衡交叉熵损失函数配合Dice损失函数,可以生成清晰的边缘映射,Dice损失函数定义为:
Figure BDA0002964287800000103
其中pi为第i个边缘像素的预测值,ti为第i个边缘像素的真实值。最终模型的损失函数定义为:
L(W)=LECE(W)+λ(LDice(W))
其中λ是平衡LBCE与LDice的一个超参数,将其设置为0.01。
本实施例中,网络模型参数初始化时,BatchSize设置为8,初始学习率设置为0.01,权重衰减设置为1e-4,训练epoch设置为20,λ设置为0.01。通过梯度下降算法和反向传播算法,不断优化损失函数,拟合出清晰的特征图边缘。网络模型以VGG网络为骨干网络,移除三个全连接层和最后的池化层。数据集为320×320尺寸。
如图3所述,通过本实施例的边缘检测系统和方法,输出的边缘检测图像的边界较细,受背景干扰较少,能提取清晰的边缘,无需手工提取边缘特征,取得良好的视觉效果,提升了边缘检测评价指标的性能。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.基于多粒度注意力分层网络的边缘检测系统,其特征在于,包括特征图融合模块、多个多粒度特征分层模块、多个通道注意力模块和多个空间注意力模块;
所述空间注意力模块用于对分层网络前两层卷积输出的特征图进行筛选,获得底层特征细节丰富的特征图,并将所述底层特征细节丰富的特征图发送给所述特征图融合模块;
所述多粒度特征分层模块用于对分层网络后三层卷积输出的特征图进行膨胀卷积,并将膨胀卷积后的特征图与普通卷积的特征图做残差,获得充分提取和融合了多粒度的特征图,并将所述充分提取和融合了多粒度的特征图发送给所述通道注意力模块;
所述通道注意力模块对所述充分提取和融合了多粒度的特征图进行加权处理,提取出特征图中的关键边缘信息,并将具有关键边缘信息的特征图发送给所述特征图融合模块;
所述特征图融合模块对所述通道注意力模块输出的特征图进行卷积、上采样,得到第二特征图、第三特征图和第四特征图,并将所述底层特征细节丰富的特征图分别和得到的第二特征图、第三特征图和第四特征图进行两次拼接,再合成为一张特征图,通过损失函数对合成的一张特征图进行优化后,输出最终的边缘检测图。
2.根据权利要求1所述的基于多粒度注意力分层网络的边缘检测系统,其特征在于,所述多粒度特征分层模块用公式表示为:
Figure FDA0003333369610000011
其中,f表示输入,f∈RH×W×C,其中H和W表示图像的高和宽,C表示输入特征图的通道数,x0=H0(f),H0表示普通卷积,所述普通卷积指所述分层网络后三层卷积对输入的数据集所作的卷积,其卷积核大小为1x1,Hi表示多粒度特征分层模块对输入的特征图使用不同扩张系数进行的膨胀卷积,不同扩张系数的膨胀卷积接收到来自普通卷积的残差,以此增加信息的流动,K表示膨胀卷积的个数。
3.根据权利要求2所述的基于多粒度注意力分层网络的边缘检测系统,其特征在于,当K设置为3时,所述多粒度特征分层模块的输出为:
MFM(f)=([x0,x1,x2,x3]),[]表示对矩阵在指定维度上进行拼接操作。
4.根据权利要求1所述的基于多粒度注意力分层网络的边缘检测系统,其特征在于,令f∈RH×W×C表示一个具有C个通道的高为H,宽为W的高层特征图,首先,所述通道注意力模块将全局平均池化应用于f,得到一个包含全局信息的向量v∈Rc;之后,所述通道注意力模块通过两个连续的全连接层来获取通道之间的权重关系;采用sigmoid激活函数将权重归一化到[0,1]之间;归一化过程用以下公式表示:
w=F(v,W′)=Sigmoid(fc2(σ(fc1(v,W′)),W′))
其中w表示各个通道的权重,W′为当前网络可训练的参数,σ表示Relu激活函数,fc1,fc2表示两个全连接层,所述通道注意力模块可定义为:
CA(f)=w*f+f。
5.根据权利要求2所述的基于多粒度注意力分层网络的边缘检测系统,其特征在于,令fl∈RW×H×C表示为具有C个通道的底层特征图,其中H和W表示底层特征图的高和宽,所述空间注意力模块使用两个卷积层进行卷积,以此用于接收底层特征的全局信息而不增加参数;然后所述空间注意力模块采用sigmoid激活函数对特征图进行归一化处理,将其映射到[0,1]之间,所述空间注意力模块表示为:
S1=conv1(conv2(CA(f))
S2=conv1(con2(CA(f)))
其中CA(f)表示通道注意力,conv1和conv2分别代表k x 1和1x k卷积层,所述空间注意力模块最后的输出表示为:
SA(fl,CA(f))=fl*F(CA(f))=fl*Sigmoid(S1+S2)。
6.一种基于多粒度注意力分层网络的边缘检测方法,其特征在于,基于权利要求1-5任一所述的基于多粒度注意力分层网络的边缘检测系统,包括以下步骤:
训练阶段:
网络模型参数初始化;
将数据集输入参数初始化后的网络模型中,所述网络模型对所述数据集进行多层卷积处理,输出特征图;
对第二层卷积输出的特征图进行上采样,将上采样后的特征图与第一层卷积输出的特征图进行拼接,对拼接后的特征图进行卷积、筛选,得到底层特征细节丰富的第一特征图;
对第三层卷积输出的特征图、第四层卷积输出的特征图和第五层卷积输出的特征图分别进行膨胀卷积;
将膨胀卷积后的第三层卷积输出的特征图与第三层卷积输出的特征图做残差,再依次加权、卷积和上采样后,得到第二特征图;
将膨胀卷积后的第四层卷积输出的特征图与第四层卷积输出的特征图做残差,再依次加权、卷积和上采样后,得到第三特征图;
将膨胀卷积后的第五层卷积输出的特征图与第五层卷积输出的特征图做残差,再依次加权、卷积和上采样后,得到第四特征图;
所述第一特征图分别与所述第二特征图、第三特征图和第四特征图进行拼接后,得到三个初次拼接特征图;再将所述三个初次拼接特征图进行相互拼接,并合成为一张特征图;通过损失函数对合成后的特征图进行监督训练,输出最终边缘检测图,得到训练好的网络模型;
预测阶段:
使用训练好的网络模型对待检测的图像进行边缘检测。
7.根据权利要求6所述的一种基于多粒度注意力分层网络的边缘检测方法,其特征在于,所述损失函数定义为:
L(W′)=LBCE(W′)+λ(LDice(W′))
其中λ是平衡LBCE与LDice的一个超参数;
Figure FDA0003333369610000031
Figure FDA0003333369610000032
其中I是一个输出图像,T是模型的输出预测图像,E表示图像中所有的像素点,E+表示图像中所有的边缘像素点,E-表示图像中所有的非边缘点,
Figure FDA0003333369610000033
是目标像素点在所有像素点中的比例,W′为当前网络可训练的参数,Ti表示第i个像素值,pi为第i个边缘像素的预测值,ti为第i个边缘像素的真实值,N代表当前图像的像素数量总和。
8.根据权利要求6所述的一种基于多粒度注意力分层网络的边缘检测方法,其特征在于,所述网络模型参数初始化时,BatchSize设置为8,初始学习率设置为0.01,权重衰减设置为1e-4,训练epoch设置为20,λ设置为0.01。
9.根据权利要求6所述的一种基于多粒度注意力分层网络的边缘检测方法,其特征在于,通过梯度下降算法和反向传播算法,不断优化损失函数,拟合出清晰的特征图边缘。
10.根据权利要求6所述的一种基于多粒度注意力分层网络的边缘检测方法,其特征在于,所述网络模型以VGG网络为骨干网络,移除三个全连接层和最后的池化层。
CN202110246519.8A 2021-03-05 2021-03-05 一种基于多粒度注意力分层网络的边缘检测系统和方法 Active CN112927250B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110246519.8A CN112927250B (zh) 2021-03-05 2021-03-05 一种基于多粒度注意力分层网络的边缘检测系统和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110246519.8A CN112927250B (zh) 2021-03-05 2021-03-05 一种基于多粒度注意力分层网络的边缘检测系统和方法

Publications (2)

Publication Number Publication Date
CN112927250A CN112927250A (zh) 2021-06-08
CN112927250B true CN112927250B (zh) 2022-01-25

Family

ID=76173455

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110246519.8A Active CN112927250B (zh) 2021-03-05 2021-03-05 一种基于多粒度注意力分层网络的边缘检测系统和方法

Country Status (1)

Country Link
CN (1) CN112927250B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113506310B (zh) * 2021-07-16 2022-03-01 首都医科大学附属北京天坛医院 医学图像的处理方法、装置、电子设备和存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107169982A (zh) * 2017-05-17 2017-09-15 重庆邮电大学 一种量子LoG边缘检测方法
CN107392930A (zh) * 2017-08-07 2017-11-24 重庆邮电大学 一种量子Canny边缘检测方法
CN111967480A (zh) * 2020-09-07 2020-11-20 上海海事大学 基于权重共享的多尺度自注意力目标检测方法
CN112287832A (zh) * 2020-10-29 2021-01-29 江苏科博空间信息科技有限公司 一种基于高分辨率遥感影像的城镇违法建筑物检测方法
CN112365501A (zh) * 2021-01-13 2021-02-12 南京理工大学 一种基于卷积神经网络的焊件轮廓检测算法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107958255A (zh) * 2017-11-21 2018-04-24 中国科学院微电子研究所 一种基于图像的目标检测方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107169982A (zh) * 2017-05-17 2017-09-15 重庆邮电大学 一种量子LoG边缘检测方法
CN107392930A (zh) * 2017-08-07 2017-11-24 重庆邮电大学 一种量子Canny边缘检测方法
CN111967480A (zh) * 2020-09-07 2020-11-20 上海海事大学 基于权重共享的多尺度自注意力目标检测方法
CN112287832A (zh) * 2020-10-29 2021-01-29 江苏科博空间信息科技有限公司 一种基于高分辨率遥感影像的城镇违法建筑物检测方法
CN112365501A (zh) * 2021-01-13 2021-02-12 南京理工大学 一种基于卷积神经网络的焊件轮廓检测算法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Pyramid Feature Attention Network for Saliency detection;Ting Zhao et al;《2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)》;20200109;第3080-3089页 *

Also Published As

Publication number Publication date
CN112927250A (zh) 2021-06-08

Similar Documents

Publication Publication Date Title
CN111209952B (zh) 基于改进ssd和迁移学习的水下目标检测方法
CN111915627B (zh) 语义分割方法、网络、设备及计算机存储介质
CN112150493B (zh) 一种基于语义指导的自然场景下屏幕区域检测方法
CN112560831B (zh) 一种基于多尺度空间校正的行人属性识别方法
CN111899203B (zh) 基于标注图在无监督训练下的真实图像生成方法及存储介质
CN112927209B (zh) 一种基于cnn的显著性检测系统和方法
CN111931857B (zh) 一种基于mscff的低照度目标检测方法
CN113066017A (zh) 一种图像增强方法、模型训练方法及设备
CN114048822A (zh) 一种图像的注意力机制特征融合分割方法
CN115131797B (zh) 一种基于特征增强金字塔网络的场景文本检测方法
CN110807384A (zh) 低能见度下的小目标检测方法和系统
CN114220126A (zh) 一种目标检测系统及获取方法
CN110852199A (zh) 一种基于双帧编码解码模型的前景提取方法
Wang et al. Deep learning-based visual detection of marine organisms: A survey
CN115439442A (zh) 基于共性和差异的工业品表面缺陷检测与定位方法及系统
CN116645598A (zh) 一种基于通道注意力特征融合的遥感图像语义分割方法
CN116012395A (zh) 一种基于深度可分离卷积的多尺度融合烟雾分割方法
Fan et al. A novel sonar target detection and classification algorithm
CN112927250B (zh) 一种基于多粒度注意力分层网络的边缘检测系统和方法
CN114998373A (zh) 基于多尺度损失函数的改进型U-Net云图分割方法
CN112926667B (zh) 深度融合边缘与高层特征的显著性目标检测方法及装置
CN112329793B (zh) 基于结构自适应和规模自适应感受野的显著性检测方法
CN116452469B (zh) 一种基于深度学习的图像去雾处理方法及装置
CN112215100A (zh) 一种不平衡训练样本下针对退化图像的目标检测方法
CN113076902B (zh) 一种多任务融合的人物细粒度分割系统和方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant