CN109872326B - 基于深度强化网络跳跃连接的轮廓检测方法 - Google Patents

基于深度强化网络跳跃连接的轮廓检测方法 Download PDF

Info

Publication number
CN109872326B
CN109872326B CN201910072022.1A CN201910072022A CN109872326B CN 109872326 B CN109872326 B CN 109872326B CN 201910072022 A CN201910072022 A CN 201910072022A CN 109872326 B CN109872326 B CN 109872326B
Authority
CN
China
Prior art keywords
response
output
convolutional layer
image
convolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910072022.1A
Other languages
English (en)
Other versions
CN109872326A (zh
Inventor
林川
崔林昊
万术娟
王垚
文泽奇
张玉薇
潘勇才
刘青正
曹以隽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangxi University of Science and Technology
Original Assignee
Guangxi University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangxi University of Science and Technology filed Critical Guangxi University of Science and Technology
Priority to CN201910072022.1A priority Critical patent/CN109872326B/zh
Publication of CN109872326A publication Critical patent/CN109872326A/zh
Application granted granted Critical
Publication of CN109872326B publication Critical patent/CN109872326B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明旨在提供一种基于深度强化网络跳跃连接的轮廓检测方法,包括以下步骤:A、构建包含4个等级、5个阶段的深度神经网络结构;B、预设训练数据集,输入训练数据集中的训练图像及其真实轮廓图,训练深度神经网络;C、利用双线性插值算法对待检测图像进行处理,分别得到待检测放大图像、待检测缩小图像,分别输入深度神经网络得到输出响应,将各像素点在上述三个轮廓响应图中对应的特征值取平均值,得到各像素点最终轮廓响应特征值;D、对各像素点的最终轮廓响应特征值使用非极大值抑制和二值化处理,得到最终轮廓图。该方法克服现有技术缺陷,具有融合特征多、检测准确率高的特点。

Description

基于深度强化网络跳跃连接的轮廓检测方法
技术领域
本发明涉及图像处理领域,具体涉及一种基于深度强化网络跳跃连接的轮廓检测方法。
背景技术
轮廓检测是图像处理及计算机视觉中一个很重要组成部分。从复杂的背景中正确、地检测物体轮廓是一个非常重要而困难的工作。在众多传统的图像处理方法中,应用于轮廓检测较成功的有Canny算子、活动轮廓模型和基于机器学习的轮廓模型等。这些方法主要利用了图像中的亮度,颜色,对比度信息进行检测,难以区分目标轮廓和其他杂乱边界。所以在面对图像中的对比度变化比较大、背景干扰比较多的情况时,这些方法很难得到比较满意的结果。上述算法需要相当多的领域专业知识和精细的处理算法设计,把原始图像数据转换成合适的表示或者特征向量,来构造一个轮廓分类器或者轮廓模型。近几年来,深度学习技术已经成为从原始数据中自动学习特征表示的高效方法。借助深度学习工具,尤其是卷积神经网络,轮廓检测任务有显著的性能提高。
现有的常用的卷积神经网络包括端到端的轮廓检测算法Holistically-NestedEdge Detection(HED)以及Convolutional Encoder-Decoder Network(CEDN)网络;HED网络中每个阶段的特征直接反卷积不足以从分重构原始分辨率的图像特征;CEDN网络尽管在解码部分通过组等级的融合来强化解码过程中特征融合问题,不过依然在高分辨率和低分辨率的特征权衡上有所不足。
发明内容
本发明旨在提供一种基于深度强化网络跳跃连接的轮廓检测方法,该方法克服现有技术缺陷,具有融合特征多、检测准确率高的特点。
本发明的技术方案如下:
一种基于深度强化网络跳跃连接的轮廓检测方法,包括以下步骤:
A、构建深度神经网络结构,深度神经网络结构具体如下:
设定4个等级,分别为等级Ⅰ-等级Ⅳ,其中,等级Ⅰ中包含5个阶段,分别为阶段Ⅰ-阶段Ⅴ,所述的每个阶段中分别设置有一个以上的卷积层;所述的等级Ⅱ中设有5个卷积层,分别对应等级Ⅰ中的阶段Ⅰ阶段Ⅴ,设为卷积层Ⅰ-卷积层Ⅴ;所述的等级Ⅲ设有3个卷积层,分别为卷积层Ⅵ-卷积层Ⅷ;所述的等级Ⅳ设有1个卷积层Ⅸ;
所述的阶段Ⅰ-阶段Ⅴ以及等级Ⅱ的卷积层公式为m*n-k conv+relu,其中,m*n表示卷积核的大小,k表示输出通道数,conv表示卷积公式,relu表示激活函数;m*n、k均为预设值;所述的卷积层Ⅵ-卷积层Ⅸ的卷积层公式为m*n-k conv;
所述的阶段Ⅰ的第一卷积层的输入响应为原始图像,阶段Ⅰ的其他卷积层的输入响应为该阶段上一卷积层的输出响应;
阶段Ⅱ-阶段Ⅴ中,除了该阶段中的第一卷积层的输入响应之外,该阶段中的其他卷积层的输入响应为上一卷积层的输出响应;
阶段Ⅰ-阶段Ⅳ中最后一个卷积层的输出响应,一方面经过最大池化后作为下一个阶段的第一卷积层的输入响应;另一方面,作为输入响应分别输入到等级Ⅱ中对应的卷积层中,得到卷积层Ⅰ-卷积层Ⅳ的输出响应;阶段Ⅴ中最后一个卷积层的输出响应直接作为输入响应输入到卷积层Ⅴ,得到卷积层Ⅴ的输出响应;
将卷积层Ⅲ和卷积层Ⅴ的输出响应分别反卷积处理后相加,并将相加结果反卷积之后作为卷积层Ⅷ的输入响应,得到卷积层Ⅷ的输出响应;
将卷积层Ⅱ和卷积层Ⅳ的输出响应分别反卷积处理后相加,并将相加结果反卷积之后作为卷积层Ⅶ的输入响应,得到卷积层Ⅶ的输出响应;
将卷积层Ⅲ的输出响应反卷积处理后与卷积层Ⅰ的输出响应相加,并将相加结果作为卷积层Ⅵ的输入响应,得到卷积层Ⅵ的输出响应;
将卷积层Ⅵ-卷积层Ⅷ的输出响应相加,并将相加结果作为卷积层Ⅸ的输入响应,得到卷积层Ⅸ的输出响应,即为深度神经网络的输出响应;
B、预设训练数据集,训练数据集包含训练图像及其对应的真实轮廓图,输入训练数据集中的训练图像及其真实轮廓图,预设图像批量大小,权重衰减参数,学习率,学习率衰减,最大迭代次数,优化方案和代价函数,以训练数据集中的训练图像作为输入,对应的真实轮廓图作为理想化输出,训练深度神经网络,确定使得深度神经网络输出响应最接近理想化输出的各个卷积核的参数,得到训练完毕的深度神经网络;
C、利用双线性插值算法对待检测图像进行处理,分别得到尺寸是待检测图像2倍的待检测放大图像、尺寸是待检测图像0.5倍的待检测缩小图像,将待检测图像、待检测放大图像、待检测缩小图像分别作为深度神经网络的输入,经过深度神经网络输出分别得到待检测图像轮廓响应图、待检测放大图像轮廓响应图、待检测缩小图像轮廓响应图,将各像素点在上述三个轮廓响应图中对应的特征值取平均值,作为该像素点最终轮廓响应特征值,从而得到各像素点最终轮廓响应特征值;
D、对各像素点的最终轮廓响应特征值使用非极大值抑制和二值化处理,得到各像素点的最终轮廓值,进而得到最终轮廓图。
优选地,所述的步骤B中的代价函数具体为:
Figure GDA0003523636940000031
其中i为训练时同一批次输入的图像编号,i=1,2,...,size;size为同一批次图像的数量;Xi为输入的第i幅图像;W为深度神经网络的模型参数;
Figure GDA0003523636940000032
其中P(Xi;W)=sigmoid(Xi),sigmoid为S型生长曲线函数。
优选地,所述的卷积层均为带有偏置的卷积,偏置的个数与当前的卷积核的个数相对应;
卷积conv的公式如下:
outputj=inputj*kernelj+biasj (3);
其中outputj为当前阶段卷积的第j个输出响应,inputj为当前阶段卷积的第j个输入响应,kernelj为第j个卷积核,*为卷积符号,j=1,2,...,k,k为当前阶段卷积核的个数。
优选地,所述的激活函数为:
relu(x)=max(0,x) (4)。
优选地,所述的反卷积函数为:
Figure GDA0003523636940000033
其中outputj为当前阶段反卷积的第j个输出响应,inputj为当前阶段反卷积的第j个输入响应,
Figure GDA0003523636940000034
为反卷积符号。
优选地,所述的阶段Ⅰ-阶段Ⅴ对应的卷积层个数分别为2个、2个、3个、3个、3个;
阶段Ⅰ-阶段Ⅴ对应的输出通道数分别为64个、128个、256个、512个、512个;
阶段Ⅰ-阶段Ⅴ对应的卷积核大小为3*3像素平方;
所述的等级Ⅱ-等级Ⅳ对应的输出通道数分别为64个,16个,1个;
等级Ⅱ-等级Ⅳ对应的卷积核大小为3*3像素平方。
优选地,所述的图像批量大小表示每一批次训练输入的图像数量,其范围为8-32幅,权重衰减范围为(1e-4)-(2e-4),学习率的范围为(1e-5)-(1e-9),学习率衰减的范围为0-0.1;最大迭代次数的范围为5000-60000次,优化方案为动量为0.9的随机梯度下降法。
优选地,所述的最大池化为2*2最大池化。
本发明的轮廓检测方法具有更深的解码网络,利用5个阶段的卷积提前细部特征,并通过4个等级对各个阶段的输出响应进行“跳跃式”的融合,从而充分融合不同尺度特征图带来的特征,避免遗漏重要特征,同时输入图像通过双线性插值算法进行尺度变换,从而得到更多尺度下的特征信息,以上两个方面的尺度变化及融合,能够实现在抑制强纹理的同时保留弱的边缘,从而提高轮廓识别的成功率。
附图说明
图1本发明提供的基于深度强化网络跳跃连接的轮廓检测方法的深度神经网络的运算结构图;
图2为本发明实施例1方案与文献1、2方案的轮廓检测效果对比图;
图1中的“3*3-64”、“3*3-128”等表示卷积核的参数,其中“3*3”为卷积核的大小尺寸,“-64”、“-128”等表示卷积核的个数即输出的通道数为64或128等。
具体实施方式
下面结合附图和实施例具体说明本发明。
实施例1
如图1所示,本实施例提供的一种基于深度强化网络跳跃连接的轮廓检测方法,包括以下步骤:
A、构建深度神经网络结构,深度神经网络结构具体如下:
设定4个等级,分别为等级Ⅰ-等级Ⅳ,其中,等级Ⅰ中包含5个阶段,分别为阶段Ⅰ-阶段Ⅴ,所述的每个阶段中分别设置有一个以上的卷积层;所述的等级Ⅱ中设有5个卷积层,分别对应等级Ⅰ中的阶段Ⅰ阶段Ⅴ,设为卷积层Ⅰ-卷积层Ⅴ;所述的等级Ⅲ设有3个卷积层,分别为卷积层Ⅵ-卷积层Ⅷ;所述的等级Ⅳ设有1个卷积层Ⅸ;
所述的阶段Ⅰ-阶段Ⅴ以及等级Ⅱ的卷积层公式为m*n-k conv+relu,其中,m*n表示卷积核的大小,k表示输出通道数,conv表示卷积公式,relu表示激活函数;m*n、k均为预设值;所述的卷积层Ⅵ-卷积层Ⅸ的卷积层公式为m*n-k conv;
所述的阶段Ⅰ的第一卷积层的输入响应为原始图像,阶段Ⅰ的其他卷积层的输入响应为该阶段上一卷积层的输出响应;
阶段Ⅱ-阶段Ⅴ中,除了该阶段中的第一卷积层的输入响应之外,该阶段中的其他卷积层的输入响应为上一卷积层的输出响应;
阶段Ⅰ-阶段Ⅳ中最后一个卷积层的输出响应,一方面经过最大池化后作为下一个阶段的第一卷积层的输入响应;另一方面,作为输入响应分别输入到等级Ⅱ中对应的卷积层中,得到卷积层Ⅰ-卷积层Ⅳ的输出响应;阶段Ⅴ中最后一个卷积层的输出响应直接作为输入响应输入到卷积层Ⅴ,得到卷积层Ⅴ的输出响应;
将卷积层Ⅲ和卷积层Ⅴ的输出响应分别反卷积处理后相加,并将相加结果反卷积之后作为卷积层Ⅷ的输入响应,得到卷积层Ⅷ的输出响应;
将卷积层Ⅱ和卷积层Ⅳ的输出响应分别反卷积处理后相加,并将相加结果反卷积之后作为卷积层Ⅶ的输入响应,得到卷积层Ⅶ的输出响应;
将卷积层Ⅲ的输出响应反卷积处理后与卷积层Ⅰ的输出响应相加,并将相加结果作为卷积层Ⅵ的输入响应,得到卷积层Ⅵ的输出响应;
将卷积层Ⅵ-卷积层Ⅷ的输出响应相加,并将相加结果作为卷积层Ⅸ的输入响应,得到卷积层Ⅸ的输出响应,即为深度神经网络的输出响应;
B、预设训练数据集,训练数据集包含训练图像及其对应的真实轮廓图,输入训练数据集中的训练图像及其真实轮廓图,预设图像批量大小,权重衰减参数,学习率,学习率衰减,最大迭代次数,优化方案和代价函数,以训练数据集中的训练图像作为输入,对应的真实轮廓图作为理想化输出,训练深度神经网络,确定使得深度神经网络输出响应最接近理想化输出的各个卷积核的参数,得到训练完毕的深度神经网络;
C、利用双线性插值算法对待检测图像进行处理,分别得到尺寸是待检测图像2倍的待检测放大图像、尺寸是待检测图像0.5倍的待检测缩小图像,将待检测图像、待检测放大图像、待检测缩小图像分别作为深度神经网络的输入,经过深度神经网络输出分别得到待检测图像轮廓响应图、待检测放大图像轮廓响应图、待检测缩小图像轮廓响应图,将各像素点在上述三个轮廓响应图中对应的特征值取平均值,作为该像素点最终轮廓响应特征值,从而得到各像素点最终轮廓响应特征值;
D、对各像素点的最终轮廓响应特征值使用非极大值抑制和二值化处理,得到各像素点的最终轮廓值,进而得到最终轮廓图;
所述的步骤B中的代价函数具体为:
Figure GDA0003523636940000051
其中i为训练时同一批次输入的图像编号,i=1,2,...,size;size为同一批次图像的数量;Xi为输入的第i幅图像;W为深度神经网络的模型参数;
Figure GDA0003523636940000061
其中P(Xi;W)=sigmoid(Xi),sigmoid为S型生长曲线函数;
所述的卷积层均为带有偏置的卷积,偏置的个数与当前的卷积核的个数相对应;
卷积conv的公式如下:
outputj=inputj*kernelj+biasj (3);
其中outputj为当前阶段卷积的第j个输出响应,inputj为当前阶段卷积的第j个输入响应,kernelj为第j个卷积核,*为卷积符号,j=1,2,...,k,k为当前阶段卷积核的个数;
所述的激活函数为:
relu(x)=max(0,x) (4);
所述的反卷积函数为:
Figure GDA0003523636940000062
其中outputj为当前阶段反卷积的第j个输出响应,inputj为当前阶段反卷积的第j个输入响应,
Figure GDA0003523636940000063
为反卷积符号;
所述的阶段Ⅰ-阶段Ⅴ对应的卷积层个数分别为2个、2个、3个、3个、3个;
阶段Ⅰ-阶段Ⅴ对应的输出通道数分别为64个、128个、256个、512个、512个;
阶段Ⅰ-阶段Ⅴ对应的卷积核大小为3*3像素平方;
所述的等级Ⅱ-等级Ⅳ对应的输出通道数分别为64个,16个,1个;
等级Ⅱ-等级Ⅳ对应的卷积核大小为3*3像素平方;
所述的图像批量大小表示每一批次训练输入的图像数量,其范围为10幅,权重衰减范围为1e-4,学习率的范围为1e-6,学习率衰减的范围为0.1;最大迭代次数的范围为40000次,优化方案为动量为0.9的随机梯度下降法;α=1.6;
所述的最大池化为2*2最大池化。
本实施例采用伯克利图像分割数据集(BSDS500)进行训练及检测,采用该数据集中的3幅图(风景、斑马、蝴蝶)作为待检测图像,将本实施例方法与以下文献1、2的方法进行轮廓检测结果的对比;
文献1:D.R.Martin,C.C.Fowlkes,and J.Malik,"Learning to detect naturalimage boundaries using local brightness,color,and texture cues,"IEEETrans.Pattern Anal.Mach.Intell.,vol.26,no.5,pp.530-549,2004;
文献2:P.Arbelaez,M.Maire,C.Fowlkes,and J.Malik,"Contour detection andhierarchical image segmentation,"IEEE Trans.Pattern Anal.Mach.Intell.,vol.33,no.5,pp.898-916,2011;
对比结果采用性能评价指标P:
Figure GDA0003523636940000071
式中nTP、nFP、nFN分别表示检测得到的正确轮廓、错误轮廓以及遗漏的轮廓的数目,评测指标P取值在[0,1]之间,越接近1表示轮廓检测的效果越好,另外,定义容忍度为:在5*5的邻域内检测到的都算正确检测;
对比结果如表1及图2所示;
表1轮廓检测结果(P)对比表
Figure GDA0003523636940000072
结合表1及图2的结果对比可以看出,本实施例方法在识别准确率及识别效果上均优于文献1及文献2方案。
需要说明的是:
在深度神经网络结构中,某一响应(如阶段Ⅰ的输出响应)包含了各个像素点多个通道的特征值,该通道的数量与上一次卷积的卷积核的数量相同;
对某一响应(如阶段Ⅰ的输出响应)的卷积是指利用多个卷积核分别对各个像素点的多个通道的特征值进行卷积,卷积核的个数与该响应中各个像素点的通道数相同;将同一个卷积核对该像素点的多通道的卷积结果叠加,作为该卷积核卷积该像素点的得到特征值,多个卷积核卷积同一像素点得到的特征值即为此次卷积该像素点的响应,各个像素点响应即构成此次卷积的输出响应;
在深度神经网络中,对各个反卷积的上采样倍数进行设定,使得参与各个反卷积处理之后的加法运算的两个响应所对应的图像尺寸相同,以保证加法运算能够顺利完成。
本实施例涉及的深度神经网络训练方法采用文献3中记载的方案:
文献3:
Rumelhart D E,Hinton G E,Williams R J.Learning representations byback-propagating error s[J].nature,1986,323(6088):533;
本实施例涉及的最大池化方法、卷积方法采用文献4中记载的方案:
文献4:
LeCun Y,Bottou L,Bengio Y,et al.Gradient-based learning applied todocument recognition[J].Proceedings of the IEEE,1998,86(11):2278-2324;
本实施例涉及的优化方案的随机梯度下降法采用文献5中记载的方案:
文献5:
Jegadeesh N,Titman S.Returns to buying winners and selling losers:Implications for stock m arket efficiency[J].The Journal of finance,1993,48(1):65-91。
本实施例中涉及的非极大值抑制和二值化处理采用文献6中记载的方法,其中包含的两个阈值th,tl设置为tl=0.5th,由阈值分位数p计算而得,p=0.1;
文献6:Grigorescu C,Petkov N,Westenberg M.Contour detection based onnonclassical receptive field inhibition[J].IEEE Transactions on ImageProcessing,2003,12(7):729-739。

Claims (8)

1.一种基于深度强化网络跳跃连接的轮廓检测方法,其特征在于包括以下步骤:
A、构建深度神经网络结构,深度神经网络结构具体如下:
设定4个等级,分别为等级Ⅰ-等级Ⅳ,其中,等级Ⅰ中包含5个阶段,分别为阶段Ⅰ-阶段Ⅴ,所述的每个阶段中分别设置有一个以上的卷积层;所述的等级Ⅱ中设有5个卷积层,分别对应等级Ⅰ中的阶段Ⅰ阶段Ⅴ,设为卷积层Ⅰ-卷积层Ⅴ;所述的等级Ⅲ设有3个卷积层,分别为卷积层Ⅵ-卷积层Ⅷ;所述的等级Ⅳ设有1个卷积层Ⅸ;
所述的阶段Ⅰ-阶段Ⅴ以及等级Ⅱ的卷积层公式为m*n-k conv+relu,其中,m*n表示卷积核的大小,k表示输出通道数,conv表示卷积公式,relu表示激活函数;m*n、k均为预设值;所述的卷积层Ⅵ-卷积层Ⅸ的卷积层公式为m*n-k conv;
所述的阶段Ⅰ的第一卷积层的输入响应为原始图像,阶段Ⅰ的其他卷积层的输入响应为该阶段上一卷积层的输出响应;
阶段Ⅱ-阶段Ⅴ中,除了该阶段中的第一卷积层的输入响应之外,该阶段中的其他卷积层的输入响应为上一卷积层的输出响应;
阶段Ⅰ-阶段Ⅳ中最后一个卷积层的输出响应,一方面经过最大池化后作为下一个阶段的第一卷积层的输入响应;另一方面,作为输入响应分别输入到等级Ⅱ中对应的卷积层中,得到卷积层Ⅰ-卷积层Ⅳ的输出响应;阶段Ⅴ中最后一个卷积层的输出响应直接作为输入响应输入到卷积层Ⅴ,得到卷积层Ⅴ的输出响应;
将卷积层Ⅲ和卷积层Ⅴ的输出响应分别反卷积处理后相加,并将相加结果反卷积之后作为卷积层Ⅷ的输入响应,得到卷积层Ⅷ的输出响应;
将卷积层Ⅱ和卷积层Ⅳ的输出响应分别反卷积处理后相加,并将相加结果反卷积之后作为卷积层Ⅶ的输入响应,得到卷积层Ⅶ的输出响应;
将卷积层Ⅲ的输出响应反卷积处理后与卷积层Ⅰ的输出响应相加,并将相加结果作为卷积层Ⅵ的输入响应,得到卷积层Ⅵ的输出响应;
将卷积层Ⅵ-卷积层Ⅷ的输出响应相加,并将相加结果作为卷积层Ⅸ的输入响应,得到卷积层Ⅸ的输出响应,即为深度神经网络的输出响应;
B、预设训练数据集,训练数据集包含训练图像及其对应的真实轮廓图,输入训练数据集中的训练图像及其真实轮廓图,预设图像批量大小,权重衰减参数,学习率,学习率衰减,最大迭代次数,优化方案和代价函数,以训练数据集中的训练图像作为输入,对应的真实轮廓图作为理想化输出,训练深度神经网络,确定使得深度神经网络输出响应最接近理想化输出的各个卷积核的参数,得到训练完毕的深度神经网络;
C、利用双线性插值算法对待检测图像进行处理,分别得到尺寸是待检测图像2倍的待检测放大图像、尺寸是待检测图像0.5倍的待检测缩小图像,将待检测图像、待检测放大图像、待检测缩小图像分别作为深度神经网络的输入,经过深度神经网络输出分别得到待检测图像轮廓响应图、待检测放大图像轮廓响应图、待检测缩小图像轮廓响应图,将各像素点在上述三个轮廓响应图中对应的特征值取平均值,作为该像素点最终轮廓响应特征值,从而得到各像素点最终轮廓响应特征值;
D、对各像素点的最终轮廓响应特征值使用非极大值抑制和二值化处理,得到各像素点的最终轮廓值,进而得到最终轮廓图。
2.如权利要求1所述的基于深度强化网络跳跃连接的轮廓检测方法,其特征在于:
所述的步骤B中的代价函数具体为:
Figure FDA0003523636930000021
其中i为训练时同一批次输入的图像编号,i=1,2,...,size;size为同一批次图像的数量;Xi为输入的第i幅图像;W为深度神经网络的模型参数;
Figure FDA0003523636930000022
其中P(Xi;W)=sigmoid(Xi),sigmoid为S型生长曲线函数。
3.如权利要求2所述的基于深度强化网络跳跃连接的轮廓检测方法,其特征在于:
所述的卷积层均为带有偏置的卷积,偏置的个数与当前的卷积核的个数相对应;
卷积conv的公式如下:
outputj=inputj*kernelj+biasj (3);
其中outputj为当前阶段卷积的第j个输出响应,inputj为当前阶段卷积的第j个输入响应,kernelj为第j个卷积核,*为卷积符号,j=1,2,...,k,k为当前阶段卷积核的个数。
4.如权利要求3所述的基于深度强化网络跳跃连接的轮廓检测方法,其特征在于:
所述的激活函数为:
relu(x)=max(0,x) (4)。
5.如权利要求4所述的基于深度强化网络跳跃连接的轮廓检测方法,其特征在于:
所述的反卷积函数为:
Figure FDA0003523636930000031
其中outputj为当前阶段反卷积的第j个输出响应,inputj为当前阶段反卷积的第j个输入响应,
Figure FDA0003523636930000032
为反卷积符号。
6.如权利要求5所述的基于深度强化网络跳跃连接的轮廓检测方法,其特征在于:
所述的阶段Ⅰ-阶段Ⅴ对应的卷积层个数分别为2个、2个、3个、3个、3个;
阶段Ⅰ-阶段Ⅴ对应的输出通道数分别为64个、128个、256个、512个、512个;
阶段Ⅰ-阶段Ⅴ对应的卷积核大小为3*3像素平方;
所述的等级Ⅱ-等级Ⅳ对应的输出通道数分别为64个,16个,1个;
等级Ⅱ-等级Ⅳ对应的卷积核大小为3*3像素平方。
7.如权利要求6所述的基于深度强化网络跳跃连接的轮廓检测方法,其特征在于:
所述的图像批量大小表示每一批次训练输入的图像数量,其范围为8-32幅,权重衰减范围为(1e-4)-(2e-4),学习率的范围为(1e-5)-(1e-9),学习率衰减的范围为0-0.1;最大迭代次数的范围为5000-60000次,优化方案为动量为0.9的随机梯度下降法。
8.如权利要求7所述的基于深度强化网络跳跃连接的轮廓检测方法,其特征在于:
所述的最大池化为2*2最大池化。
CN201910072022.1A 2019-01-25 2019-01-25 基于深度强化网络跳跃连接的轮廓检测方法 Active CN109872326B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910072022.1A CN109872326B (zh) 2019-01-25 2019-01-25 基于深度强化网络跳跃连接的轮廓检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910072022.1A CN109872326B (zh) 2019-01-25 2019-01-25 基于深度强化网络跳跃连接的轮廓检测方法

Publications (2)

Publication Number Publication Date
CN109872326A CN109872326A (zh) 2019-06-11
CN109872326B true CN109872326B (zh) 2022-04-05

Family

ID=66918004

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910072022.1A Active CN109872326B (zh) 2019-01-25 2019-01-25 基于深度强化网络跳跃连接的轮廓检测方法

Country Status (1)

Country Link
CN (1) CN109872326B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110321816B (zh) * 2019-06-19 2021-04-09 北京清微智能科技有限公司 图像识别方法及装置
CN111325762B (zh) * 2020-01-21 2021-01-22 广西科技大学 基于密集连接解码网络的轮廓检测方法
CN111382685B (zh) * 2020-03-04 2023-03-28 电子科技大学 一种基于深度学习的场景识别方法和系统
CN113673538B (zh) * 2021-08-16 2023-07-14 广西科技大学 一种生物启发式多级多层次反馈式轮廓检测方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103324920A (zh) * 2013-06-27 2013-09-25 华南理工大学 基于车辆正面图像与模板匹配的车型自动识别方法
CN103971102A (zh) * 2014-05-21 2014-08-06 南京大学 基于手指轮廓和决策树的静态手势识别方法
CN106033609A (zh) * 2015-07-24 2016-10-19 广西科技大学 仿生物跳跃眼动信息处理机制的目标轮廓检测方法
CN106485695A (zh) * 2016-09-21 2017-03-08 西北大学 基于统计形状模型的医学图像Graph Cut分割方法
CN107767413A (zh) * 2017-09-20 2018-03-06 华南理工大学 一种基于卷积神经网络的图像深度估计方法
CN109033945A (zh) * 2018-06-07 2018-12-18 西安理工大学 一种基于深度学习的人体轮廓提取方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180121804A1 (en) * 2016-10-31 2018-05-03 Farrokh Mohamadi Augmented X-Ray Imaging System For Detection of Threats

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103324920A (zh) * 2013-06-27 2013-09-25 华南理工大学 基于车辆正面图像与模板匹配的车型自动识别方法
CN103971102A (zh) * 2014-05-21 2014-08-06 南京大学 基于手指轮廓和决策树的静态手势识别方法
CN106033609A (zh) * 2015-07-24 2016-10-19 广西科技大学 仿生物跳跃眼动信息处理机制的目标轮廓检测方法
CN106485695A (zh) * 2016-09-21 2017-03-08 西北大学 基于统计形状模型的医学图像Graph Cut分割方法
CN107767413A (zh) * 2017-09-20 2018-03-06 华南理工大学 一种基于卷积神经网络的图像深度估计方法
CN109033945A (zh) * 2018-06-07 2018-12-18 西安理工大学 一种基于深度学习的人体轮廓提取方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Sliding Line Point Regression for Shape Robust Scene Text Detection;Yixing Zhu等;《网页在线公开:https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8545067》;20181129;第1-6页 *
基于Gabor特征与卷积神经网络的人体轮廓提取;王林等;《南京理工大学学报(自然科学版)》;20180409;第42卷(第1期);第89-95页 *
视觉注意机制与Canny算子结合的目标轮廓检测方法;俞昊等;《广西科学大学学报》;20160805;第27卷(第2期);第87-92页 *

Also Published As

Publication number Publication date
CN109872326A (zh) 2019-06-11

Similar Documents

Publication Publication Date Title
CN109872326B (zh) 基于深度强化网络跳跃连接的轮廓检测方法
CN109299274B (zh) 一种基于全卷积神经网络的自然场景文本检测方法
CN111325762B (zh) 基于密集连接解码网络的轮廓检测方法
CN108875935B (zh) 基于生成对抗网络的自然图像目标材质视觉特征映射方法
CN109359681B (zh) 一种基于改进全卷积神经网络的大田作物病虫害识别方法
CN109255344B (zh) 一种基于机器视觉的数显式仪表定位与读数识别方法
CN109118473B (zh) 基于神经网络的角点检测方法、存储介质与图像处理系统
CN109034184B (zh) 一种基于深度学习的均压环检测识别方法
CN103955718A (zh) 一种图像主体对象的识别方法
CN109949334B (zh) 基于深度强化网络残差连接的轮廓检测方法
CN108764358A (zh) 一种太赫兹图像识别方法、装置、设备及可读存储介质
CN110503140B (zh) 基于深度迁移学习与邻域降噪的分类方法
CN112365514A (zh) 基于改进PSPNet的语义分割方法
WO2013106984A1 (en) Learning painting styles for painterly rendering
CN111652317A (zh) 基于贝叶斯深度学习的超参数图像分割方法
CN112819096B (zh) 一种基于复合卷积神经网络的化石图像分类模型的构建方法
CN112862792A (zh) 一种用于小样本图像数据集的小麦白粉病孢子分割方法
CN107590512A (zh) 一种模板匹配中参数的自适应方法和系统
CN104657951A (zh) 图像乘性噪声移除方法
CN113159045A (zh) 一种结合图像预处理与卷积神经网络的验证码识别方法
CN109934835B (zh) 基于深度强化网络邻接连接的轮廓检测方法
CN108765287A (zh) 一种基于非局部均值的图像超分辨率方法
CN113066025A (zh) 一种基于增量学习与特征、注意力传递的图像去雾方法
CN117333359A (zh) 基于可分离卷积网络的山水画图像超分辨率重建方法
CN109063749B (zh) 一种基于角点辐射域的鲁棒卷积核数量适配方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
EE01 Entry into force of recordation of patent licensing contract
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20190611

Assignee: GUANGXI YINGTENG EDUCATION TECHNOLOGY Co.,Ltd.

Assignor: GUANGXI University OF SCIENCE AND TECHNOLOGY

Contract record no.: X2023980053979

Denomination of invention: A contour detection method based on deep reinforcement network skip connections

Granted publication date: 20220405

License type: Common License

Record date: 20231226