CN114612770A - 基于卷积神经网络的物品检测方法 - Google Patents
基于卷积神经网络的物品检测方法 Download PDFInfo
- Publication number
- CN114612770A CN114612770A CN202210277747.6A CN202210277747A CN114612770A CN 114612770 A CN114612770 A CN 114612770A CN 202210277747 A CN202210277747 A CN 202210277747A CN 114612770 A CN114612770 A CN 114612770A
- Authority
- CN
- China
- Prior art keywords
- network
- feature
- channel
- image
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 94
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 25
- 238000000034 method Methods 0.000 claims abstract description 43
- 238000012549 training Methods 0.000 claims abstract description 38
- 230000005284 excitation Effects 0.000 claims abstract description 19
- 230000004927 fusion Effects 0.000 claims abstract description 19
- 230000007246 mechanism Effects 0.000 claims abstract description 12
- 238000010586 diagram Methods 0.000 claims description 19
- 230000006870 function Effects 0.000 claims description 14
- 230000008569 process Effects 0.000 claims description 10
- 238000012360 testing method Methods 0.000 claims description 10
- 230000004913 activation Effects 0.000 claims description 9
- 238000013135 deep learning Methods 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 5
- 238000011176 pooling Methods 0.000 claims description 5
- 238000011161 development Methods 0.000 claims description 4
- 238000007781 pre-processing Methods 0.000 claims description 4
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 230000008859 change Effects 0.000 claims description 3
- 230000005764 inhibitory process Effects 0.000 claims description 3
- 238000012805 post-processing Methods 0.000 claims description 3
- 230000009467 reduction Effects 0.000 claims description 3
- 238000012216 screening Methods 0.000 claims description 3
- 238000000638 solvent extraction Methods 0.000 claims description 3
- 238000001125 extrusion Methods 0.000 abstract description 4
- 238000012545 processing Methods 0.000 abstract description 2
- 230000000694 effects Effects 0.000 description 10
- 238000002474 experimental method Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000007500 overflow downdraw method Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 238000002679 ablation Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010835 comparative analysis Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000002401 inhibitory effect Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于卷积神经网络的物品检测方法,包括:步骤一:对样本图像进行处理;步骤二:构建目标检测网络模型:该目标检测网络模型以RFBNet网络为基础,首先采用双线性插值方法对RFBNet网络的卷积层Conv7、卷积层Conv9_2的特征图扩大到与卷积层Conv4_3特征图相同的尺寸,然后利用concat通道拼接方式进行特征融合,最后通过加入基于通道注意力机制的挤压激励SE模块;步骤三:训练目标检测网络模型;步骤四:使用目标检测网络模型进行检测,得到检测结果。本发明具有能够满足实时性的前提下,提高小目标物品检测精度的特点。
Description
技术领域
本发明涉及机器视觉领域,具体涉及一种基于卷积神经网络的物品检测方法。
背景技术
随着图像识别、深度学习和大数据等技术的飞速发展,基于深度学习的物品检测成为机器视觉领域研究热点。近年来,国内外学者作了大量的研究,Liu等提出了一种基于Faster R-CNN的无人机检测方法,该模型在检测精度方面取得了不错的效果,但是受限于Faster R-CNN网络,该模型检测的实时性不好。Liu等提出RFB(Receptive Field Block)模块,提高了检测精度,但是该方法直接从网络不同层提取不同尺度的特征进行独立预测,忽视了深层特征与浅层特征之间的关联性,因此小目标检测效果不好。Lin等提出了一种金字塔似的逐级特征融合方法,该方法充分利用了深层网络的语义信息和浅层网络的细节信息,在目标检测中取得了较好的效果,但是由于这种逐级特征融合方式大大的增加了网络的计算量,网络运行速度受到了严重的影响,导致实时应用相当困难。姚群力等提出一种端到端的多尺度特征融合目标检测方法,通过反卷积将深层特征与浅层特征进行融合,特征图信息得到了丰富,改善了小目标的检测效果,但是降低了检测速度。在仓储货柜环境下的目标物品容易受到遮挡、光照、背景相似等因素的影响,因此特征提取比较困难,检测效果较差,究其主要原因是随着CNN不断加深,特征图感受野越大,提取出的特征信息越抽象,但同时也丢失大量的细节信息,导致目标物品检测效果差。
发明内容
本发明的目的在于克服上述缺点而提出了一种能够满足实时性的前提下,提高小目标物品检测精度的基于卷积神经网络的物品检测方法。
本发明的一种基于卷积神经网络的物品检测方法,其中:包括以下步骤:
步骤一:对样本图像进行图像预处理,并将样本图像分为训练图像集和测试图像集;
步骤二:构建目标检测网络模型:该目标检测网络模型以RFBNet网络为基础,首先采用双线性插值方法对RFBNet网络的卷积层Conv7、卷积层Conv9_2的特征图扩大到与卷积层Conv4_3特征图相同的尺寸,然后利用concat通道拼接方式进行特征融合,最后通过加入基于通道注意力机制的挤压激励SE模块,使RFBNet网络自动的重新分配特征通道权重来改善模型的性能,即通过提升重要层的网络权重参数,降低次要层的网络权重参数,提升目标的检测效率;
所述双线性插值方法:
步骤1:将所述卷积层conv7层特征图扩大两倍得到尺寸为38×38的特征图,通道数为256个;将所述卷积层conv9_2层扩大8倍得到尺寸为40×40的特征图,再通过卷积核大小为3×3、通道数为256的卷积运算得到尺寸为38×38的特征图;将卷积层conv4_3层的特征图通道数由512个降为256个,不改变特征图的尺寸;
步骤2:将步骤1中卷积层conv7、conv9_2、conv4_3得到的特征图通过concat叠加通道数的方式进行拼接,拼接后特征再经过通道数为512、卷积核大小为1×1的卷积运算及激活函数操作后得到新的融合特征;从而将语义信息丰富的深层特征融入到细节信息丰富的浅层特征中以提升网络的特征提取能力;
步骤三:训练目标检测网络模型:将训练集中的每张训练图像输入所述目标检测网络模型,首先将每张训练图像调整为尺寸大小一致,然后对每张训练图像使用N×N大小的网格进行分块;当分块的网格存在训练图像中待检测目标的中心点时,该网格对该待检测目标的种类和位置信息进行预测;
步骤四:使用目标检测网络模型进行检测,得到检测结果:输入图像进行检测,利用步骤三中已经训练好的目标检测网络模型进行测试,并通过非极大值抑制进行图像后处理,通过阈值对冗余候选框进行筛选删除,最后得到最优的候选框作为预测框输出。
上述基于卷积神经网络的物品检测方法,其中:所述步骤一中对样本图像进行图像预处理包括翻转、缩放、色域变化等,同时对样本图像进行数据增强,扩大数据集。
上述基于卷积神经网络的物品检测方法,其中:所述步骤一中将样本图像按9∶1的比例分为训练图像集和测试图像集。
上述基于卷积神经网络的物品检测方法,其中:所述步骤二中加入基于通道注意力机制的挤压激励SE模块的具体操作:
首先是挤压操作Fsq,具体过程就是将输入为H×W×c2的特征通过全局平均池化操作变成1×1×c2的特征,该特征具有全局的感受野,用公式表示为:
式中:H、W代表特征图的高和宽,uc代表特征图中的第c个通道,uc(i,j)为第c个通道中第i行、第j列的像素,zc为输出;
其次是激励操作Fex,用于生成每个通道的权重,用公式表示为:
s=Fex(z,w)=σ[W2δ(W1z)]
式中:z为挤压操作的输出,W1为全连接操作,δ为Relu激活函数,W2为全连接操作,σ为Sigmoid函数,s为输出;
最后是注意操作Fscale,将激励输出的权重s分配到先前的通道上,用公式表示为:
y=Fscale(uc,sc)=sc·uc
式中:uc为特征中的第c个通道,sc为步长s中的第c个权重,y为输出。
上述基于卷积神经网络的物品检测方法,其中:所述步骤二中RFBNet网络的卷积层Conv4_3、Conv7、Conv8_2、Conv9_2、Conv10_2、Conv11_2的特征图后加入挤压激励SE模块。
上述基于卷积神经网络的物品检测方法,其中:所述基于卷积神经网络的目标检测方法,其中:所述步骤三中将每张训练图像尺寸调整为300×300。
上述的基于卷积神经网络的物品检测方法,其中:所述步骤三中训练目标检测网络模型时采用集成的开发环境Anaconda3,采用TensorFlow1.13.1作为深度学习框架,使用Adam优化器进行训练,训练过程中batch_size设置为16,初始学习率为0.001,动量参数为0.9,学习率下降因子为0.5。
本发明与现有技术的相比,具有明显的有益效果,由以上方案可知,构建目标检测网络模型:该目标检测网络模型以RFBNet网络为基础,首先采用双线性插值方法对RFBNet网络的卷积层Conv7、卷积层Conv9_2的特征图扩大到与卷积层Conv4_3特征图相同的尺寸,然后利用concat通道拼接方式进行特征融合,最后通过加入基于通道注意力机制的挤压激励SE模块,使RFBNet网络自动的重新分配特征通道权重来改善模型的性能,即通过提升重要层的网络权重参数,降低次要层的网络权重参数,提升目标的检测效率。该目标检测模型在RFBNet网络基础上进行网络结构的改进:在特征提取阶段,采用多尺度特征融合将语义信息丰富的深层特征与细节信息丰富的浅层特征进行融合,获得丰富的特征信息,更好的检测有目标较小的物品;同时引入注意力机制(挤压激励SE模块),使网络提升重要层的网络权重参数,降低次要层的网络权重参数,提升目标的检测效率。总之,本发明能够提高目标检测的效率,同时能保证检测速度,对小目标、遮挡目标及复杂目标有较好的检测效果。
以下通过具体实施方式,进一步说明本发明的有益效果。
附图说明
图1为本发明的流程示意图;
图2为本发明目标检测网络模型结构中的多尺度特征融合的结构图;
图3为实施例中的RFB模块结构图;
图4为实施例中的SSD、RFBNet、SFRFBNet网络(从左到右)PR曲线对比图;
图5为实施例中的RFBNet(上)与本发明(下)检测结果对比图。
具体实施方式
以下结合附图及较佳实施例,对依据本发明提出的一种基于卷积神经网络的物品检测方法的具体实施方式、特征及其功效,详细说明如后。
参见图1和图2,本发明的一种基于卷积神经网络的物品检测方法,其中:包括以下步骤:
步骤一:翻转(对原始图像进行上下、左右翻转)、缩放(对原始图像进行大小的缩放)、色域变化(对原始图像的明亮度、饱和度、色调进行改变)等操作对训练图像样本进行数据增强,扩大数据集,提高神经网络模型学习能力。操作完成后获得适合模型输入的尺寸,同时将数据集按照9∶1的比例分为训练集和测试集;
步骤二:构建目标检测网络模型:该目标检测网络模型以RFBNet网络为基础,首先采用双线性插值方法对RFBNet网络的卷积层Conv7、卷积层Conv9_2的特征图扩大到与卷积层Conv4_3特征图相同的尺寸,然后利用concat通道拼接方式进行特征融合,最后通过加入基于通道注意力机制的挤压激励SE模块,使RFBNet网络自动的重新分配特征通道权重来改善模型的性能,即通过提升重要层的网络权重参数,降低次要层的网络权重参数,提升目标的检测效率;
所述双线性插值方法:
步骤1:将所述卷积层conv7层特征图扩大两倍得到尺寸为38×38的特征图,通道数为256个;将所述卷积层conv9_2层扩大8倍得到尺寸为40×40的特征图,再通过卷积核大小为3×3、通道数为256的卷积运算得到尺寸为38×38的特征图;将卷积层conv4_3层的特征图通道数由512个降为256个,不改变特征图的尺寸;
步骤2:将步骤1中卷积层conv7、conv9_2、conv4_3得到的特征图通过concat叠加通道数的方式进行拼接,拼接后特征再经过通道数为512、卷积核大小为1×1的卷积运算及激活函数操作后得到新的融合特征;从而将语义信息丰富的深层特征融入到细节信息丰富的浅层特征中以提升网络的特征提取能力;
所述步骤二中加入基于通道注意力机制的挤压激励SE模块的具体操作:
首先是挤压操作Fsq,具体过程就是将输入为H×W×c2的特征通过全局平均池化操作变成1×1×c2的特征,该特征具有全局的感受野,用公式表示为:
式中:H、W代表特征图的高和宽,uc代表特征图中的第c个通道,uc(i,j)为第c个通道中第i行、第j列的像素,zc为输出;
其次是激励操作Fex,用于生成每个通道的权重,用公式表示为:
s=Fex(z,w)=σ[W2δ(W1z)]
式中:z为挤压操作的输出,W1为全连接操作,δ为Relu激活函数,W2为全连接操作,σ为Sigmoid函数,s为输出;
最后是注意操作Fscale,将激励输出的权重s分配到先前的通道上,用公式表示为:
y=Fscale(uc,sc)=sc·uc
式中:uc为特征中的第c个通道,sc为步长s中的第c个权重,y为输出。
所述步骤二中RFBNet网络的卷积层Conv4_3、Conv7、Conv8_2、Conv9_2、Conv10_2、Conv11_2的特征图后加入挤压激励SE模块。
步骤三:训练目标检测网络模型:将训练集中的每张训练图像输入所述目标检测网络模型,首先将每张训练图像尺寸调整为300×300,然后对每张训练图像使用N×N大小的网格进行分块;当分块的网格存在训练图像中待检测目标的中心点时,该网格对该待检测目标的种类和位置信息进行预测,具体过程为:
当某个目标的中心点落入被划分出的N*N个网格中,该网格生成多个预测框对该目标进行预测,即每个网格有多个anchors预测生成的边界框以及表明该网格是否包含目标的置信度T;计算预测边界框中心相对于其所在网格左上角坐标与网格边长的比值bx和by,采用Relu激活函数函数约束预测值,将其归一化为σ(t×)和σ(ty);计算边界框宽、高相对于先验框宽、高的比值对数tw和th;计算边界框相对先验框的目标置信度为tc并归一化为σ(tc);根据边界框中心点所在网格左上角坐标(bx,by)、先验框的宽pw和高ph,计算预测的边界框位置和置信度向量T=[bx,by,bw,bh,c];计算模型预测的目标属于各类的概率。
获取各个参数信息后传入损失函数,计算预测的损失Loss,完成对N*N个网格的预测后,将所有网格的参数进行整理汇总,输出该图像的检测结果及损失值。
训练目标检测网络模型时采用集成的开发环境Anaconda3,采用TensorFlow1.13.1作为深度学习框架,使用Adam优化器进行训练,训练过程中batch_size设置为16,初始学习率为0.001,动量参数为0.9,学习率下降因子为0.5,当3个epoch后模型性能没有得到优化后,减小学习率。
步骤四:使用目标检测网络模型进行检测,得到检测结果:输入图像进行检测,利用步骤三中已经训练好的目标检测网络模型进行测试,并通过非极大值抑制进行图像后处理,通过阈值对冗余候选框进行筛选删除,最后得到最优的候选框作为预测框输出。
其中:
1 RFBNet网络
1.1 RFBNet网络框架
RFBNet是一种改进的SSD方法,保留了SSD网路优点,如利用不同比例的默认框获取不同尺度的目标、多尺度特征图目标检测等,RFBNet最大的改进之处是在SSD网络中引入了RFB模块,即:将原SSD网络中的部分卷积层改为RFB模块,并在Conv4_3和Conv7层后分别接RFB-s和RFB结构。
1.2 RFB模块
RFB模块启发于人类视觉感知系统,由多个具有不同感受野的卷积核结合而成,不仅能扩大有效感受野,还能加强感受野中心的特征信息。RFB模块结构主要由多分支卷积层和空洞卷积组成,其结构如图3所示。
1)多分支卷积层。为了获取更好的特征表示,RFB模块使用不同尺寸的卷积核,并以inception的连接方式构成一个多分支网络。如图3(a)所示,RFB模块分别采用了1×1、3×3、5×5的卷积核,此外,为了防止网络层数过深而引起的梯度消失的问题,RFB模块还使用了残差网络中短接的连接方式。如图3(b)所示,RFB-s模块在RFB的基础上采用3×3的卷积核代替5×5的卷积核,并采用小卷积核串联的方式来代替大卷积核,如使用1×3和3×1的卷积核来代替一个3×3的卷积核,该操作不仅扩大了感受野,同时减少了参数量。
2)空洞卷积。为了扩大感受野,RFB模块使用了大量的空洞卷积,空洞卷积是在标准卷积的基础上增加一个扩张率参数d,将卷积核扩张到相应的尺度中,同时在原卷积核中未被占用到的区域填充O,该操作可以在不增加参数计算量的前提下扩大卷积核感受野,并且感受野能呈指数级增长。在空洞卷积中,扩张率越大,卷积核之间的空洞数量越多,感受野越大,如卷积核大小为3×3,d为1、2、3时感受野分别为3×3、5×5、7×7。因此可通过调整扩张率参数来扩大特征图感受野。空洞卷积核N和图像经过卷积后的特征图尺寸M的计算公式为:
N=k+(k-1)(d-1) (1)
其中,k为普通卷积核的尺寸;d为卷积核扩张率;W为输入图像尺寸;S为卷积步长;P为填充大小。如图1所示,RFB模块在每个标准卷积后都加入了空洞卷积。
2特征融合物品检测方法
针对RFBNet网络存在目标定位精度不高的问题,本发明借鉴浅层与深层特征融合与注意力机制的思想,提出一种特征融合的物品检测方法SFRFBNet。具体如下,首先采用双线性插值方法对Conv7、Conv9_2层特征图扩大到与Conv4_3特征图相同的尺寸,然后利用concat方式进行融合,最后,通过加入通道注意力机制让网络自动的重新分配特征通道权重来改善模型的性能,网络结构如图1所示。
2.1特征融合
在检测目标时,不同卷积层所提取的特征图所包含的信息不一样,浅层特征图包含大量的细节信息,如纹理、边界等,而深层特征图细节信息少,但是语义信息丰富。因此,为了让模型能学习到更加丰富的特征信息,考虑到各个特征间并非独立的关系,本发明将语义信息丰富的深层特征融入到细节信息丰富的浅层特征中以提升网络的特征提取能力。
相比于反卷积方法,双线性插值方法具有计算简单、速度快的优点,因此本发明选用双线性插值法。首先将conv7层特征图扩大两倍得到尺寸为38×38的特征图,通道数为256个;将conv9_2层扩大8倍得到尺寸为40×40的特征图,再通过卷积核大小为3×3、通道数为256的卷积运算得到尺寸为38×38的特征图;将conv4_3层的特征图通道数由512个降为256个,不改变特征图的尺寸。最后,将上述三层得到的特征图通过叠加通道数的方式进行拼接,拼接后特征再经过通道数为512、卷积核大小为1×1的卷积运算及激活函数操作后得到新的融合特征。
2.2注意力机制
SENet是2017年胡杰等提出的一种网络结构,该网络具有轻量化、泛化能力强、扩展性好的优点。SE模块采用了人类注意力的思想,会对感兴趣的区域进行重点关注,忽视或削弱其他区域。在神经网络中,SE模块表现为能学习到每个特征通道的重要程度,并根据重要程度对特征图的权重进行调整,通过提升重要特征权重,抑制次要特征权重,提高网络对特征信息的处理能力。SE模块通过神经网络中的卷积、池化等操作,网络的输入通道数为c1,经过一系列变换后得到通道数为c2的特征;首先是挤压(Fsq)操作,具体过程就是将输入为H×W×c2的特征通过全局平均池化操作变成1×1×c2的特征,该特征具有全局的感受野,用公式表示为:
式中:H、W代表特征图的高和宽,uc代表特征图中的第c个通道,uc(i,j)为第c个通道中第i行、第j列的像素,zc为输出。其次是激励(Fex)操作,用于生成每个通道的权重,用公式表示为:
s=Fex(z,w)=σ[W2δ(W1z)] (3)
式中:z为挤压操作的输出,W1为全连接操作,δ为Relu激活函数,W2为全连接操作,σ为Sigmoid函数,s为输出。
最后是注意(Fscale)操作,将激励输出的权重s分配到先前的通道上,用公式表示为:
y=Fscale(uc,sc)=sc·uc (4)
式中:uc为特征中的第c个通道,sc为步长s中的第c个权重,y为输出。本发明在Conv4_3、Conv7、Conv8_2、Conv9_2、Conv10_2、Conv11_2特征图后加入SE模块,其结构如图2所示,通过SE模块提升重要层的网络权重参数,降低次要层的网络权重参数,提升目标的检测效率。
3实验及结果分析
3.1实验环境
本发明实验搭配的平台配置如下:CPU为Intel(R)Core(TM)i7-8700,GPU选用NVIDIA GeForce GTX 1080,操作系统为Windows10,深度学习框架为Tensorflow。
3.2数据集
在仓储货柜物品检测领域,公开的数据集很少,本实验所采用数据集为自制数据集,选用仓储环境中常见的物品:水杯、螺丝刀、插线板、订书机、鼠标5类。通过不同光照强度、不同背景、不同角度、不同远近大小的情况拍摄图片,总共包含2768张图片,其中2491张作为训练集,277张作为测试集。由于水杯的形状差距较大,因此水杯的样本数多于其他种类的样本数,水杯样本数约2300个,其余种类样本数约1200个。图像使用labelimg进行标注。数据集图像来源实拍图片,由于实验拍摄的样本多样性少,因此通过网络图像以及数据增强提升样本的多样性。
33模型性能指标
在目标检测领域中,通过综合考虑平均精度均值(mAP)和每秒帧数(FPS)来评价模型的性能。mAP是所有类别检测结果的平均精度(AP)的均值,AP值是指精准率(precision)与召回率(recall)曲线下的面积,precision与recall的计算表达式分别为:
式中,TP为检测正确分类的正样本数,FP为检测错误分类的负样本数,TP+FP为模型检测出的总目标数,TP+FN为真实目标数。
3.4结果对比分析
为了验证模型的整体性能,设计了两类实验:1)与经典方法对比,本发明主要与SSD、RFBNet的训练过程和检测精度做对比;2)消融实验,验证本发明所提模型不同模块的有效性。
表1网络模型参数量、准确率及实时性
表2不同模型组成
1)与经典方法对比。为了验证模型的性能,将模型训练过程可视化,图4给出了SSD、RFBNet和SFRFBNet模型的PR曲线图,由图4知SFRFBNet模型的PR曲线与坐标轴所围成的面积大于其它模型,这表明SEFRFB模型的检测精度高于其它模型。方法的实时性与模型的参数有关,表1给出了三种网络模型的基本组成、参数量、准确率和FPS,由表1知,相比SSD网络,SFRFBNet网络的参数量有少许增加,FPS也有轻微的下降,但是网络的整体性能有了很大的提升,mAP提高了9.53%。SFRFBNet网络与RFBNet网络在参数量和FPS上相差不大,但是SFRFBNet网络的mAP比RFBNet网络高了8.42%。经过实验对比,如图5所示,RFBNet模型的检测效果差,对细长类目标存在较多漏检和误检的情况,与之相比,SFRFBNet模型目标检测结果更加准确,对漏检和误检的情况有了明显的改善,并且对小目标、遮挡目标以及背景相似目标也能很好的检测出类别。
因此,本发明针对仓储货柜物品检测提出一种面向智能仓储的特征融合物品检测方法,在自制数据集上通过多个网络模型作了实验对比,可得以下结论:
1)仅采用特征融合的网络mAP比RFBNet提高了2.15%;仅添加SE模块的网络mAP比RFBNet提高了4.89%;同时添加两种模块后网络能提取出的特征信息更丰富,重要特征的通道权重得到了提升,网络的mAP可达87.47%,比RFBNet提高了8.42%。
2)相比RFBNet方法,本发明所提的SFRFBNet方法提高了检测精度,并且在小目标、遮挡目标以及相似背景等复杂环境下取得了较好的效果。
3)本发明所提方法SFRFBNet在检测网络部分加入特征融合和SE模块后,增加了计算量,对网络运行速度有轻微的影响,但是能保证方法的实时性。
以上所述,仅是本发明的较佳实施例而已,并非对本发明作任何形式上的限制,任何未脱离本发明技术方案内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属于本发明技术方案的范围内。
Claims (7)
1.一种基于卷积神经网络的物品检测方法,其特征在于:包括以下步骤:
步骤一:对样本图像进行图像预处理,并将样本图像分为训练图像集和测试图像集;
步骤二:构建目标检测网络模型:该目标检测网络模型以RFBNet网络为基础,首先采用双线性插值方法对RFBNet网络的卷积层Conv7、卷积层Conv9_2的特征图扩大到与卷积层Conv4_3特征图相同的尺寸,然后利用concat通道拼接方式进行特征融合,最后通过加入基于通道注意力机制的挤压激励SE模块,使RFBNet网络自动的重新分配特征通道权重来改善模型的性能,即通过提升重要层的网络权重参数,降低次要层的网络权重参数,提升目标的检测效率;
所述双线性插值方法:
步骤1:将所述卷积层conv7层特征图扩大两倍得到尺寸为38×38的特征图,通道数为256个;将所述卷积层conv9_2层扩大8倍得到尺寸为40×40的特征图,再通过卷积核大小为3×3、通道数为256的卷积运算得到尺寸为38×38的特征图;将卷积层conv4_3层的特征图通道数由512个降为256个,不改变特征图的尺寸;
步骤2:将步骤1中卷积层conv7、conv9_2、conv4_3得到的特征图通过concat叠加通道数的方式进行拼接,拼接后特征再经过通道数为512、卷积核大小为1×1的卷积运算及激活函数操作后得到新的融合特征;从而将语义信息丰富的深层特征融入到细节信息丰富的浅层特征中以提升网络的特征提取能力;
步骤三:训练目标检测网络模型:将训练集中的每张训练图像输入所述目标检测网络模型,首先将每张训练图像调整为尺寸大小一致,然后对每张训练图像使用N×N大小的网格进行分块;当分块的网格存在训练图像中待检测目标的中心点时,该网格对该待检测目标的种类和位置信息进行预测;
步骤四:使用所述目标检测网络模型进行检测,得到检测结果:输入图像进行检测,利用步骤三中已经训练好的目标检测网络模型进行测试,并通过非极大值抑制进行图像后处理,通过阈值对冗余候选框进行筛选删除,最后得到最优的候选框作为预测框输出。
2.如权利要求1所述的基于卷积神经网络的物品检测方法,其特征在于:所述步骤一中对样本图像进行图像预处理包括翻转、缩放、色域变化,同时对样本图像进行数据增强,扩大数据集。
3.如权利要求1所述的基于卷积神经网络的物品检测方法,其特征在于:所述步骤一中将样本图像按9∶1的比例分为训|练图像集和测试图像集。
4.如权利要求1所述的基于卷积神经网络的物品检测方法,其特征在于:所述步骤二中加入基于通道注意力机制的挤压激励SE模块的具体操作:
首先是挤压操作Fsq,具体过程就是将输入为H×W×c2的特征通过全局平均池化操作变成1×1×c2的特征,c2为通道数,该特征具有全局的感受野,用公式表示为:
式中:H、W代表特征图的高和宽,uc代表特征图中的第c个通道,uc(i,j)为第c个通道中第i行、第j列的像素,zc为输出;
其次是激励操作Fex,用于生成每个通道的权重,用公式表示为:
s=Fex(z,w)=σ[W2δ(W1z)]
式中:z为挤压操作的输出,W1为全连接操作,δ为Relu激活函数,W2为全连接操作,σ为Sigmoid函数,s为输出;
最后是注意操作Fscale,将激励输出的权重s分配到先前的通道上,用公式表示为:
y=Fscale(uc,sc)=sc·uc
式中:uc为特征中的第c个通道,sc为步长s中的第c个权重,y为输出。
5.如权利要求4所述的基于卷积神经网络的物品检测方法,其特征在于:所述步骤二中RFBNet网络的卷积层Conv4_3、Conv7、Conv8_2、Conv9_2、Conv10_2、Conv11_2的特征图后加入挤压激励SE模块。
6.如权利要求1所述的基于卷积神经网络的物品检测方法,其特征在于:所述步骤三中将每张训练图像尺寸调整为300×300。
7.如权利要求1或6所述的基于卷积神经网络的物品检测方法,其特征在于:所述步骤三中训练目标检测网络模型时采用集成的开发环境Anaconda3,采用TensorFlow1.13.1作为深度学习框架,使用Adam优化器进行训练,训练过程中batch_size设置为16,初始学习率为0.001,动量参数为0.9,学习率下降因子为0.5。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210277747.6A CN114612770B (zh) | 2022-03-21 | 2022-03-21 | 基于卷积神经网络的物品检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210277747.6A CN114612770B (zh) | 2022-03-21 | 2022-03-21 | 基于卷积神经网络的物品检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114612770A true CN114612770A (zh) | 2022-06-10 |
CN114612770B CN114612770B (zh) | 2024-02-20 |
Family
ID=81865955
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210277747.6A Active CN114612770B (zh) | 2022-03-21 | 2022-03-21 | 基于卷积神经网络的物品检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114612770B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018028255A1 (zh) * | 2016-08-11 | 2018-02-15 | 深圳市未来媒体技术研究院 | 基于对抗网络的图像显著性检测方法 |
CN110852383A (zh) * | 2019-11-12 | 2020-02-28 | 复旦大学 | 基于注意力机制深度学习网络的目标检测方法及装置 |
CN111047630A (zh) * | 2019-11-13 | 2020-04-21 | 芯启源(上海)半导体科技有限公司 | 神经网络和基于神经网络的目标检测及深度预测方法 |
WO2020113412A1 (zh) * | 2018-12-04 | 2020-06-11 | 深圳大学 | 一种目标检测方法和系统 |
CN112270347A (zh) * | 2020-10-20 | 2021-01-26 | 西安工程大学 | 一种基于改进ssd的医疗废弃物分类检测方法 |
CN113177465A (zh) * | 2021-04-27 | 2021-07-27 | 江苏科技大学 | 基于深度可分离卷积神经网络的sar图像自动目标识别方法 |
CN113657326A (zh) * | 2021-08-24 | 2021-11-16 | 陕西科技大学 | 一种基于多尺度融合模块和特征增强的杂草检测方法 |
CN114067125A (zh) * | 2021-11-16 | 2022-02-18 | 杭州欣禾圣世科技有限公司 | 基于全推理神经网络的目标检测方法、系统及装置 |
CN114120019A (zh) * | 2021-11-08 | 2022-03-01 | 贵州大学 | 一种轻量化的目标检测方法 |
-
2022
- 2022-03-21 CN CN202210277747.6A patent/CN114612770B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018028255A1 (zh) * | 2016-08-11 | 2018-02-15 | 深圳市未来媒体技术研究院 | 基于对抗网络的图像显著性检测方法 |
WO2020113412A1 (zh) * | 2018-12-04 | 2020-06-11 | 深圳大学 | 一种目标检测方法和系统 |
CN110852383A (zh) * | 2019-11-12 | 2020-02-28 | 复旦大学 | 基于注意力机制深度学习网络的目标检测方法及装置 |
CN111047630A (zh) * | 2019-11-13 | 2020-04-21 | 芯启源(上海)半导体科技有限公司 | 神经网络和基于神经网络的目标检测及深度预测方法 |
CN112270347A (zh) * | 2020-10-20 | 2021-01-26 | 西安工程大学 | 一种基于改进ssd的医疗废弃物分类检测方法 |
CN113177465A (zh) * | 2021-04-27 | 2021-07-27 | 江苏科技大学 | 基于深度可分离卷积神经网络的sar图像自动目标识别方法 |
CN113657326A (zh) * | 2021-08-24 | 2021-11-16 | 陕西科技大学 | 一种基于多尺度融合模块和特征增强的杂草检测方法 |
CN114120019A (zh) * | 2021-11-08 | 2022-03-01 | 贵州大学 | 一种轻量化的目标检测方法 |
CN114067125A (zh) * | 2021-11-16 | 2022-02-18 | 杭州欣禾圣世科技有限公司 | 基于全推理神经网络的目标检测方法、系统及装置 |
Non-Patent Citations (3)
Title |
---|
张友康;苏志刚;张海刚;杨金锋;: "X光安检图像多尺度违禁品检测", 信号处理, no. 07, 31 December 2020 (2020-12-31), pages 20 - 23 * |
杨龙;苏娟;黄华;李响;: "一种基于深层次多尺度特征融合CNN的SAR图像舰船目标检测算法", 光学学报, no. 02, 31 December 2020 (2020-12-31), pages 132 - 140 * |
苏蒙;李为;: "一种基于SSD改进的目标检测算法", 计算机与现代化, no. 02, 15 February 2020 (2020-02-15), pages 87 - 91 * |
Also Published As
Publication number | Publication date |
---|---|
CN114612770B (zh) | 2024-02-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110059554B (zh) | 一种基于交通场景的多支路目标检测方法 | |
CN111489358B (zh) | 一种基于深度学习的三维点云语义分割方法 | |
CN110188705B (zh) | 一种适用于车载系统的远距离交通标志检测识别方法 | |
CN111860693A (zh) | 一种轻量级视觉目标检测方法及系统 | |
CN111640125B (zh) | 基于Mask R-CNN的航拍图建筑物检测和分割方法及装置 | |
CN108537824B (zh) | 基于交替反卷积与卷积的特征图增强的网络结构优化方法 | |
CN111461083A (zh) | 基于深度学习的快速车辆检测方法 | |
CN112541532B (zh) | 基于密集连接结构的目标检测方法 | |
CN110991362A (zh) | 一种基于注意力机制的行人检测模型 | |
CN111832453B (zh) | 基于双路深度神经网络的无人驾驶场景实时语义分割方法 | |
CN109903339B (zh) | 一种基于多维融合特征的视频群体人物定位检测方法 | |
CN109636846B (zh) | 基于循环注意力卷积神经网络的目标定位方法 | |
CN114092697B (zh) | 注意力融合全局和局部深度特征的建筑立面语义分割方法 | |
CN111626200A (zh) | 一种基于Libra R-CNN的多尺度目标检测网络和交通标识检测方法 | |
CN107038442A (zh) | 一种基于深度学习的车牌检测和整体识别方法 | |
CN114973011A (zh) | 一种基于深度学习的高分辨率遥感影像建筑物提取方法 | |
CN113361466B (zh) | 一种基于多模态交叉指导学习的多光谱目标检测方法 | |
CN115223017B (zh) | 一种基于深度可分离卷积的多尺度特征融合桥梁检测方法 | |
CN114267025A (zh) | 基于高分辨率网络与轻量注意力机制的交通标志检测方法 | |
CN116665054A (zh) | 一种基于改进YOLOv3的遥感影像小目标检测方法 | |
CN116310386A (zh) | 基于浅层自适应增强上下文的CenterNet小目标检测方法 | |
CN113327227B (zh) | 一种基于MobilenetV3的小麦头快速检测方法 | |
CN107644203A (zh) | 一种形状自适应分类的特征点检测方法 | |
CN113537013A (zh) | 一种多尺度自注意力特征融合的行人检测方法 | |
CN117392640A (zh) | 一种基于改进YOLOv8s的交通标志牌检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |