CN108830280A - 一种基于区域提名的小目标检测方法 - Google Patents
一种基于区域提名的小目标检测方法 Download PDFInfo
- Publication number
- CN108830280A CN108830280A CN201810456924.0A CN201810456924A CN108830280A CN 108830280 A CN108830280 A CN 108830280A CN 201810456924 A CN201810456924 A CN 201810456924A CN 108830280 A CN108830280 A CN 108830280A
- Authority
- CN
- China
- Prior art keywords
- region
- nomination
- characteristic pattern
- layer
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 230000004927 fusion Effects 0.000 claims abstract description 33
- 230000008569 process Effects 0.000 claims abstract description 9
- 238000002156 mixing Methods 0.000 claims abstract description 3
- 239000013598 vector Substances 0.000 claims description 44
- 238000013527 convolutional neural network Methods 0.000 claims description 23
- 238000013528 artificial neural network Methods 0.000 claims description 17
- 238000001514 detection method Methods 0.000 claims description 15
- 238000004422 calculation algorithm Methods 0.000 claims description 14
- 238000012937 correction Methods 0.000 claims description 13
- 230000003213 activating effect Effects 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 12
- 210000002569 neuron Anatomy 0.000 claims description 10
- 239000000284 extract Substances 0.000 claims description 8
- 239000011159 matrix material Substances 0.000 claims description 8
- 238000007781 pre-processing Methods 0.000 claims description 8
- 230000001537 neural effect Effects 0.000 claims description 4
- 230000001629 suppression Effects 0.000 claims description 2
- 238000012549 training Methods 0.000 claims description 2
- 230000004913 activation Effects 0.000 claims 2
- 230000008901 benefit Effects 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 7
- 238000011176 pooling Methods 0.000 description 7
- 230000007812 deficiency Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 210000003000 inclusion body Anatomy 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000002844 melting Methods 0.000 description 1
- 230000008018 melting Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于区域提名的小目标检测方法,包括步骤:1)输入图像预处理,将输入图像转换为统一大小;2)提取图像基础特征图,提取5层特征图;3)特征融合,融合图像第4层与第5层特征图;4)小目标区域提名,使用区域提名网络产生小目标区域提名;5)小目标边界框精修以及小目标区域分类。本发明方法具有计算速度快,小目标识别精度高,方法的泛化性能好,对于一般的极小目标区域都能检测出等优点。
Description
技术领域
本发明涉及图像处理的技术领域,尤其是指一种基于区域提名的小目标检测方法。
背景技术
目标检测是指从图像中精确的定位出图像中所含有的物体,并识别出物体的类别的过程。而小目标检测是指定位和识别出图像中只含有数量较少像素点的物体。小目标检测在无人驾驶路标识别、安防领域私人携带物品识别等领域有着极高的应用前景。
具体的,目标检测是要从图像中找出图像所包含的所有物体的位置、大小以及类别。现有的目标检测方法有基于区域的卷积神经网络RCNN、Fast-RCNN、Faster-RCNN系列神经网络以及端到端的卷积神经网络网络SSD、YOLO系统神经网络。
Faster-RCNN是RCNN系列卷积神经网络的最新研究成果,faster-RCNN整体结构为先由底层卷积神经网络提取特征,方法的提出者共使用了2种卷积神经神经网络(ZFNet,VGG16)的前几层作为底层特征提取网络。再将提取到的特征传入到RPN(区域提名网络)产生若干大小区域提名,接下来分别对提名的区域进行分类得到目标所属类别以及回归得到目标的边界框。
SSD和YOLO都是基于端到端的方法进行目标检测,即由单个卷积神经神经网络直接预测目标边界和类别概率,速度有极大提高。
上述的这两类不同的方法均存在着不足,首先,以上的几种现有目标检测方法都是针对大目标检测,而且它们也只能检测出图像中的大目标,甚至在检测大目标时也会存在误差,无法高效准确的检测出图像中的小目标。这里所指的大目标检测是指目标在图像中包含像素比较多。在Faster-RCNN中需设置区域提名网络中提名区域的边界范围大小,在方法提出者以及其他研究人员的实践中,提名区域的尺寸大小均设置为128X128、256X256、512X512,即检测出来的目标大小基本在设置的这几个提名区域范围之内。同时SSD和YOLO也不是专门用于检测小目标的神经网络,它们的特点是由于采用端到端的方案,只使用单个卷积神经网络进行计算,虽具有速度高效,即检测速度快的优点,但准确率没有基于区域提名的目标检测方法高,检测出来的目标区域定位误差大。特别的,YOLO对稍微小一点的目标完全无法检测出来。
首先目前的计算机图像文件大小一般都为500万像素以上,但小目标通常只包含有极少的像素,例如自动驾驶中公路上的较远的交通标识、安防领域中的行李检测中的小匕首、子弹等目标本身体积较小,在计算机图像中所占有的像素点就更小。小目标的信息在整张图像占有的范围极其有限。
再者,当图像经过深度卷积神经网络提取特征后,浅层特征图维度够大,包含较多小目标信息,但是特征图中包含的信息多是背景信息,有用的语义信息不多。高层特征图语义很丰富,背景噪音少,但是经过多层的卷积、池化操作,特征图维度已经变得很小,小目标信息在高层特征图中占有范围也变的很小。原本小目标在原始图像中所占有的像素就不多,在经过多层深度卷积后体现在高层次特征图就只包含有极小的一部分特征数据,甚至还有可能被前面的卷积层过滤掉了。因此,图像小目标的检测难度很大。
发明内容
本发明的目的在于克服现有技术的不足,提出了一种基于区域提名的小目标检测方法,可以有效的检测出图像中的小目标,并且神经网络结构复杂性低,计算速度高效,针对小目标的特性进行专门优化,使得检测出的小目标更加精确高效。
具体地,通过特征融合增强小目标信息与对图像的融合特征图中每个特征值产生若干个尺寸较小比例不同的目标区域提名两个方法。首先由于小目标的特性,物体所占的像素点比较小,因此每个特征点的若干提名区域相对于原图像的大小设置为16、24、32。同时根据自然界中各种物体的特性,比例设置为1:2、1:1、2:1。
其次,针对浅层特征图包含较多小目标信息,但背景噪音多。高层特征图背景噪音少,但小目标信息在高层特征图中弱化的缺点。使用特征融合将浅层特征图与逆卷积后的高层特征图进行逐位相加增强小目标信息在特征图上的响应,提高小目标检测的准确率。
为实现上述目的,本发明所提供的技术方案为:一种基于区域提名的小目标检测方法,包括以下步骤:
1)输入图像预处理,将输入图像转换为统一大小;
2)提取图像基础特征图,提取5层特征图;
3)特征融合,融合图像第4层与第5层特征图;
4)小目标区域提名,使用区域提名网络产生小目标区域提名;
5)小目标边界框精修以及小目标区域分类。
在步骤1)中,图像预处理,将输入图像转换为统一大小,具体如下:
目前在计算机图像处理领域中,所使用的图像处理颜色标准均为采用RGB颜色标准。因此在本方法中,输入的图像均为RGB颜色标准保存的图像,即每张图像有3个颜色通道,因此每张图像文件在计算机中的表示均为一个数字矩阵,这个矩阵的维度为图像的宽*高*3,这个矩阵中的每个值均为0~255中间的一个整数值。在本方法使用中,可以进行任何分辨率大小的图像的小目标检测,但将图像传给神经网络进行检测时,需将所要检测的图像转换为统一的大小448*448*3,以便后续作为神经网络的输入。对于分辨率过小的图像,使用双线性插值算法将图像分辨率放大至448*448;对于分辨率过大的图像,同样使用双线性插值算法将图像分辨率缩小至448*448。因此,经过图像预处理后,所要进行检测的图像的分辨率均统一为448*448。
在步骤2)中,提取图像基础特征图,提取5层特征图,具体如下:
经过上一步的图像预处理后,所要检测的图像转换成448*448*3大小的矩阵,随后使用5层的卷积神经网络对输入图像充分提取基础特征,具体每一层的细节为:
第1层卷积神经网络使用64个3*3大小的卷积核,步长为1,输入图像的3个通道每个方向填充一个0,即第1层网络的最终输入的图像维度为443*443*3,使用线性校正单元激活函数(ReLU)进行激活。经过卷积后,得到的特征图的维度为442*442*64。随后使用2*2大小的池化核,步长为2,无填充的最大值池化(Max Pooling)计算,得到第1层网络的特征图维度为224*224*64;
第2层卷积神经网络使用128个3*3大小的卷积核,步长为1,输入特征图的每个通道每个方向填充一个0,第2层网络的输入为第一层网络中得到特征图,使用线性校正单元进行激活。经过卷积后得到的特征图维度为224*224*128。随后使用2*2大小的池化核,步长为2,无填充的最大值池化(Max Pooling),得到第2层网络的特征图维度为112*112*128;
第3层卷积神经网络使用256个3*3大小的卷积核,步长为1,输入特征图的每个通道每个方向填充一个0,使用线性校正单元激活函数激活,经过卷积后,得到的特征图的维度为112*112*256。随后使用2*2大小的池化核,步长为2,无填充的最大值池化(MaxPooling),得到第3层网络的特征图的维度为56*56*256;
第4层卷积神经网络使用512个3*3大小的卷积核,步长为1,输入特征图的每个通道每个方向填充一个0,使用线性校正单元激活函数激活,经过卷积后,得到的特征图的维度为56*56*256。随后使用2*2大小的池化核,步长为2,无填充的最大值池化(MaxPooling),得到第4层网络的特征图的维度为28*28*512;
第5层卷积神经网络使用512个3*3大小的卷积核,步长为1,输入特征图的每个通道每个方向填充一个0,使用校正线性单元激活函数激活,经过卷积后,得到的特征图的维度为28*28*512。随后使用2*2大小的池化核。步长为2,无填充的最大值池化(MaxPooling),得到第5层网络的特征图的维度为14*14*512;
在步骤3)中,所述的图像特征图融合,具体如下:
由于第5层卷积神经网络输出的特征图的维度为14*14*512,先行逆卷积计算,逆卷积计算的参数为512个2*2大小的卷积核。经过逆卷积后,得到特征图维度为28*28*512。
将逆卷积计算得到特征图与第4层卷积神经网络的特征图进行对应位特征相加,得到融合的特征图。
在步骤4)中,所述的小目标区域提名,具体如下:
首先使用1层卷积神经网络在融合特征图上提取高层特征,该层卷积神经网络的参数为256个3*3大小的卷积核,步长为1,融合特征图的每个通道每个方向上填充一个0。随后使用线性校正单元激活函数进行激活。经过卷积后得到的特征图维度为28*28*256。
随后使用18个1*1大小的卷积核,无填充,步长为1的卷积计算,经过卷积后的特征图维度为28*28*18。此步计算将在上层特征图的每个特征值上产生9个区域提名,每个特征值上对应的18维向量为这9个区域提名的属于前景或背景的概率,即这9提名区域中包含物体与否的概率。
随后使用36个1*1大小的卷积核,无填充,步长为1在融合特征图上进行卷积计算,经过卷积后得到的特征图维度为28*28*36。此步计算为在上层特征图上的每个特征值产生的9个区域提名的边界范围。4个值即可确定一个提名区域的边界范围,因此每个特征值上对应的36维向量为这9个区域提名的边界范围的坐标。
至此,即得到了在融合特征图上的每个特征值产生了9个大小不同、比例不同的区域提名,并且包括区域提名内包含物体的概率,以及提名区域的边界范围。
在步骤5)中,所述的小目标边界框精修以及小目标区域分类,具体如下:
在得到的提名区域概率和边界范围基础上,使用非极大值抑制算法(NMS)对产生的提名区域进行过滤,即将产生的提名区域中包含物体的概率低于设定阈值的提名区域过滤掉,最终将包含物体概率高于设定阈值的提名区域作为参数传入下一阶段,在具体应用中,每张图像中所包含的小目标数量不相等。因此符合要求的小目标区域数量也不相等。为方便表述,设最终剩下的包含物体概率高于设定阈值的提名区域个数为n。
接下来,这n个提名区域为具有不同比例、不同大小且尺寸较小的区域,使用ROIPooling(兴趣区域池化)算法将提名区域范围转化为同样大小14*14的特征区域,以进行后续计算。兴趣区域池化计算将提名区域在融合特征图上的边界范围限定的区域划分固定大小,即14*14的块,然后在每个块里分别取最大值,即将每个提名区域都转化成了相同大小的特征区域。得到n个14*14的特征图。
再将n个14*14的特征图转换为n*196大小的特征向量,传入两层全连接层提取特征,每层的神经元数量为4096个,同样的,每层全连接层后接一层线性校正单元激活函数激活。为减少计算参数数量,每层全连接层都后接一层随机失活层(Dropout),即随机选取一些神经元数值为0。因此对于一个提名区域就得到一个4096维的特征向量,即总共将得到n个4096维向量。
将上一步得到的n个4096维特征向量传入一层包含21个神经元的全连接层,得到的输出将是n*21维的向量,每个21维向量即表示这个提名区域中包含的物体分别属于21类的概率。这里的21的意义是在训练时使用的Pascal Voc数据库中标记的物体类别有20类,如果提名区域中的物体未在标记类别中,也要输出一个概率,表示未知类别。这个21的值可以根据训练数据库进行更改,如果训练数据库中标记有1000类物体,则设置成有1001个神经元即可。至此,得到了前面产生的每个包含物体的提名区域内所包含具体物体的概率,取概率最大的值即为该提名区域内所包含物体的类别。
将上上一步得到的n个4096维特征向量传入一层包含84个神经元的全连接层,得到的输出将是n*84维的向量。每个84维向量表示该提名区域内包含21类物体的精修的物体边界范围(4个值可确定一个物体在图像上的范围,在本方法中,使用的位置值表示为一个边界范围的中心点坐标(x_center,y_center),以及该边界范围的长(h)和宽(w))。在上一步得到的提名区域内包含的物体概率(21维概率)与此步中得到物体边界范围(84维向量)有着对应关系,即一个物体概率对应84维向量中的4个连续的值,将提名区域内包含物体概率最大的索引乘以4,以这个数在84维向量作为索引中取连续的4个值即为该提名区域所包含物体精修过的边界范围。至此,就得到了输入图像中所包含的小目标类别,以及小目标在图像中的边界范围。
本发明与现有技术相比,具有如下优点与有益效果:
1、本发明采用区域提名网络在图像底层特征图的每个特征值上专门产生尺寸较小不同比例的小目标区域提名,不会遗漏图像中包含的细小目标,检测全面。
2、本发明采用特征融合的方法将浅层特征图与高层特征图进行融合,得到增强的图像语义信息进行检测,提高了小目标检测的准确率。将小目标信息增强,抑制部分背景噪音,显著提高检测检测准确率。
3、本发明的网络结构简单,在特征融合阶段与小目标区域精修阶段都是共享底层特征图,减少计算量,计算高效,从而达到实时性。
附图说明
图1是图像中小目标检测流程图。
图2是小目标检测所用完整神经网络结构图。
图3是提取5层基础特征图的卷积神经网络结构图。
图4是融合特征的神经网络结构图。
图5是区域提名网络结构图。
图6是提名区域物体分类和边界范围精修调整图。
具体实施方式
下面结合具体实施例对本发明作进一步说明。
本实施例所提供的基于区域提名的小目标检测方法,输入一张RGB颜色标准图像进行检测。所进行检测的完整流程如图1,所设计的图像小目标检测所用的完整神经网络结构图如图2。在预处理图像文件时,使用算法将所要检测的图像转换至统一大小;接下来,使用5层卷积神经网络对图像提取5层基础特征;然后,将图像的第4层和第5层基础特征进行融合;再使用区域提名网络在融合特征图上产生小目标区域提名;最后,将区域提名网络产生的提名区域映射至融合特征图上,并使用全连接层网络在提名区域特征图上进行物体分类以及物体边界范围精修。具体地:
1.图像预处理:首先,判断所要进行检测图像的分辨率是否大小或小于448*448。如果所要进行检测的图像分辨率小于448*448,则使用双线性插值算法将图像分辨率放大至448*448;如果所要进行检测的图像分辨率大于448*448,则使用双线性插值算法将图像分辨率缩小至448*448。因此,经过图像预处理后,所要进行检测的图像的分辨率均统一为448*448,作为接下来神经网络的输入。
2.提取5层基础特征图的流程如图3所示。首先用包含64个3*3大小的卷积核对输入图像提取底层特征,然后用陆续用包含128、256、512、512个卷积核对输入图像充分提取特征,分别得到输入图像的5层底层特征图。为缩小计算参数量,底层特征提取网络均使用3*3大小的卷积核,这比使用7*7大小的卷积核减少了5倍多的参数量。
3.特征融合的流程如图4所示。由于第4层特征图的维度为28*28*512,第5层特征图的维度为14*14*512,维度不同,无法直接进行融合。因此先使用包含512个2*2大小的卷积核对第5层特征图进行逆卷积运算,经过逆卷积运算后得到特征图维度为28*28*512,将第4层特征图与逆卷积运算得到的特征图进行逐位相加得到的融合特征图。在融合特征图中,既包含增强了的小目标信息,也包含高层特征图上丰富的语义信息,同时背景噪音在融合特征图中也弱化了。
4.使用区域提名网络进行小目标区域提名流程如图5所示。小目标区域提名过程如下:
首先使用1层包含512个3*3大小的卷积核的卷积神经网络在融合特征图上提取特征,并使用线性校正单元激活函数进行激活,得到融合特征图的高层特征图。随后使用包含18个1*1大小卷积核的卷积计算在上层特征图的每个特征值上产生9个区域提名,该提名区域以该特征值为中心点,然后9个区域的尺寸大小为常见小目标在图像中的大小(16、32、48)与常见小目标物体的长宽比(1:1,2:1,1:2)分别组合得到。计算得到的特征向量维度为28*28*18,每个特征值上对应的18维向量为这9个区域提名的属于前景或背景的概率,即这9提名区域中包含物体与否的概率。
随后使用36个1*1大小的卷积核的卷积计算得到在融合特征图的高层特征图上的每个特征值产生的9个区域提名的边界范围。4个值确定一个提名区域的边界范围,因此每个特征值上对应的36维向量为这9个区域提名的边界范围的坐标。
至此,即得到了在融合特征图上的每个特征值产生的9个大小不同、比例不同的区域提名,并且包括区域提名内包含物体的概率,以及提名区域的边界范围。
5.使用2层全连接网络对小目标提名区域进行区域内物体识别以及物体边界范围精修流程如图6所示。
在区域提名网络中得到小目标区域提名中,由于特征图中的每个特征值都会产生9个小目标区域提名,并且产生的区域提名是以该特征值为中心。因此对于图像边界上的特征点产生的区域提名已经超出了图像边界,在进行下一步计算前,需先对产生的所有提名区域进行过滤,将提名区域边界范围超出图像边界以及提名区域包含物体概率过低的提名区域删除,使得符合要求的提名区域进入下一步兴趣区域池化(ROI Pooling)计算。
兴趣区域池化计算将提名区域在融合特征图上的边界范围限定的区域划分固定大小,本方法中采用的是分成14*14的块,然后在每个块里分别取最大值,即将每个提名区域都转化成了相同大小的特征区域。然后将每一个提名对应的特征区域连续传入两层包含4096个神经元的全连接层提取特征,最后对于每一个提名区域对应的特征向量分别传入两层全连接层,其中一层全连接层包含21个神经元,即经过这层全连接层计算后每一个提名区域得到一个21维向量,这个21维向量是该提名区域内所包含物体属于21类中物体中的概率,取最高概率的那个物体类别即为该提名区域内所包含的小目标的物体类别。另外一层全连接层包含84个神经元,即经过这层全连接层计算后每一个提名区域得到一个84维向量,这个84维向量是该提名区域所包含物体的边界范围坐标,将提名区域内包含物体类别概率最大的索引乘以4,以这个数在84维向量作为索引中取连续的4个值即为该提名区域所包含物体精修过的边界范围。至此,就得到了输入图像中所包含的小目标类别,以及小目标在图像中的边界范围。从而在图像中精确完整的检测出了所有小目标,包括小目标的物体类别和边界范围。
以上所述实施例只为本发明之较佳实施例,并非以此限制本发明的实施范围,故凡依本发明之形状、原理所作的变化,均应涵盖在本发明的保护范围内。
Claims (6)
1.一种基于区域提名的小目标检测方法,其特征在于,包括以下步骤:
1)输入图像预处理,将输入图像转换为统一大小;
2)提取图像基础特征图,提取5层特征图;
3)特征融合,融合图像第4层与第5层特征图;
4)小目标区域提名,使用区域提名网络产生小目标区域提名;
5)小目标边界框精修以及小目标区域分类。
2.根据权利要求1所述的一种基于区域提名的小目标检测方法,其特征在于,在步骤1)中,图像预处理,将输入图像转换为统一大小,具体如下:
输入的图像均为RGB颜色标准保存的图像,即每张图像有3个颜色通道,因此每张图像文件在计算机中的表示均为一个数字矩阵,这个矩阵的维度为图像的宽*高*3,这个矩阵中的每个值均为0~255中间的一个整数值;在使用中,能够进行任何分辨率大小的图像的小目标检测,但将图像传给神经网络进行检测时,需将所要检测的图像转换为统一的大小448*448*3,以便后续作为神经网络的输入;对于分辨率小于设定值的图像,使用双线性插值算法将图像分辨率放大至448*448;对于分辨率大于设定值的图像,同样使用双线性插值算法将图像分辨率缩小至448*448;因此,经过图像预处理后,所要进行检测的图像的分辨率均统一为448*448。
3.根据权利要求1所述的一种基于区域提名的小目标检测方法,其特征在于,在步骤2)中,提取图像基础特征图,提取5层特征图,具体如下:
经过上一步的图像预处理后,所要检测的图像转换成448*448*3大小的矩阵,随后使用5层的卷积神经网络对输入图像充分提取基础特征,具体每一层的细节为:
第1层卷积神经网络使用64个3*3大小的卷积核,步长为1,输入图像的3个通道每个方向填充一个0,即第1层网络的最终输入的图像维度为443*443*3,使用线性校正单元激活函数进行激活;经过卷积后,得到的特征图的维度为442*442*64;随后使用2*2大小的池化核,步长为2,无填充的最大值池化计算,得到第1层网络的特征图维度为224*224*64;
第2层卷积神经网络使用128个3*3大小的卷积核,步长为1,输入特征图的每个通道每个方向填充一个0,第2层网络的输入为第一层网络中得到特征图,使用线性校正单元进行激活;经过卷积后得到的特征图维度为224*224*128;随后使用2*2大小的池化核,步长为2,无填充的最大值池化,得到第2层网络的特征图维度为112*112*128;
第3层卷积神经网络使用256个3*3大小的卷积核,步长为1,输入特征图的每个通道每个方向填充一个0,使用线性校正单元激活函数激活,经过卷积后,得到的特征图的维度为112*112*256;随后使用2*2大小的池化核,步长为2,无填充的最大值池化,得到第3层网络的特征图的维度为56*56*256;
第4层卷积神经网络使用512个3*3大小的卷积核,步长为1,输入特征图的每个通道每个方向填充一个0,使用线性校正单元激活函数激活,经过卷积后,得到的特征图的维度为56*56*256;随后使用2*2大小的池化核,步长为2,无填充的最大值池化,得到第4层网络的特征图的维度为28*28*512;
第5层卷积神经网络使用512个3*3大小的卷积核,步长为1,输入特征图的每个通道每个方向填充一个0,使用校正线性单元激活函数激活,经过卷积后,得到的特征图的维度为28*28*512;随后使用2*2大小的池化核,步长为2,无填充的最大值池化,得到第5层网络的特征图的维度为14*14*512。
4.根据权利要求1所述的一种基于区域提名的小目标检测方法,其特征在于:在步骤3)中,所述的图像特征图融合,具体如下:
由于第5层卷积神经网络输出的特征图的维度为14*14*512,先行逆卷积计算,逆卷积计算的参数为512个2*2大小的卷积核;经过逆卷积后,得到特征图维度为28*28*512;
将逆卷积计算得到特征图与第4层卷积神经网络的特征图进行对应位特征相加,得到融合的特征图。
5.根据权利要求1所述的一种基于区域提名的小目标检测方法,其特征在于:在步骤4)中,所述的小目标区域提名,具体如下:
首先使用1层卷积神经网络在融合特征图上提取高层特征,该层卷积神经网络的参数为256个3*3大小的卷积核,步长为1,融合特征图的每个通道每个方向上填充一个0;随后使用线性校正单元激活函数进行激活,经过卷积后得到的特征图维度为28*28*256;
随后使用18个1*1大小的卷积核,无填充,步长为1的卷积计算,经过卷积后的特征图维度为28*28*18;此步计算将在上层特征图的每个特征值上产生9个区域提名,每个特征值上对应的18维向量为这9个区域提名的属于前景或背景的概率,即这9提名区域中包含物体与否的概率;
随后使用36个1*1大小的卷积核,无填充,步长为1在融合特征图上进行卷积计算,经过卷积后得到的特征图维度为28*28*36;此步计算为在上层特征图上的每个特征值产生的9个区域提名的边界范围;4个值即可确定一个提名区域的边界范围,因此每个特征值上对应的36维向量为这9个区域提名的边界范围的坐标;
至此,即得到了在融合特征图上的每个特征值产生了9个大小不同、比例不同的区域提名,并且包括区域提名内包含物体的概率,以及提名区域的边界范围。
6.根据权利要求1所述的一种基于区域提名的小目标检测方法,其特征在于:在步骤5)中,所述的小目标边界框精修以及小目标区域分类,具体如下:
在得到的提名区域概率和边界范围基础上,使用非极大值抑制算法对产生的提名区域进行过滤,即将产生的提名区域中包含物体的概率低于设定阈值的提名区域过滤掉,最终将包含物体概率高于设定阈值的提名区域作为参数传入下一阶段,在具体应用中,每张图像中所包含的小目标数量不相等;因此符合要求的小目标区域数量也不相等;为方便表述,设最终剩下的包含物体概率高于设定阈值的提名区域个数为n;
接下来,这n个提名区域为具有不同比例、不同大小且尺寸小于设定值的区域,使用兴趣区域池化算法将提名区域范围转化为同样大小14*14的特征区域,以进行后续计算;兴趣区域池化计算将提名区域在融合特征图上的边界范围限定的区域划分固定大小,即14*14的块,然后在每个块里分别取最大值,即将每个提名区域都转化成了相同大小的特征区域,得到n个14*14的特征图;
再将n个14*14的特征图转换为n*196大小的特征向量,传入两层全连接层提取特征,每层的神经元数量为4096个,同样的,每层全连接层后接一层线性校正单元激活函数激活;为减少计算参数数量,每层全连接层都后接一层随机失活层,即随机选取一些神经元数值为0;因此对于一个提名区域就得到一个4096维的特征向量,即总共将得到n个4096维向量;
将上一步得到的n个4096维特征向量传入一层包含21个神经元的全连接层,得到的输出将是n*21维的向量,每个21维向量即表示这个提名区域中包含的物体分别属于21类的概率;这里的21的意义是在训练时使用的Pascal Voc数据库中标记的物体类别有20类,如果提名区域中的物体未在标记类别中,也要输出一个概率,表示未知类别;这个21的值能够根据训练数据库进行更改,如果训练数据库中标记有1000类物体,则设置成有1001个神经元即可;至此,得到了前面产生的每个包含物体的提名区域内所包含具体物体的概率,取概率最大的值即为该提名区域内所包含物体的类别;
将上上一步得到的n个4096维特征向量传入一层包含84个神经元的全连接层,得到的输出将是n*84维的向量;每个84维向量表示该提名区域内包含21类物体的精修的物体边界范围,4个值能够确定一个物体在图像上的范围,使用的位置值表示为一个边界范围的中心点坐标(x_center,y_center),以及该边界范围的长和宽,在上一步得到的提名区域内包含的物体概率即21维概率与此步中得到物体边界范围即84维向量有着对应关系,即一个物体概率对应84维向量中的4个连续的值,将提名区域内包含物体概率最大的索引乘以4,以这个数在84维向量作为索引中取连续的4个值即为该提名区域所包含物体精修过的边界范围;至此,就得到了输入图像中所包含的小目标类别,以及小目标在图像中的边界范围。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810456924.0A CN108830280B (zh) | 2018-05-14 | 2018-05-14 | 一种基于区域提名的小目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810456924.0A CN108830280B (zh) | 2018-05-14 | 2018-05-14 | 一种基于区域提名的小目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108830280A true CN108830280A (zh) | 2018-11-16 |
CN108830280B CN108830280B (zh) | 2021-10-26 |
Family
ID=64148796
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810456924.0A Expired - Fee Related CN108830280B (zh) | 2018-05-14 | 2018-05-14 | 一种基于区域提名的小目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108830280B (zh) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109583396A (zh) * | 2018-12-05 | 2019-04-05 | 广东亿迅科技有限公司 | 一种基于cnn两阶段人体检测的区域防范方法、系统以及终端 |
CN109613004A (zh) * | 2018-12-13 | 2019-04-12 | 武汉精立电子技术有限公司 | 一种背光检中缺陷显示方法 |
CN109726739A (zh) * | 2018-12-04 | 2019-05-07 | 深圳大学 | 一种目标检测方法和系统 |
CN109740598A (zh) * | 2018-12-29 | 2019-05-10 | 中国铁道科学研究院集团有限公司基础设施检测研究所 | 结构化场景下的目标定位方法及装置 |
CN109800637A (zh) * | 2018-12-14 | 2019-05-24 | 中国科学院深圳先进技术研究院 | 一种遥感影像小目标检测方法 |
CN109816671A (zh) * | 2019-01-31 | 2019-05-28 | 深兰科技(上海)有限公司 | 一种目标检测方法、装置及存储介质 |
CN110008949A (zh) * | 2019-01-24 | 2019-07-12 | 华南理工大学 | 一种图像目标检测方法、系统、装置和存储介质 |
CN110222622A (zh) * | 2019-05-31 | 2019-09-10 | 甘肃省祁连山水源涵养林研究院 | 一种环境土壤检测方法及装置 |
CN110287817A (zh) * | 2019-06-05 | 2019-09-27 | 北京字节跳动网络技术有限公司 | 目标识别及目标识别模型的训练方法、装置和电子设备 |
CN110443322A (zh) * | 2019-08-16 | 2019-11-12 | 北京知道创宇信息技术股份有限公司 | 图像处理方法、装置、服务器及可读存储介质 |
CN110880000A (zh) * | 2019-11-27 | 2020-03-13 | 上海智臻智能网络科技股份有限公司 | 图片文字定位方法、装置、计算机设备和存储介质 |
CN111126472A (zh) * | 2019-12-18 | 2020-05-08 | 南京信息工程大学 | 一种基于ssd改进的目标检测方法 |
CN111160340A (zh) * | 2019-12-24 | 2020-05-15 | 普联国际有限公司 | 一种运动目标检测方法、装置、存储介质及终端设备 |
CN111242122A (zh) * | 2020-01-07 | 2020-06-05 | 浙江大学 | 一种轻量级深度神经网络旋转目标检测方法和系统 |
CN111241988A (zh) * | 2020-01-08 | 2020-06-05 | 北京天睿空间科技股份有限公司 | 一种结合定位信息的大场景内运动目标检测识别方法 |
CN111275066A (zh) * | 2018-12-05 | 2020-06-12 | 北京嘀嘀无限科技发展有限公司 | 一种图像特征的融合方法、装置以及电子设备 |
CN111950488A (zh) * | 2020-08-18 | 2020-11-17 | 山西大学 | 一种改进的Faster-RCNN遥感图像目标检测方法 |
CN112149684A (zh) * | 2020-08-19 | 2020-12-29 | 北京豆牛网络科技有限公司 | 图像处理方法和用于目标检测的图像预处理方法 |
CN112308105A (zh) * | 2019-08-02 | 2021-02-02 | 北京图森智途科技有限公司 | 目标检测方法、目标检测器及相关设备 |
CN113128604A (zh) * | 2021-04-23 | 2021-07-16 | 北京奇艺世纪科技有限公司 | 页面元素的识别方法、装置、电子设备及存储介质 |
CN112149684B (zh) * | 2020-08-19 | 2024-06-07 | 北京豆牛网络科技有限公司 | 图像处理方法和用于目标检测的图像预处理方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104573731A (zh) * | 2015-02-06 | 2015-04-29 | 厦门大学 | 基于卷积神经网络的快速目标检测方法 |
CN106845430A (zh) * | 2017-02-06 | 2017-06-13 | 东华大学 | 基于加速区域卷积神经网络的行人检测与跟踪方法 |
CN107220703A (zh) * | 2016-12-29 | 2017-09-29 | 恩泊泰(天津)科技有限公司 | 一种基于多尺度检测的深度神经网络 |
CN107316058A (zh) * | 2017-06-15 | 2017-11-03 | 国家新闻出版广电总局广播科学研究院 | 通过提高目标分类和定位准确度改善目标检测性能的方法 |
CN107341517A (zh) * | 2017-07-07 | 2017-11-10 | 哈尔滨工业大学 | 一种基于深度学习层级间特征融合的多尺度小物体检测方法 |
CN107545263A (zh) * | 2017-08-02 | 2018-01-05 | 清华大学 | 一种物体检测方法及装置 |
CN107563405A (zh) * | 2017-07-19 | 2018-01-09 | 同济大学 | 基于多分辨率神经网络的车库自动驾驶语义目标识别方法 |
-
2018
- 2018-05-14 CN CN201810456924.0A patent/CN108830280B/zh not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104573731A (zh) * | 2015-02-06 | 2015-04-29 | 厦门大学 | 基于卷积神经网络的快速目标检测方法 |
CN107220703A (zh) * | 2016-12-29 | 2017-09-29 | 恩泊泰(天津)科技有限公司 | 一种基于多尺度检测的深度神经网络 |
CN106845430A (zh) * | 2017-02-06 | 2017-06-13 | 东华大学 | 基于加速区域卷积神经网络的行人检测与跟踪方法 |
CN107316058A (zh) * | 2017-06-15 | 2017-11-03 | 国家新闻出版广电总局广播科学研究院 | 通过提高目标分类和定位准确度改善目标检测性能的方法 |
CN107341517A (zh) * | 2017-07-07 | 2017-11-10 | 哈尔滨工业大学 | 一种基于深度学习层级间特征融合的多尺度小物体检测方法 |
CN107563405A (zh) * | 2017-07-19 | 2018-01-09 | 同济大学 | 基于多分辨率神经网络的车库自动驾驶语义目标识别方法 |
CN107545263A (zh) * | 2017-08-02 | 2018-01-05 | 清华大学 | 一种物体检测方法及装置 |
Non-Patent Citations (1)
Title |
---|
辛鹏 等: "全卷积网络多层特征融合的飞机快速检测", 《光学学报》 * |
Cited By (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109726739A (zh) * | 2018-12-04 | 2019-05-07 | 深圳大学 | 一种目标检测方法和系统 |
CN109583396A (zh) * | 2018-12-05 | 2019-04-05 | 广东亿迅科技有限公司 | 一种基于cnn两阶段人体检测的区域防范方法、系统以及终端 |
CN111275066A (zh) * | 2018-12-05 | 2020-06-12 | 北京嘀嘀无限科技发展有限公司 | 一种图像特征的融合方法、装置以及电子设备 |
CN109613004A (zh) * | 2018-12-13 | 2019-04-12 | 武汉精立电子技术有限公司 | 一种背光检中缺陷显示方法 |
CN109800637A (zh) * | 2018-12-14 | 2019-05-24 | 中国科学院深圳先进技术研究院 | 一种遥感影像小目标检测方法 |
CN109740598A (zh) * | 2018-12-29 | 2019-05-10 | 中国铁道科学研究院集团有限公司基础设施检测研究所 | 结构化场景下的目标定位方法及装置 |
CN110008949A (zh) * | 2019-01-24 | 2019-07-12 | 华南理工大学 | 一种图像目标检测方法、系统、装置和存储介质 |
CN110008949B (zh) * | 2019-01-24 | 2020-03-17 | 华南理工大学 | 一种图像目标检测方法、系统、装置和存储介质 |
CN109816671A (zh) * | 2019-01-31 | 2019-05-28 | 深兰科技(上海)有限公司 | 一种目标检测方法、装置及存储介质 |
CN109816671B (zh) * | 2019-01-31 | 2021-09-24 | 深兰科技(上海)有限公司 | 一种目标检测方法、装置及存储介质 |
CN110222622A (zh) * | 2019-05-31 | 2019-09-10 | 甘肃省祁连山水源涵养林研究院 | 一种环境土壤检测方法及装置 |
CN110287817A (zh) * | 2019-06-05 | 2019-09-27 | 北京字节跳动网络技术有限公司 | 目标识别及目标识别模型的训练方法、装置和电子设备 |
CN112308105B (zh) * | 2019-08-02 | 2024-04-12 | 北京图森智途科技有限公司 | 目标检测方法、目标检测器及相关设备 |
CN112308105A (zh) * | 2019-08-02 | 2021-02-02 | 北京图森智途科技有限公司 | 目标检测方法、目标检测器及相关设备 |
CN110443322A (zh) * | 2019-08-16 | 2019-11-12 | 北京知道创宇信息技术股份有限公司 | 图像处理方法、装置、服务器及可读存储介质 |
CN110880000A (zh) * | 2019-11-27 | 2020-03-13 | 上海智臻智能网络科技股份有限公司 | 图片文字定位方法、装置、计算机设备和存储介质 |
CN110880000B (zh) * | 2019-11-27 | 2022-09-02 | 上海智臻智能网络科技股份有限公司 | 图片文字定位方法、装置、计算机设备和存储介质 |
CN111126472A (zh) * | 2019-12-18 | 2020-05-08 | 南京信息工程大学 | 一种基于ssd改进的目标检测方法 |
CN111126472B (zh) * | 2019-12-18 | 2023-07-25 | 南京信息工程大学 | 一种基于ssd改进的目标检测方法 |
CN111160340A (zh) * | 2019-12-24 | 2020-05-15 | 普联国际有限公司 | 一种运动目标检测方法、装置、存储介质及终端设备 |
CN111160340B (zh) * | 2019-12-24 | 2023-11-28 | 普联国际有限公司 | 一种运动目标检测方法、装置、存储介质及终端设备 |
CN111242122A (zh) * | 2020-01-07 | 2020-06-05 | 浙江大学 | 一种轻量级深度神经网络旋转目标检测方法和系统 |
CN111242122B (zh) * | 2020-01-07 | 2023-09-08 | 浙江大学 | 一种轻量级深度神经网络旋转目标检测方法和系统 |
CN111241988B (zh) * | 2020-01-08 | 2021-07-13 | 北京天睿空间科技股份有限公司 | 一种结合定位信息的大场景内运动目标检测识别方法 |
CN111241988A (zh) * | 2020-01-08 | 2020-06-05 | 北京天睿空间科技股份有限公司 | 一种结合定位信息的大场景内运动目标检测识别方法 |
CN111950488B (zh) * | 2020-08-18 | 2022-07-19 | 山西大学 | 一种改进的Faster-RCNN遥感图像目标检测方法 |
CN111950488A (zh) * | 2020-08-18 | 2020-11-17 | 山西大学 | 一种改进的Faster-RCNN遥感图像目标检测方法 |
CN112149684A (zh) * | 2020-08-19 | 2020-12-29 | 北京豆牛网络科技有限公司 | 图像处理方法和用于目标检测的图像预处理方法 |
CN112149684B (zh) * | 2020-08-19 | 2024-06-07 | 北京豆牛网络科技有限公司 | 图像处理方法和用于目标检测的图像预处理方法 |
CN113128604A (zh) * | 2021-04-23 | 2021-07-16 | 北京奇艺世纪科技有限公司 | 页面元素的识别方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN108830280B (zh) | 2021-10-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108830280A (zh) | 一种基于区域提名的小目标检测方法 | |
CN107563381B (zh) | 基于全卷积网络的多特征融合的目标检测方法 | |
CN103745203B (zh) | 基于视觉注意和均值漂移的目标检测与跟踪方法 | |
CN111625608B (zh) | 一种基于gan模型根据遥感影像生成电子地图的方法、系统 | |
CN104243820B (zh) | 一种确定图像边界的方法及装置 | |
CN109284669A (zh) | 基于Mask RCNN的行人检测方法 | |
CN109344701A (zh) | 一种基于Kinect的动态手势识别方法 | |
CN109508710A (zh) | 基于改进YOLOv3网络的无人车夜间环境感知方法 | |
CN107527352A (zh) | 基于深度学习fcn网络的遥感舰船目标轮廓分割与检测方法 | |
CN109447033A (zh) | 基于yolo的车辆前方障碍物检测方法 | |
CN106845487A (zh) | 一种端到端的车牌识别方法 | |
CN104700381A (zh) | 一种基于显著目标的红外与可见光图像融合方法 | |
CN110263706A (zh) | 一种雾霾天气车载视频动态目标检测和识别的方法 | |
CN107705288A (zh) | 伪目标运动强干扰下的危险气体泄漏红外视频检测方法 | |
CN107154048A (zh) | 一种脉冲耦合神经网络模型的遥感图像分割方法及装置 | |
CN109685732A (zh) | 一种基于边界捕捉的深度图像高精度修复方法 | |
CN104463138B (zh) | 基于视觉结构属性的文本定位方法及系统 | |
CN105426863B (zh) | 检测车道线的方法和装置 | |
CN106503170B (zh) | 一种基于遮挡维度的图像库构建方法 | |
CN107085723A (zh) | 一种基于深度学习模型的车牌字符整体识别方法 | |
CN107038442A (zh) | 一种基于深度学习的车牌检测和整体识别方法 | |
CN112818775B (zh) | 基于区域边界像素交换的林区道路快速识别方法及系统 | |
CN108304749A (zh) | 道路减速线识别方法、装置及车辆 | |
CN107315998A (zh) | 基于车道线的车辆种类划分方法和系统 | |
CN103996185A (zh) | 一种基于注意力td-bu机制的图像分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20211026 |