CN112733929B - 一种改进Yolo水下图像小目标和遮挡目标的检测方法 - Google Patents
一种改进Yolo水下图像小目标和遮挡目标的检测方法 Download PDFInfo
- Publication number
- CN112733929B CN112733929B CN202110017704.XA CN202110017704A CN112733929B CN 112733929 B CN112733929 B CN 112733929B CN 202110017704 A CN202110017704 A CN 202110017704A CN 112733929 B CN112733929 B CN 112733929B
- Authority
- CN
- China
- Prior art keywords
- image
- feature
- underwater
- yolo
- improved
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 36
- 238000011176 pooling Methods 0.000 claims abstract description 29
- 238000000034 method Methods 0.000 claims abstract description 28
- 238000006243 chemical reaction Methods 0.000 claims abstract description 12
- 238000000605 extraction Methods 0.000 claims abstract description 11
- 230000008569 process Effects 0.000 claims abstract description 10
- 238000012549 training Methods 0.000 claims description 20
- 238000001914 filtration Methods 0.000 claims description 9
- 238000007781 pre-processing Methods 0.000 claims description 8
- 238000012360 testing method Methods 0.000 claims description 6
- 238000012216 screening Methods 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 abstract description 5
- 230000008859 change Effects 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 11
- 238000004590 computer program Methods 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000005286 illumination Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000006872 improvement Effects 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 4
- 238000012512 characterization method Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000015556 catabolic process Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 125000003275 alpha amino acid group Chemical group 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000002203 pretreatment Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种改进Yolo水下图像小目标和遮挡目标的检测方法,该方法采用改进YoloV3网络模型对水下机器采集的图像进行预测分类,最终输出目标物体在图像中的位置信息和类别信息;本发明中改进YoloV3网络的特征提取模块采用Densenet并增加了一个104*104的特征图,同时对两个转换层进行步长为1的卷积操作和步长为2的最大池化操作,最终输出6个不同尺寸的特征图;本发明增加SPP网络层,对输入的原始特征图进行三种不同尺度的池化操作,能够对物体尺寸的变化和遮挡情况进行鲁棒检测。本发明减少了网络参数,使计算过程更加简单,且提高了小目标的检测精度。
Description
技术领域
本发明涉及一种改进Yolo水下图像小目标和遮挡目标的检测方法,属于人工智能、计算机视觉技术领域。
背景技术
伴随着互联网时代的落幕,人工智能时代已经悄悄地到来。虽然我们目前仍处于弱人工智能时代,但是人工智能已经给我们带来了巨大的便利。视觉作为人类最重要的感知系统,在机器中也得到了充分的体现。在计算机视觉中运用较多的有图像分类、物体检测、图像分割、物体跟踪、关键点检测等技术,其中在工业中运用较多的就是目标检测这一技术。目标检测的目的是将图片(视频中)中感兴趣的目标给提取出来,它是计算机视觉中环境理解领域中比较重要的任务之一。
目前,在目标检测中比较常用的算法有SSD、Fast-RCNN和Yolo,Yolo是一种One-Stage算法,相比较于Fast-RCNN这种Two-Stage算法,Yolo可以直接预测物体的类别和位置,没有RPN网络,也没有类似Anchor的预选框,因此速度很快,在工业中得到了大量的运用。
但是Yolo也存在着一些缺陷。首先在Yolo网络模型中,由于每个区域默认只有两个边框做预测,并且只有一个类别,因此这会导致对小物体的检测效果变差,造成漏检的结果。其次由于是在水下环境中,水下机器所获取的图像效果会比较差,如果直接将获取到的水下图像送入Yolo网络,会导致预测效果变差。
发明内容
本发明的目的在于提供一种改进Yolo水下图像小目标和遮挡目标的检测方法,使用SPP-Net、RBFNet和Dense-Net来改进原先的YoloV3网络,减少了网络参数,使计算过程更加简单;同时提高了小目标的检测精度。
为达到上述目的,本发明采用的技术方案如下:
本发明提供一种改进Yolo水下图像小目标和遮挡目标的检测方法,包括:
对水下机器采集的图像进行预处理;
将预处理后的图像输入预先训练好的改进YoloV3网络模型中,输出目标物体在图像中的位置信息和类别信息;
所述改进YoloV3网络模型包括:特征提取模块,特征增强模块和特征输出模块;
所述特征提取模块用于输入预处理后的图像,输出13*13,26*26,52*52和104*104四种尺寸共6个特征图;
所述特征增强模块用于对输入特征图进行多次池化操作,并提取特征;
所述特征输出模块用于将提取的特征进行整合,输出预测结果,所述预测结果包括目标物体在图像中的位置信息和类别信息。
进一步的,所述特征提取模块采用Densenet,包括4个Dense Block,分别对应输出13*13,26*26,52*52和104*104四种尺寸的特征图;
第二和第三个Dense Block之间的转换层经步长为1的卷积操作和步长为2的最大池化操作后生成一个26*26的特征图;
第三和第四个Dense Block之间的转换层经步长为1的卷积操作和步长为2的最大池化操作后生成一个52*52的特征图。
进一步的,还包括,
在Densenet之前增加RBFNet环节。
进一步的,所述特征增强模块采用在YoloV3网络结构的基础上增加SPP网络层;
所述SPP网络层用于对输入特征图进行包含5*5、9*9和13*13的三种不同尺度的池化操作;以及从池化操作后的每个块中提取一个特征。
进一步的,还包括,
将SPP网络层提取的所有特征合并且进行批量归一化。
进一步的,所述特征输出模块具体用于,
采用水下机器采集若干水下图像;
对采集的图像进行预处理,构成训练集;
使用LabelImg进行数据标注,标注出图像中目标物体的位置和类别信息,形成适用Yolo训练的标注文件;
使用改进YoloV3网络模型对标注后的文件进行训练,采用损失函数不断优化,训练得到最优的模型权重文件。
进一步的,在训练过程中,采用Repulsion Loss损失函数,对改进YoloV3网络模型进行优化,得到最优的YoloV3网络模型权重文件。
进一步的,所述特征输出模块具体用于,
采用训练好的模型权重文件对预处理后的水下图像进行测试,输出目标物体在图像中的位置信息和类别信息。
进一步的,对采集的图像进行预处理,包括:
将采集的图像由RGB格式图像转化为YCbCr格式图像;
对YCbCr格式图像进行同态滤波和小波去噪处理;
将处理后的图像重新转换为RGB格式图像。
进一步的,还包括,采用Soft NMS筛选最终的目标检测框。
本发明的有益效果为:
(1)本发明采用改进的YoloV3网络模型对水下小目标和遮挡目标进行检测,改进的YoloV3网络模型采用Densenet来代替传统YoloV3中大量使用的Resnet,减少了网络参数,使计算过程更加简单;
(2)本发明在原有YoloV3输出3个特征图尺寸的基础上拓展了一个尺寸为104*104的特征图,使Yolo难以检测小目标的难题得到了进一步的解决;
(3)本发明在改进的YoloV3网络模型中引入了空间金字塔池化网络,对输入的原始特征图进行三种不同尺度的池化操作,并从每个块中提取一个特征,最后将特征合并且进行批量归一化,作为后续进行的全连接操作的输入,以此来解决全连接的输入维度必须一致的难点,提高了小目标的检测精度。
附图说明
图1为本发明的改进Yolo水下图像小目标和遮挡目标的检测网络结构;
图2为本发明的改进的Yolo网络各层结构;
图3为本发明中RBFNet结构;
图4为本发明实施例中采集的原始水下图像;
图5为本发明实施例中原始水下图像预处理后图像;
图6为本发明实施例中采用改进Yolo网络预测结果一;
图7为本发明实施例中采用改进Yolo网络预测结果二;
图8为本发明实施例中采用改进Yolo网络预测结果三;
图9为本发明实施例中改进Yolo网络训练过程中损失函数曲线。
具体实施方式
下面对本发明作进一步描述。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
本发明提供一种改进Yolo水下图像小目标和遮挡目标的检测方法,包括以下步骤:
步骤一:对水下机器获取的图像进行预处理
在水下环境中经水下机器获取到的图像会存在光照不均匀、对比度低、色彩减弱、模糊等缺点。本发明所提出的预处理方法能够很好地改善这些缺点,它减少了水下扰动,提高了图像质量。
预处理如下:
(11)将RGB图像转化为YCbCr图像
将水下相机获取到的图像由RGB转化为YCbCr。这种颜色空间的转换能够单独只处理一个通道而非三个通道,对转换后的YCbCr图像的亮度通道(Y)进行调整,能够提高图像的亮度。
(12)对YCbCr图像进行同态滤波处理
同态滤波是一种频率滤波,通过过滤低频信息,放大高频信息来提高增强图像的对比度和校正不均匀光照。假设图像是有关光照强度和反射率的函数,如式(1):
g(x,y)=a(x,y)·b(x,y) (1)
式中,g(x,y)为转换后的YCbCr图像,a(x,y)为光照因子,b(x,y)为反射率函数。假设光照因子变化缓慢,因此在图像的傅里叶变换中表示低频信息,而反射率与高频信息有关,通过将这些成分与高通滤波器相乘,就可以抑制低频,即不均匀光照。
将图像函数g(x,y)做对数处理:
p(x,y)=ln(g(x,y))=ln(a(x,y)·b(x,y))=ln(a(x,y))+ln(b(x,y)) (2)
将式(2)作傅里叶变换得式(3):
P(wx,wy)=A(wx,wy)+B(wx,wy) (3)
式中,P(wx,wy)是图像函数傅里叶变换后的形式。
进行高通滤波:应用于傅里叶变换的滤波器,减少了低频信息,放大了中频和高频信息,锐化了边缘信息:
其中,S(wx,wy)是高通滤波后的图像,bQ和bS是阈值,满足bQ≤2.5,bS≥0.5条件,需根据情形调整,δw是控制截至频率的因子,也需根据情形调整。
(13)进行小波去噪处理
然后对图像进行小波去噪处理,由于水下图像本身就具有高斯噪声,而经过同态滤波处理后被进一步放大,因此需要进行去噪。
Mallat算法分解公式
式中,C、D为滤波器系数矩阵,Y0为同态滤波处理后图像的采样值,Yj和Wj分别为尺度j上的逼近系数和小波系数。将含有噪声的采样值在某一尺度下分解到不同的频带内,将含有噪声的频带置0,再利用重构公式:
Yj=C*Yj+1+D*Wj+1,j=J-1,…,1,0 (6)
式中,C*和D*为综合滤波器,且满足C*C+D*D=1的关系,再进行小波重构,从而达到降噪的目的。本发明使用的这种方法去噪速度快,去噪质量好。
(14)将YCbCr图像重新转化为RGB图像。
步骤二、将预处理后的图像送入改进后的YoloV3网络模型中,输出目标物体在图像中的位置信息和类别信息。
传统的YoloV3采用了Darknet53作为检测框架,它很好地融合了Resnet和特征融合,是一个53层的卷积神经网络。Resnet的使用一定程度上了梯度弥散和梯度爆炸的问题,并且YoloV3最终能够输出了3个大小不同的特征图,分别代表了深层、中层、浅层的特征,实现了多尺度预测。
本发明是基于YoloV3的基础上进行改进的,很好的解决了Yolo难以识别小目标的问题。参见图1和图2,在本发明中,使用了Densenet来代替传统YoloV3中大量使用的Resnet。虽然Resnet通过前层与后层的“短路连接”,加强了前后层间的信息流通,很好地解决了随着网络层数的增加出现的网络“退化现象”。而本发明使用的Densenet最大化了这种前后层的信息交流,通过前馈的方式建立了前层与后层间的密集连接,实现了特征图的重复使用。与Resnet相比,Densenet的性能更加优越,网络参数更加少,计算更加简单。
此外,本发明在原来3个特征图的基础上新增了一个特征图。YoloV3借鉴了FPN(feature pyramid networks),采用多尺度来对不同的大小的目标进行检测。在输入图像尺寸为416*416的情况下,传统的YoloV3输出的特征图尺寸分别为13*13,26*26,52*52,这些特征图分别对应浅层、中层、深层的特征。13*13的特征图感受野较大,语义信息表征能力强,但分辨率较低,几何信息的表征能力弱。52*52的特征图的感受野较小,几何细节信息表征能力强,分辨率高。在本发明中拓展了一个尺寸为104*104的特征图,即由原先的13*13、26*26、52*52,用向上的一个Dense block中的104*104的卷积核进行后续的一系列网络操作来进行特征增强,输出104*104的特征图。
相比较于52*52的特征图,104*104的特征图的感受野更小,分辨率更高,几何细节信息表征能力更强,包含了更多的特征信息,对于Yolo难以检测小目标的难题得到了进一步的解决。
参见图1和图2,本发明在改进的YoloV3网络模型中引入了空间金字塔池化(Spatial Pyramid Pooling,SPP),能够对物体尺寸的变化和遮挡情况进行鲁棒检测。在之前的改进基础上,又新增了两个目标预测输出。其中一个目标预测输出创建在尺寸为26*26的特征图y2与尺寸为52*52的特征图y4之间,另一个目标预测输出则创建在尺寸为52*52的特征图y4与尺寸为104*104的特征图y6之间。
参见图1和图2,新增的两个目标预测输出是由两个转换层(Transition Layer)输出而来的,这两个转换层都进行了1*1,步长为1的卷积,和2*2,步长为2的最大池化操作。1*1卷积并无改变特征图尺寸的作用,大池化操作可以改变特征图尺寸,因此两个由转换层输出的特征图,它们的尺寸与下面的Dense block输出的特征图尺寸相同,但不同的是:由转换层输出的特征图由于最大池化操作,因此细节信息在转换层上下两个dense Block输出的特征图之间。由于两个Desne Block都用到了大量的卷积操作,大量的卷积操作会减少特征图的细节信息。
进一步的,本发明还增加了RBFNet,参见图3,RFBNet拥有三个不同的分支,使用了1*1、3*3、5*5不同大小的卷积核来模拟不同的感受野,使用空洞数为1、3、5的空洞卷积来实现不同的偏心度。完成这三个分支后,再利用通道堆叠(concat)的方法进行融合,利用1*1卷积降低特征的通道数,并且用Res net中常用的shortcut结构,将这个RBFNet的输入和输出进行一个元素层面上的叠加,这种简单的叠加不会给网络增加额外的参数和计算量,同时大大增加爱了模型的训练速度、提高训练效果,并且当模型层数加深时,可以很好的解决退化问题。
本发明在特征金字塔网络(Feature Pyramid Network)输出的每一个目标预测层之前加入空间金字塔池化网络(Spatial Pyramid Pooling Network,SPP-Net),SPP-Net最初是由何凯明团队所提出的。SPP是对卷积得到的多个特征图进行多次池化操作,并且卷积核逐渐增大,这会导致池化的输出逐渐减小。在本发明中,SPP-Net包含了5*5、9*9、13*13的平均池化操作,能够对输入的原始特征图进行三种不同尺度的池化操作。在经过3种不同尺度的池化过程后,可以得到275种不同的块,并从每个块中提取一个特征,最后将特征合并且进行批量归一化(Batch Normalization),作为后续进行的全连接操作的输入,以此来解决全连接的输入维度必须一致的难点。因此,SPP-Net的使用使得网络对于遮挡物体、不同尺寸的相同物体的检测更加优秀。
基于上述改进,本发明的改进的YoloV3网络结构,包括backbone(特征提取)、neck(特征增强)和head(特征输出)。
特征提取层用于输入预处理后的图像,输出不同尺寸的特征图。
本发明中特征提取成输入320*320大小的图像。
本发明中特征提取层采用Densenet,包括4个Dense Block,分别对应输出13*13,26*26,52*52和104*104四种尺寸的特征图。
其中,第二和第三个Dense Block之间的转换层经步长为1的卷积操作和步长为2的最大池化操作后生成26*26的特征图。第三和第四个Dense Block之间的转换层经步长为1的卷积操作和步长为2的最大池化操作后生成52*52的特征图。
本发明中最终输出1个104*104尺寸,2个52*52尺寸,2个26*26尺寸,1个13*13尺寸共6个特征图。
本发明中特征增强层在原有YoloV3网络结构的基础上增加了SPP网络,SPP网络用于对特征图进行多次池化操作,在本发明中,SPP网络层对输入的原始特征图进行了包含5*5、9*9和13*13的三种不同尺度的池化操作。在经过3种不同尺度的池化过程后,可以得到275种不同的块,并从每个块中提取一个特征。
本发明中对应于特征提取层输出的6个特征图,每个特征图均连接一个SPP网络层。
特征输出层用于将SPP网络层提取的特征进行整合,输出预测结果,即目标物体在图像中的位置信息和类别信息。
参见图1,各输出分别为:y1=13*13;y2=26*26;y3=26*26;y4=52*52;y5=52*52;y6=104*104。
在本发明中,采用Soft NMS来保证目标检测的召回率。在目标检测中,同一个物体一般拥有多个候选框,因此在Faster-RCNN和SSD中都使用了NMS来去除冗余的检测框,保留最好的那一个。NMS算法实现了对边框的预测得分,得分越高,这个边框就要被优先考虑,其他与其重叠(即设定的IOU阈值)超过一定程度的边框就要被舍弃。具体方法如下:
式中,Pi表示每个边框的预测得分,E表示得分最高的边框,fi表示其他边框中的一个,St表示设定的IOU阈值,当真实的IOU大于等于设定的IOU阈值时,该边框直接舍弃,从而造成边框的遗漏。虽然NMS简单有效,但是对于得分较低边框的强制性去除使得网络模型的召回率降低,且IOU阈值难以确定。因此为了解决NMS所带来的问题,本发明采用了Soft NMS来代替NMS。
相较于NMS,Soft NMS在iou(E,fi)≥St的情况下,并没有将预测得分归0,而是降低它原先的得分。具体方法如下:
采用这种得分衰减的方式,当在剩余边框中存在其他得分较高的边框时,在后续还有可能被检测为正确的边框,提高了网络模型的召回率。
进一步的,本发明重新定义了YoloV3网络中的损失函数。使用了Repulsion Loss(排斥损失)来代替原先YoloV3中使用的MSE Loss,能有效缓解物体遮挡情况下的检测。Repulsion Loss的回归损失如下式所示:
S=Sa+p×STrue +q×SBbox (9)
式中,可以看出损失(S)由三部分组成,其中p和q这两个阈值都为0.5时,检测能力最佳。Sa表示当前预测框与真值的吸引回归损失,它可以采用欧氏距离、距离以及IOU距离,STrue表示当前预测框(i)与周围目标框的排斥损失,SBbox表示当前预测框与周围其他预测框间的排斥损失。
本发明中Sa采用距离:
其中,(即真值)为每一个属于正样本(i+)的预测框i匹配的一个与之由最大IOU值的真实目标框,i为当前预测框。
STrue如式(11)所示,这里的周围目标框是除了匹配上的真实目标框以外的IOU最大的目标框,式(12)中,σ是一个调整STrue敏感程度的超参数。由式(11)可知越大时,产生的Loss越大,因此可以有效防止预测框的偏移。
式(12)中的x表示式(13)中,是除去本身要回归目标的真实框外其他的框,是在中寻找IOU最大的那个目标框。式(14)中,area(i∩G)是i和G的重叠面积,area(G)是G的面积。
SBbox表示当前预测框与周围其他预测框间的排斥损失,它使得当前预测框it与周围其他预测框ij尽可能远离。it和ij分别匹配上不同的目标框,由式(15)可知,当IoU(it,ij)越大,产生的loss则越大,因此可以有效防止两个预测框因距离过近而被Soft NMS过滤掉,近而减少因遮挡而未检测出的情况。
其中,I是identity函数,∈为预设的极小值。
本发明改进的YoloV3网络模型训练过程如下:
采用水下机器人平台采集若干水下图像;
对获取到的图像进行预处理,构成训练集;
使用LabelImg进行数据标注,标注出检测物体的位置和类别信息,形成适用Yolo训练的标注文件;
使用改进后的YoloV3算法对标注后的文件进行训练,采用损失函数不断优化,训练得到最优的模型权重文件。
本发明最终采用训练好的权重文件对水下画面进行测试,输出目标物体在图像中的位置信息和类别信息。经过测试,本发明的改进的YoloV3网络模型确实提高了小目标的检测精度,并且对于遮挡情况和多尺度问题进行了优化。
实施例
本发明实施例采用的数据集为深海水下数据集。采用改进的YoloV3网络,计算机配置为Intel Core I7-10750H CPU,显卡为GeForce GTX 1650,操作系统为Ubuntu18.04LTS。原始水下图像和经预处理后的图像分别如图4和图5所示。图6、图7、和图8、分别为3张采用改进的YoloV3网络得到的检测结果。
图9为改进的YoloV3网络在训练时的平均损失值随迭代次数的变化曲线,从图中可看到,当迭代超过23000次后,曲线趋于平稳,下降到0.25左右,从参数收敛情况来看,训练结果理想。在表1中可看到,相较于原先的YoloV3,改进的YoloV3的Map提升至84.8%,提升了8.3%。
表1不同目标检测方法在Brackish underwater dataset测试数据集下的mAP结果比较
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
最后应当说明的是:以上实施例仅用以说明本发明的技术方案而非对其限制,尽管参照上述实施例对本发明进行了详细的说明,所属领域的普通技术人员应当理解:依然可以对本发明的具体实施方式进行修改或者等同替换,而未脱离本发明精神和范围的任何修改或者等同替换,其均应涵盖在本发明的权利要求保护范围之内。
Claims (8)
1.一种改进Yolo水下图像小目标和遮挡目标的检测方法,其特征在于,包括:
对水下机器采集的图像进行预处理;
将预处理后的图像输入预先训练好的改进YoloV3网络模型中,输出目标物体在图像中的位置信息和类别信息;
所述改进YoloV3网络模型包括:特征提取模块,特征增强模块和特征输出模块;
所述特征提取模块用于输入预处理后的图像,输出13*13,26*26,52*52和104*104四种尺寸共6个特征图;所述特征提取模块采用Densenet,包括4个Dense Block,分别对应输出13*13,26*26,52*52和104*104四种尺寸的特征图;第二和第三个Dense Block之间的转换层经步长为1的卷积操作和步长为2的最大池化操作后生成一个26*26的特征图;第三和第四个Dense Block之间的转换层经步长为1的卷积操作和步长为2的最大池化操作后生成一个52*52的特征图;
所述特征增强模块用于对输入特征图进行多次池化操作,并提取特征;所述特征增强模块采用在YoloV3网络结构的基础上增加SPP网络层;所述SPP网络层用于对输入特征图进行包含5*5、9*9和13*13的三种不同尺度的池化操作;以及从池化操作后的每个块中提取一个特征;
所述特征输出模块用于将提取的特征进行整合,输出预测结果,所述预测结果包括目标物体在图像中的位置信息和类别信息。
2.根据权利要求1所述的一种改进Yolo水下图像小目标和遮挡目标的检测方法,其特征在于,还包括,
在Densenet之前增加RBFNet环节。
3.根据权利要求1所述的一种改进Yolo水下图像小目标和遮挡目标的检测方法,其特征在于,还包括,
将SPP网络层提取的所有特征合并且进行批量归一化。
4.根据权利要求1所述的一种改进Yolo水下图像小目标和遮挡目标的检测方法,其特征在于,所述特征输出模块具体用于,
采用水下机器采集若干水下图像;
对采集的图像进行预处理,构成训练集;
使用LabelImg进行数据标注,标注出图像中目标物体的位置和类别信息,形成适用Yolo训练的标注文件;
使用改进YoloV3网络模型对标注后的文件进行训练,采用损失函数不断优化,训练得到最优的模型权重文件。
5.根据权利要求4所述的一种改进Yolo水下图像小目标和遮挡目标的检测方法,其特征在于,在训练过程中,采用Repulsion Loss损失函数,对改进YoloV3网络模型进行优化,得到最优的YoloV3网络模型权重文件。
6.根据权利要求4所述的一种改进Yolo水下图像小目标和遮挡目标的检测方法,其特征在于,所述特征输出模块具体用于,
采用训练好的模型权重文件对预处理后的水下图像进行测试,输出目标物体在图像中的位置信息和类别信息。
7.根据权利要求4所述的一种改进Yolo水下图像小目标和遮挡目标的检测方法,其特征在于,对采集的图像进行预处理,包括:
将采集的图像由RGB格式图像转化为YCbCr格式图像;
对YCbCr格式图像进行同态滤波和小波去噪处理;
将处理后的图像重新转换为RGB格式图像。
8.根据权利要求1所述的一种改进Yolo水下图像小目标和遮挡目标的检测方法,其特征在于,还包括,采用Soft NMS筛选最终的目标检测框。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110017704.XA CN112733929B (zh) | 2021-01-07 | 2021-01-07 | 一种改进Yolo水下图像小目标和遮挡目标的检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110017704.XA CN112733929B (zh) | 2021-01-07 | 2021-01-07 | 一种改进Yolo水下图像小目标和遮挡目标的检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112733929A CN112733929A (zh) | 2021-04-30 |
CN112733929B true CN112733929B (zh) | 2024-07-19 |
Family
ID=75591051
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110017704.XA Active CN112733929B (zh) | 2021-01-07 | 2021-01-07 | 一种改进Yolo水下图像小目标和遮挡目标的检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112733929B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113436148B (zh) * | 2021-06-02 | 2022-07-12 | 中国人民解放军海军航空大学青岛校区 | 一种基于深度学习的舰载机轮廓关键点检测方法及系统 |
CN113421067A (zh) * | 2021-07-16 | 2021-09-21 | 桂林电子科技大学 | 一种共享自行车品牌识别与数量管理方法及系统 |
CN113553977B (zh) * | 2021-07-30 | 2023-02-10 | 国电汉川发电有限公司 | 一种基于改进yolo v5的安全帽检测方法和系统 |
CN114359739B (zh) * | 2022-03-18 | 2022-06-28 | 深圳市海清视讯科技有限公司 | 目标识别方法及装置 |
CN114972951A (zh) * | 2022-05-17 | 2022-08-30 | 中国南方电网有限责任公司超高压输电公司广州局 | 渔网检测模型的训练方法、装置、计算机设备和存储介质 |
CN116664452B (zh) * | 2023-07-28 | 2023-09-29 | 吉林省星博医疗器械有限公司 | 一种多通道荧光图像多尺度增强方法和系统 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110084292B (zh) * | 2019-04-18 | 2023-06-06 | 江南大学 | 基于DenseNet和多尺度特征融合的目标检测方法 |
CN110490066B (zh) * | 2019-07-11 | 2024-05-14 | 平安科技(深圳)有限公司 | 基于图片分析的目标检测方法、装置及计算机设备 |
CN111079540B (zh) * | 2019-11-19 | 2024-03-19 | 北航航空航天产业研究院丹阳有限公司 | 一种基于目标特性的分层可重构车载视频目标检测方法 |
CN111428550A (zh) * | 2019-11-29 | 2020-07-17 | 长沙理工大学 | 一种基于改进YOLOv3的车辆检测方法 |
CN111144304A (zh) * | 2019-12-26 | 2020-05-12 | 上海眼控科技股份有限公司 | 车辆目标检测模型的生成方法、车辆目标检测方法及装置 |
CN111402211B (zh) * | 2020-03-04 | 2022-11-11 | 广西大学 | 一种基于深度学习的高速列车车底异物识别方法 |
CN111767944B (zh) * | 2020-05-27 | 2023-08-15 | 重庆大学 | 一种基于深度学习的适用于多尺度目标检测的单阶段检测器设计方法 |
CN111723764A (zh) * | 2020-06-29 | 2020-09-29 | 中国农业大学 | 改进Faster RCNN水培蔬菜幼苗状态检测方法 |
-
2021
- 2021-01-07 CN CN202110017704.XA patent/CN112733929B/zh active Active
Non-Patent Citations (1)
Title |
---|
改进YOLO-v3的遥感图像舰船检测方法;公明;刘妍妍;李国宁;;电光与控制(05);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112733929A (zh) | 2021-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112733929B (zh) | 一种改进Yolo水下图像小目标和遮挡目标的检测方法 | |
KR20180109665A (ko) | 객체 검출을 위한 영상 처리 방법 및 장치 | |
CN112257766B (zh) | 一种基于频域滤波处理的自然场景下阴影识别检测方法 | |
CN109978848B (zh) | 基于多光源颜色恒常模型检测眼底图像中硬性渗出的方法 | |
CN111462019A (zh) | 基于深度神经网络参数估计的图像去模糊方法及系统 | |
KR20180109658A (ko) | 영상 처리 방법과 장치 | |
CN114581318B (zh) | 一种低照明度图像增强方法及系统 | |
CN113450290A (zh) | 基于图像修补技术的低照度图像增强方法及系统 | |
CN112801906A (zh) | 基于循环神经网络的循环迭代图像去噪方法 | |
Das et al. | A comparative study of single image fog removal methods | |
CN112991199A (zh) | 一种基于残差密集网络的图像高低频分解噪声去除方法 | |
Steffens et al. | Can exposure, noise and compression affect image recognition? an assessment of the impacts on state-of-the-art convnets | |
KR101615479B1 (ko) | 적응적 전/후처리 필터링을 이용하는 초해상도 영상 처리 방법 | |
CN113112482A (zh) | 一种基于注意力机制网络的pcb缺陷检测方法 | |
CN114926348B (zh) | 一种去除低照度视频噪声的装置和方法 | |
CN116363064A (zh) | 融合目标检测模型和图像分割模型的缺陷识别方法及装置 | |
CN116129417A (zh) | 一种基于低质量图像的数字仪表读数检测方法 | |
CN115937121A (zh) | 基于多维度特征融合的无参考图像质量评价方法及系统 | |
Sharma et al. | A comparative analysis of various image enhancement techniques for facial images | |
CN115205148A (zh) | 基于双路径残差网络的图像去模糊方法 | |
Chen et al. | GADO-Net: an improved AOD-Net single image dehazing algorithm | |
Yin et al. | Enhancement of Low-Light Image using Homomorphic Filtering, Unsharp Masking, and Gamma Correction | |
Han et al. | Enhanced Mask R-CNN blur instance segmentation based on generated adversarial network | |
CN114596219B (zh) | 一种基于条件生成对抗网络的图像去运动模糊方法 | |
Liu et al. | Research on deblurring method for insulator images based on channel and spatial attention mechanisms |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |