CN111626993A - 一种基于嵌入式FEFnet网络的图像自动检测计数方法及系统 - Google Patents

一种基于嵌入式FEFnet网络的图像自动检测计数方法及系统 Download PDF

Info

Publication number
CN111626993A
CN111626993A CN202010404904.6A CN202010404904A CN111626993A CN 111626993 A CN111626993 A CN 111626993A CN 202010404904 A CN202010404904 A CN 202010404904A CN 111626993 A CN111626993 A CN 111626993A
Authority
CN
China
Prior art keywords
image
layer
network
feature
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010404904.6A
Other languages
English (en)
Inventor
潘炼
王凯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University of Science and Engineering WUSE
Wuhan University of Science and Technology WHUST
Original Assignee
Wuhan University of Science and Engineering WUSE
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University of Science and Engineering WUSE filed Critical Wuhan University of Science and Engineering WUSE
Priority to CN202010404904.6A priority Critical patent/CN111626993A/zh
Publication of CN111626993A publication Critical patent/CN111626993A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于嵌入式FEFnet网络的图像自动检测计数方法,其特征在于,包括以下步骤:将图像进行数据准备与预处理;再放入空洞卷积CNN网络提取特征图;将特征图放入多层感受野RPN网络中提取更精准的候选框;特征图和候选框送入ROI Align层将特征图转化为固定维度;最后使用全连接层输出分类和回归向量。通过反复迭代更新权重输出模型,调用模型放入检测装置中检测图像位置及个数。同时还涉及到一种基于嵌入式的图像自动识别系统,用以实现所提供的FEFnet网络复杂背景图像自动检测与计数方法。本发明能有效的进行类似图像目标识别,其目标识别的精度高、速度快、鲁棒性好,且同时具有通用目标检测的能力,具有较好的市场运用前景。

Description

一种基于嵌入式FEFnet网络的图像自动检测计数方法及系统
技术领域
本发明属于计算机视觉技术目标检测领域,涉及一种基于嵌入式FEFnet网络(Faster Regional Expansion Fusion neural network)的复杂背景图像目标检测与计数的方法及系统。
背景技术
海水中的浮游植物是海洋生态系统中最主要的初级生产者和能量的主要转换者,海洋生物是主要的海洋浮游植物,对海洋中海洋生物进行识别,可以估测海区内生态系统的群落结构和分布状态,实现海洋的监测和综合治理。
目前大部分研究还处于人工计数阶段,其原理是用一定的色素使海水中的海洋生物呈现容易辨认的颜色,然后在海水随机提取一定微小体积的单元,将提取的海水放置于高倍放大镜下进行计数。数出一定体积内海洋生物细胞的个数,就能计算出提取的海水中海洋生物的浓度。这种方法存在实时性差、从提取样品到计数所经历的时间较长、误差较大,提取海水尽管有代表性,但仍然无法代替多点实时测量的准确性,而且由人工计数,必然产生人为误差。随着计算机硬件的快速发展,基于深度学习的图像识别广泛运用在农业、工业、商业等各领域中。本设计是一种基于嵌入式FEFnet网络的自动检测图像和计数的方法,能有效解决人工计数劳力费时的问题,经济环保。
目标检测分为单接阶法和双阶法。单阶法包括YOLO系列算法和SSD系列算法。而双阶算法包括RCNN,Fast R-CNN到Faster R-CNN。RCNN首次将CNN引入目标检测,采用选择性搜索查找高概率的预测框,使用卷积层提取每个框的高维特征,由支持向量机确定目标类别。但每个框的重叠部分进行了反复计算,增加了计算量。Fast R-CNN对RCNN进行改进,使用不同的池化层(ROI)共享特征提取的计算,得到固定维度的特征。但Fast R-CNN采取SS进行特征提取,检测速度有待提升。为了进一步提高检测速度,Faster R-CNN提出了区域建议RPN。虽然RPN依赖的几百个预测框就能达到Fast R-CNN上千个预测框相同的效果,但对于低分辨率的小目标,Faster R-CNN的检测精度相比于Fast R-CNN有所下降。
尽管现在双阶算法具有较高的准确率,但对于背景干扰大、光照反差大、图像模糊的海洋生物小目标而言检测效果不佳。一方面,小目标由于在图片中占据像素点较少,分辨率低,其对应区域的像素所反映出的信息量是非常有限的。而在极端的情况下,小目标检测可以视为像素分类任务,这导致一些通用的目标检测算法难以适用于小目标检测;另一方面,在图片包含大量噪声及光照反差大的情况下,小目标和噪声容易形成干扰,光照能影响小目标的颜色纹理等特征,这给卷积网络学习有效特征带来巨大的挑战。
根据本发明方法及系统,进行类似海洋生物这样的小目标识别,其小目标识别的精度高、速度快、鲁棒性好、环保便捷。该小目标识别方法可用于复杂背景下的目标检测,具有较好的市场运用前景。
发明内容
本发明的目的是提供一种基于嵌入式FEFnet网络的图像自动检测计数方法及系统,利用图像预处理突出小目标特征,使用更好的特征提取网络和更优质的候选框来提高小目标检测的准确率,降低漏检率。
本发明基于一种基于嵌入式FEFnet网络的图像自动检测计数方法及系统,其特征包括以下步骤:
图像采集过程;
图像数据准备和预处理;
FEFnet网络模型训练过程;
图像自动识别过程。
其中图像数据采集过程,使用高清防水摄像机对海底不同深度进行拍摄,将拍摄到的图片进行回传,通过无线模块将图片传递给数据存储模块进行储存。
图像数据准备和预处理中,使用不同的图像预处理方法突出图像特征。具体步骤如下:
1)把图片分为亮图和暗图,计算图片的均值和方差,有RGB三个通道,把该通道数组转化为整数,对三通道去其平均值,通过比较平均值的均值方差范围把所有图片分为亮图暗图两类。
2)将所有图片变为二值图像;首先使用直方图均衡化算法使图片中间亮度级向外扩散,达到均衡亮度级,增强图片对比度;然后使用锐化算法加强目标的整体轮廓,目标边缘得到明显加强;最后使用中值滤波和均值迁移算法,对亮图使用中值滤波算法能消除图像中大量孤立的噪声点、对暗图使用均值迁移算法使图像暗色噪声和加强后的噪声出现明显分层,加大参数调节范围使目标外围出现白圈,增强局部特征。
3)对于数据集不够,使用数据增强中的裁剪得到更多的数据集。
4)对增强后的图片进行筛选,挑去具有代表性的图像图片,使用标注工具对图像进行专家标注,获得PASCAL_VOC格式的图像位置标注文件,将训练的图片及对应的标注文件放入网络模型的数据集中,至此图像数据准备和预处理步骤结束。
PASCAL_VOC数据集是目标识别领域中最经典的数据集之一,常用于目标检测、分类、分割等。该数据集包含200类可视对象,包含517000张图像和534000个注释对象,这里图片标注的格式采用PASCAL_VOC数据集相同的格式。
FEFnet网络模型训练过程,其具体实现步骤如下:
(1)特征提取网络
1)首先使用2个3*3的卷积核进行卷积操作,并使用Leaky ReLU函数进行激活,使用3*3的卷积核其扩张率为2的空洞卷积层代替池化层进行降维操作,得到第一张特征图。
2)在第一张特征图的基础上,使用2个3*3的卷积核进行卷积操作,并使用LeakyReLU函数进行激活,使用3*3的卷积核其扩张率为3的空洞卷积层代替池化层进行降维操作,得到第二张特征图。
3)在第二张特征图的基础上,使用3个3*3的卷积核进行卷积操作,并使用LeakyReLU函数进行激活,使用3*3的卷积核其扩张率为2的空洞卷积层代替池化层进行降维操作,得到第三张特征图。
4)在第三张特征图的基础上,使用3个3*3的卷积核进行卷积操作,并使用ReLU函数进行激活,使用3*3的卷积核其扩张率为3的空洞卷积层代替池化层进行降维操作,得到第四张特征图。
5)在第四张特征图的基础上,使用3个3*3的卷积核进行卷积操作,并使用ReLU函数进行激活,使用3*3的卷积核其扩张率为2的空洞卷积层代替池化层进行降维操作,得到第五张特征图。
6)将低层特征图feature map1,feature map3与高层特征图feature map5进行特征融合,为了防止网络过拟合,对该三层采用不同的正则化。由于要提升小目标的检测精度,在低层特征图上进行较小的正则化系数,在高层使用较大的正则化系数,其正则化系数比例关系为:λfeature_map1∶λfeature_map3∶λfeature_map5=1∶3∶6。
其中λfeature_map1表示特征图feature map1的正则化系数,其中λfeature_map3表示特征图feature map3的正则化系数,其中λfeature_map5表示特征图feature map5的正则化系数。
(2)多层感受野RPN网络提取优质的候选框
1)通过上述步骤得到了特征融合后的特征图,因不同尺度的目标可以使用不同大小的感受野,小目标占据的图片面积小需要采取不同的卷积核滑动生成候选框,这里使用1*1、3*3、5*5的滑动窗口。
2)在RPN阶段选择候选框使用anchor机制,anchor机制(预定义边框)就是一组预设的边框,在训练时,以真实的边框位置相对于预设边框的偏移来构建训练样本。这就相当于,预设边框先大致在可能的位置“框“出来目标,然后再在这些预设边框的基础上进行调整。使用边框的纵横比和边框的面积(尺度)来定义,相当于一系列预设边框的生成规则,根据anchor机制可以在图像的任意位置,生成一系列的边框。
但对于不同数据集而言,生成的锚框的尺寸大小不一样,选择合适的锚点框不仅能提高后期的模型训练速度,而且能提升检测的精度。使用基于k-means聚类算法选择合适的锚框,k-means聚类算法步骤如下:
1.首先初始化k个聚类中心,然后遍历每个样本点,根据每个样本点离聚类中心的位置将这些样本点分配给聚类中心,该过程称为簇分类;
2.然后计算当前簇所有样本点的均值,将聚类中心移至均值坐标处,该过程称为聚类中心移动;
3.最后重复迭代上述过程,直到聚类中心收敛到固定点。
3)通过使用不同的感受野和使用k-means聚类算法寻找合适的候选框,将这些框递给cls layer层和reg layer层,实现前景背景分类和候选位置框的回归。
4)使用soft-NMS算法降低重复候选框质量
在去除边界框后减少了候选框的数量,但剩下的还有许多重复框,使用NMS(nonmaximum suppression)算法(非极大抑制算法)能保留最佳框,消除冗余框,本质是搜索局部极大值,抑制非极大值元素,但当检测的同类目标出现重叠度超过指定阈值之后就会将低置信度的候选框删除,造成了目标的漏检。
由此使用soft-NMS算法(软化非极大抑制算法)来减少重叠框的数量,该算法的优势在于在当前置信度的基础上递归的重新评分,而不是直接抑制置信度低且重叠度较高的候选框。为了提高算法计算速度,将低于最高置信度3倍的候选框直接去掉。其算法的基本流程如下:
(a)按类别对标签分组,预测标签中所有的候选框
(b)对于每一类的所有候选框记住A,筛选后的候选框记作B,执行以下操作:
1.选出得分最高的的候选框,记作M,其置信度分数记作SM加入到B中
2.计算剩余置信度不低于SM3倍的候选框与M之前的重叠面积,若大于设定的抑制阈值Nt则舍弃,否则保留。
3.若步骤2中所有框为空,则返回步骤(b),否则继续执行步骤1。
(c)经过上述步骤,得到了所有类别的最唯一候选框。
其线性加权函数为:
Figure BSA0000208676940000051
其中,Nt为拟制阈值,Si为第i个预测框的iou分类得分,SM为当前候选框置信度最高分类得分,M为最大得分所对应的边界框。iou为预测边界框和真实边界框的重叠率,也就是预测边界框与真实边界框的交集比上他们的并集,其中A是预测边界框,B是真实边界框,其公式如下:
Figure BSA0000208676940000052
(3)RoI Align兴趣区域对齐模块
ROI(Region Of Interest)是从目标图像中识别出候选区域,将RPN(RegionProposal Network)产生的候选识别框映射到特征图上。其中ROI Pooling(感兴趣区域池化层)是把大小形状各异的候选识别区域归一化到固定尺寸。
RoI Align(Alignment Of Region Of Interest)层(兴趣区域对齐层)是一个引入双线性插值的池化过程,目的在于使离散的池化过程变成连续的过程,从而弥补感兴趣区域池化粗糙量化的问题,提高了定位候选框的准确性。
其算法的主要流程为:根据输入的图片,将ROI映射到特征融合的特征图对应的位置上;遍历每一个候选区域,对浮点数边界进行保留;将候选区域分割成N*N个单元,每个单元的浮点数边界进行保留;在每个单元划分为等距的固定四个坐标位置,使用双线性内插的方式计算四个位置的值,在这四个位置使用最大化池化保留该单元的一个位置值。由此得到固定维度的特征图。
(4)全连接层及输出
将每个ROI区域输入固定大小的特征图通过两个全连接层得到两个特征向量,一个特征向量用来判别类别,另一个特征向量用来回归最终唯一坐标框。
通过反复迭代更新权重,使得RPN阶段和最终预测阶段的损失尽量较小,使得模型收敛到达损失全局最优。通过上述步骤得到海洋生物小目标模型。
本发明还提供了一种基于嵌入式FEFnet网络的图像自动检测系统,其特征在于,该装置是一个嵌入式的图像自动识别及计数系统,它包括:
图像数据采集模块,用于对不同深度的海水进行水下拍摄生成图片;
数据存储模块,用于存储所拍摄的图片;
嵌入式微处理器,用于对数据存储模块的图片进行读取,将读取后的图片进行图像数据预处理,调用训练好的模型,把检测的坐标信息和分类的置信度收集起来,调用可视化函数把检测的结果画在测试图片上,并生成表格统计图片中的海洋生物总个数。将检测的结果传递无限通讯模块;
无限通讯模块,用于将数据存储模块存储的图片及检测结果数据远程传递给终端;
终端显示模块,用于远程显示所拍摄图片的检测到海藻及总个数。
技术方案:图像数据采集模块对不同深度的海水进行水下拍摄生成图片,并把所拍摄的所有图片传递给数据存储模块;数据存储模块对图片进行存储;嵌入式微处理器读取数据存储模块存储的图片,并进行图像数据预处理,调用训练好的模型,把检测的坐标信息和分类的置信度收集起来,调用可视化函数把检测的结果画在测试图片上,并生成表格统计图片中的海藻总个数,将检测的结果传递无限通讯模块;无限通讯模块将数据存储模块存储的图片及检测结果数据远程传递给终端;终端显示模块显示所拍摄图片的检测到海洋生物及总个数。
通过结附图,阅读合以下本发明实施方式的详细描述后,本发明的其他特征、特点和优点将会变得更加清楚。
附图说明
图1是一种基于嵌入式FEFnet网络的图像自动检测计数方法及系统整体结构流程图;
图2是图像数据准备与预处理流程图;
图3是图像预处理流程图;
图4是空洞卷积CNN提取融合特征图流程图;
图5是精准提取候选框的多层感受野RPN网络流程图;
图6是亮图的识别结果图;
图7是暗图的识别结果图;
具体实施方式
下面将结合附图对本发明的具体实施方式进行详细说明。
图1是根据本发明的一种基于嵌入式FEFnet网络的图像自动检测计数方法及系统整体结构流程图。
在步骤101,开始;
在步骤102,对不同深度的海水进行水下拍摄生成图片;
在步骤103,用于存储所拍摄的图片;
在步骤104,判断是否训练好模型,若有进入测试阶段,若无,进入训练阶段;
在步骤105,进入测试阶段,将未训练的图片送入图像预处理模块,突出目标在图像中的轮廓;
在步骤106,将图像预处理后的图片通过输出模型119调用其模型;
在步骤107,将图片送入FEFnet网络中进行前向传播;
在步骤108,把检测的坐标信息和分类的置信度收集起来,调用可视化函数把检测的结果画在测试图片上,并生成表格统计图片中的海洋生物总个数;
其中图像预处理105、调用模型106、卷积网络前向传播107、检测结果108构成了嵌入式微处理器120,用于对数据存储模块的图片进行读取并进行检测,将检测的结果传递无限通讯模块109;
在步骤109,用于将数据存储模块存储的图片及检测结果数据远程传递给终端;
在步骤110,用于远程显示所拍摄图片的检测到海洋生物及总个数;
在步骤111,进入训练阶段,读取部分的存储图片,对图片进行数据准备与预处理;
在步骤112,将图像数据准备与预处理的图片进行空洞卷积CNN提取特征;
在步骤113,得到其融合后的提征图;
在步骤114,将融合特征图送入多层感受野RPN网络提取更加精准的候选框;
在步骤115,将多层感受野RPN网络得到的特征图与特征融合得到的特征图进行参数共享;
在步骤116,将融合特征图一方面送入ROI Align兴趣区域对齐层,另一方面RPN网络提取更加精准的候选框送入ROI Align兴趣区域对齐层。
RoI Align兴趣区域对齐层是一个引入双线性插值的池化过程,目的在于使离散的池化过程变成连续的过程,从而弥补感兴趣区域池化粗糙量化的问题,提高了定位候选框的准确性。ROI Align兴趣区域对齐层基本原理为根据输入的图片,将ROI映射到特征融合的特征图对应的位置上;遍历每一个候选区域,对浮点数边界进行保留;将候选区域分割成N*N个单元,每个单元的浮点数边界进行保留;在每个单元划分为等距的固定四个坐标位置,使用双线性内插的方式计算四个位置的值,在这四个位置使用最大化池化保留该单元的一个位置值。由此得到固定维度的特征图。
在步骤117,将每个ROI区域输入固定大小的特征图通过两个全连接层得到两个特征向量;
在步骤118,经过全连接层后一个特征向量用来判别候选框的类别,经过全连接层后另一个特征向量用来回归最终唯一坐标框;
在步骤119,通过反复迭代更新权重,使得RPN阶段和最终预测阶段的损失尽量较小,使得模型收敛到达损失全局最优,得到海洋生物小目标模型;
在步骤120,结束。
本发明还提供了一种基于嵌入式FEFnet网络的图像自动检测系统。图像数据采集模块对不同深度的海水进行水下拍摄生成图片,并把所拍摄的所有图片传递给数据存储模块;数据存储模块对图片进行存储;将存储得到的图片一方面送入模型训练阶段,该阶段为一次性过程,下次无需训练直接调用模型即可,存储的图片另一方面送入系统测试阶段(测试图片不包含训练图片),嵌入式微处理器读取数据存储模块存储的图片进行图像数据预处理,调用训练好的模型,把检测的坐标信息和分类的置信度收集起来,调用可视化函数把检测的结果画在测试图片上,并生成表格统计图片中的海洋生物总个数,将检测的结果传递无限通讯模块;无限通讯模块将数据存储模块存储的图片及检测结果数据远程传递给终端;终端显示模块显示所拍摄图片的检测到海洋生物及总个数。
图2是图1的图像数据准备与预处理111的图像数据准备与预处理流程图。
在步骤201,开始;
在步骤202,把图片分为亮图和暗图,计算图片的均值和方差,有RGB三个通道,把该通道数组转化为整数,对三通道去其平均值,通过比较平均值的均值方差范围把所有图片分为亮图暗图两类;
在步骤203,将亮暗图像进行图像预处理,得到较清晰的目标轮廓;
在步骤204,对图像预处理后的图片进行亮图暗图合并;
在步骤205,对于数据集不够,使用数据增强中的裁剪得到更多的数据集;
在步骤206,对图片进行筛选,挑去具有代表性的海洋生物图片,使用标注工具对海洋生物进行专家标注,获得PASCAL_VOC格式的海洋生物位置标注文件,得到训练的图片及对应的标注文件;
在步骤207,结束。
图3是图1图像预处理105的图像预处理流程图。
在步骤301,开始;
在步骤302,将所有图像进行二值化,得到二值图像;
在步骤303,使用直方图均衡化算法使图片中间亮度级向外扩散,达到均衡亮度级,增强图片对比度;
在步骤304,使用锐化算法加强目标的整体轮廓,目标边缘得到明显加强;
在步骤305,判断输入图片是否为亮图;
在步骤306,若不是亮图,使用均值迁移算法使图像暗色噪声和加强后的噪声出现明显分层,加大参数调节范围使目标外围出现白圈,增强局部特征;
在步骤307,若是亮图,使用中值滤波算法能消除图像中大量孤立的噪声点;
在步骤308,结束。
图4是图1中空洞卷积112中的空洞卷积CNN提取融合特征图流程图。
在步骤401,开始;
在步骤402,使用2个3*3的卷积核进行卷积操作,并使用Leaky ReLU函数进行激活;
在步骤403,使用3*3的卷积核其扩张率为3的空洞卷积层代替池化层进行降维;
在步骤404,判断是否为特征融合提供特征图;
在步骤405,使用2个3*3的卷积核进行卷积操作,并使用Leaky ReLU函数进行激活;
在步骤406,使用3*3的卷积核其扩张率为3的空洞卷积层代替池化层进行降维;
在步骤407,使用3个3*3的卷积核进行卷积操作,并使用ReLU函数进行激活;
在步骤408,使用3*3的卷积核其扩张率为2的空洞卷积层代替池化层进行降维;
在步骤409,判断是否为特征融合提供特征图;
在步骤410,使用3个3*3的卷积核进行卷积操作,并使用ReLU函数进行激活;
在步骤411,使用3*3的卷积核其扩张率为3的空洞卷积层代替池化层进行降维;
在步骤412,使用3个3*3的卷积核进行卷积操作,并使用ReLU函数进行激活;
在步骤413,使用3*3的卷积核其扩张率为2的空洞卷积层代替池化层进行降维;
在步骤414,将低层特征图feature map1,feature map3与高层特征图featuremap5进行特征融合,为了防止网络过拟合,对该三层采用不同的正则化。由于要提升小目标的检测精度,在低层特征图上进行较小的正则化系数,在高层使用较大的正则化系数,其正则化系数比例关系为:λfeature_map1∶λfeature_map3∶λfeature_map5=1∶3∶6;
在步骤415,得到融合后的特征图;
在步骤416,将第三张特征图进行降维,并使用1*1卷积核改变通道数,使其融合的特征图与第五张特征图尺寸保持一致;
在步骤417,将第一张特征图进行降维,并使用1*1卷积核改变通道数,使其融合的特征图与第五张特征图尺寸保持一致;
在步骤418,结束。
图5是图1中多层感受野RPN网络114模块的精准提取候选框的多层感受野RPN网络流程图。
在步骤501,开始;
在步骤502,通过空洞卷积CNN得到特征融合后的特征图;
在步骤503,因不同尺度的目标可以使用不同大小的感受野,小目标占据的图片面积小需要采取不同的卷积核滑动生成候选框,使用1*1、3*3、5*5的滑动窗口对特征图进行滑动;
在步骤504,生成与原图一一对应的不同感受野;
在步骤505,使用基于k-means聚类算法选择合适的锚框,k-means聚类算法步骤如下:
(1)首先初始化k个聚类中心,然后遍历每个样本点,根据每个样本点离聚类中心的位置将这些样本点分配给聚类中心,该过程称为簇分类;
(2)然后计算当前簇所有样本点的均值,将聚类中心移至均值坐标处,该过程称为聚类中心移动;
(3)最后重复迭代上述过程,直到聚类中心收敛到固定点。
在步骤506,得到适应本数据集的不同比例的候选框;
在步骤507,分类回归层中,分类层用来判别候选框是前景还是背景,回归层去除掉许多重叠度较高且置信度低的候选框。
使用soft-NMS算法来减少重叠框的数量,该算法的优势在于在当前置信度的基础上递归的重新评分,而不是直接抑制置信度低且重叠度较高的候选框。
为了提高算法计算速度,将低于最高置信度3倍的候选框直接去掉。其算法的基本流程如下:
(a)按类别对标签分组,预测标签中所有的候选框
(b)对于每一类的所有候选框记住A,筛选后的候选框记作B,执行以下操作:
1.选出得分最高的的候选框,记作M,其置信度分数记作SM加入到B中
2.计算剩余置信度不低于SM3倍的候选框与M之前的重叠面积,若大于设定的抑制阈值Nt则舍弃,否则保留。
3.若步骤2中所有框为空,则返回步骤(b),否则继续执行步骤1。
(c)经过上述步骤,得到了所有类别的最唯一候选框。
其线性加权函数为:
Figure BSA0000208676940000111
其中,Nt为拟制阀值,Si为第i个预测框的iou分类得分,SM为当前候选框置信度最高分类得分,M为最大得分所对应的边界框。iou为预测边界框和真实边界框的重叠率,也就是预测边界框与真实边界框的交集比上他们的并集,其中A是预测边界框,B是真实边界框,其公式如下:
Figure BSA0000208676940000112
在步骤508,结束。
图6是亮图的识别结果图;
图7是暗图的识别结果图;
一种基于嵌入式FEFnet网络的图像自动检测计数方法及系统能有效的进行类似海洋生物的小目标识别,其小目标识别的精度高、速度快、鲁棒性好、环保便捷。该小目标识别方法可用于复杂背景下的目标检测,同时具有通用目标检测的能力。随着计算机视觉在日常生活运用、科研、商业的发展,该系统在目标检测领域将具有较好的市场运用前景。

Claims (5)

1.一种基于嵌入式FEFnet网络的图像自动检测计数方法,其特征在于,包括以下步骤:
(1)读取部分的存储图片,对图片进行数据准备与预处理;
(2)将图像数据准备与预处理的图片进行空洞卷积CNN提取特征;
(3)得到其融合后的提征图;
(4)将融合特征图送入多层感受野RPN网络提取更加精准的候选框;
RPN(RegionProposal Network)区域生成网络,将一个任意尺度的特征图作为输入,经过滑动窗口滑动,输出一系列的前景矩形框位置信息及每个矩形框的置信分数。
(5)将融合特征图一方面送入ROI Align层,另一方面RPN网络提取更加精准的候选框送入ROI Align层;
RoI Align层(兴趣区域对齐层)是一个引入双线性插值的池化过程,目的在于使离散的池化过程变成连续的过程,从而弥补感兴趣区域池化粗糙量化的问题,提高了定位候选框的准确性。
(6)将每个RoI Align区域输入固定大小的特征图通过两个全连接层得到两个特征向量;
(7)经过全连接层后一个特征向量用来判别候选框的类别;
(8)经过全连接层后另一个特征向量用来回归最终唯一坐标框;
(9)通过反复迭代更新权重,使得RPN阶段和最终预测阶段的损失尽量较小,使得模型收敛到达损失全局最优,得到海藻小目标模型。
2.根据权利要求1所述一种基于嵌入式FEFnet网络的图像自动检测计数方法,其特征在于,图像数据准备与预处理是通过执行以下步骤实现:
(1)把图片分为亮图和暗图,计算图片的均值和方差,有RGB三个通道,把该通道数组转化为整数,对三通道去其平均值,通过比较平均值的均值方差范围把所有图片分为亮图暗图两类;
(2)将亮暗图像进行图像预处理,得到较清晰的目标轮廓;
(3)对图像预处理后的图片进行亮图暗图合并;
(4)对于数据集不够,使用数据增强中的裁剪得到更多的数据集;
(5)对图片进行筛选,挑去具有代表性的图像图片,使用标注工具对图像进行专家标注,获得PASCAL_VOC格式的图像位置标注文件,得到训练的图片及对应的标注文件。
3.根据权利要求1所述一种基于嵌入式FEFnet网络的图像自动检测计数方法,其特征在于,图像预处理是通过执行以下步骤实现:
(1)将所有图像进行二值化;
(2)使用直方图均衡化算法使图片中间亮度级向外扩散,达到均衡亮度级,增强图片对比度;
(3)使用锐化算法加强目标的整体轮廓,目标边缘得到明显加强;
(4)对亮图使用中值滤波算法能消除图像中大量孤立的噪声点;
(5)对暗图使用均值迁移算法使图像暗色噪声和加强后的噪声出现明显分层,加大参数调节范围使目标外围出现白圈,增强局部特征。
4.根据权利要求1所述一种基于嵌入式FEFnet网络的图像自动检测计数方法,其特征在于,空洞卷积CNN提取融合特征图是通过执行以下步骤实现:
(1)使用2个3*3的卷积核进行卷积操作,并使用Leaky ReLU函数进行激活;
(2)使用3*3的卷积核其扩张率为2的空洞卷积层代替池化层进行降维;
(3)使用2个3*3的卷积核进行卷积操作,并使用Leaky ReLU函数进行激活;
(4)使用3*3的卷积核其扩张率为3的空洞卷积层代替池化层进行降维;
(5)使用3个3*3的卷积核进行卷积操作,并使用ReLU函数进行激活;
(6)使用3*3的卷积核其扩张率为2的空洞卷积层代替池化层进行降维;
(7)使用3个3*3的卷积核进行卷积操作,并使用ReLU函数进行激活;
(8)使用3*3的卷积核其扩张率为3的空洞卷积层代替池化层进行降维;
(9)使用3个3*3的卷积核进行卷积操作,并使用ReLU函数进行激活;
(10)使用3*3的卷积核其扩张率为2的空洞卷积层代替池化层进行降维;
(11)将第一张特征图和第三张特征图进行降维,使其融合的特征图与第五张特征图尺寸保持一致;
(12)将低层特征图feature mapl,feature map3与高层特征图feature map5进行特征融合,为了防止网络过拟合,对该三层采用不同的正则化。由于要提升目标的检测精度,在低层特征图上进行较小的正则化系数,在高层使用较大的正则化系数,其正则化系数比例关系为:λfeature_map1∶λfeature_map3∶λfeature_map5=1∶3∶6。
5.根据权利要求1所述一种基于嵌入式FEFnet网络的图像自动检测计数方法,其特征在于,多层感受野RPN网络提取精准提取候选框是通过执行以下步骤实现:
(1)使用1*1、3*3、5*5的滑动窗口对特征图进行滑动;
(2)生成与原图一一对应的不同感受野;
(3)使用基于k-means聚类算法选择合适的锚框;
(4)得到适应本数据集的不同比例的候选框;
(5)分类层用来判别候选框是前景还是背景;
(6)回归层去除掉许多重叠度较高且置信度低的候选框。使用soft-NMS算法来减少重叠框的数量,该算法对当前置信度的基础上递归的重新评分,而不是直接抑制置信度低且重叠度较高的候选框。
为了提高算法计算速度,将低于最高置信度3倍的候选框直接去掉。其算法的基本流程如下:
(a)按类别对标签分组,预测标签中所有的候选框
(b)对于每一类的所有候选框记住A,筛选后的候选框记作B,执行以下操作:
1)选出得分最高的的候选框,记作M,其置信度分数记作SM加入到B中
2)计算剩余置信度不低于SM3倍的候选框与M之前的重叠面积,若大于设定的抑制阈值Nt则舍弃,否则保留。
3)若步骤2)中所有框为空,则返回步骤(b),否则继续执行步骤1)。
(c)经过上述步骤,得到了所有类别的最唯一候选框。
其线性加权函数为:
Figure FSA0000208676930000031
其中,Nt为拟制阈值,Si为第i个预测框的iou分类得分,SM为当前候选框置信度最高分类得分,M为最大得分所对应的边界框。
CN202010404904.6A 2020-05-07 2020-05-07 一种基于嵌入式FEFnet网络的图像自动检测计数方法及系统 Pending CN111626993A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010404904.6A CN111626993A (zh) 2020-05-07 2020-05-07 一种基于嵌入式FEFnet网络的图像自动检测计数方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010404904.6A CN111626993A (zh) 2020-05-07 2020-05-07 一种基于嵌入式FEFnet网络的图像自动检测计数方法及系统

Publications (1)

Publication Number Publication Date
CN111626993A true CN111626993A (zh) 2020-09-04

Family

ID=72271029

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010404904.6A Pending CN111626993A (zh) 2020-05-07 2020-05-07 一种基于嵌入式FEFnet网络的图像自动检测计数方法及系统

Country Status (1)

Country Link
CN (1) CN111626993A (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112036397A (zh) * 2020-09-29 2020-12-04 上海海事大学 一种基于深度学习的嵌入式黄瓜叶片图像识别装置
CN112232263A (zh) * 2020-10-28 2021-01-15 中国计量大学 一种基于深度学习的番茄识别方法
CN112256906A (zh) * 2020-10-23 2021-01-22 安徽启新明智科技有限公司 在显示屏上标记批注的方法、装置和存储介质
CN112348776A (zh) * 2020-10-16 2021-02-09 上海布眼人工智能科技有限公司 基于EfficientDet的织物瑕疵检测方法
CN112597915A (zh) * 2020-12-26 2021-04-02 上海有个机器人有限公司 对室内近距离行人进行识别的方法、装置、介质和机器人
CN112881632A (zh) * 2021-01-20 2021-06-01 深圳市水文水质中心 一种水样中藻类计数方法及装置
CN112926383A (zh) * 2021-01-08 2021-06-08 浙江大学 一种基于水下激光图像的目标自动识别系统
CN113177133A (zh) * 2021-04-23 2021-07-27 深圳依时货拉拉科技有限公司 一种图像检索方法、装置、设备及存储介质
CN113688706A (zh) * 2021-08-16 2021-11-23 南京信息工程大学 一种车辆检测方法、装置、设备及存储介质
CN114581348A (zh) * 2022-02-16 2022-06-03 三峡大学 一种基于植物群落行为的图像融合方法
CN117710756A (zh) * 2024-02-04 2024-03-15 成都数之联科技股份有限公司 一种目标检测及模型训练方法、装置、设备、介质
JP7474546B2 (ja) 2020-11-17 2024-04-25 メディリティ インク イメージ分析サーバー、イメージ分析サーバーを用いたオブジェクトカウント方法、及びオブジェクトカウントシステム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102957919A (zh) * 2012-11-14 2013-03-06 四川长虹电器股份有限公司 一种数字图像亮度增强方法
CN105005973A (zh) * 2015-06-30 2015-10-28 广东欧珀移动通信有限公司 一种图像快速去噪的方法及装置
CN105868689A (zh) * 2016-02-16 2016-08-17 杭州景联文科技有限公司 一种基于级联卷积神经网络的人脸遮挡检测方法
CN108805873A (zh) * 2017-04-28 2018-11-13 南宁富桂精密工业有限公司 图像处理方法及装置
CN109145854A (zh) * 2018-08-31 2019-01-04 东南大学 一种基于级联卷积神经网络结构的人脸检测方法
CN109658387A (zh) * 2018-11-27 2019-04-19 北京交通大学 电力列车的受电弓碳滑板缺陷的检测方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102957919A (zh) * 2012-11-14 2013-03-06 四川长虹电器股份有限公司 一种数字图像亮度增强方法
CN105005973A (zh) * 2015-06-30 2015-10-28 广东欧珀移动通信有限公司 一种图像快速去噪的方法及装置
CN105868689A (zh) * 2016-02-16 2016-08-17 杭州景联文科技有限公司 一种基于级联卷积神经网络的人脸遮挡检测方法
CN108805873A (zh) * 2017-04-28 2018-11-13 南宁富桂精密工业有限公司 图像处理方法及装置
CN109145854A (zh) * 2018-08-31 2019-01-04 东南大学 一种基于级联卷积神经网络结构的人脸检测方法
CN109658387A (zh) * 2018-11-27 2019-04-19 北京交通大学 电力列车的受电弓碳滑板缺陷的检测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
YANG ZHANG等: "Deep Learning-Based Object Detection Improvement for Tomato Disease" *
王凯等: "基于改进Faster R-CNN 图像小目标检测" *
赵春晖等: "基于改进Faster R-CNN算法的舰船目标检测与识别" *

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112036397A (zh) * 2020-09-29 2020-12-04 上海海事大学 一种基于深度学习的嵌入式黄瓜叶片图像识别装置
CN112036397B (zh) * 2020-09-29 2024-05-31 上海海事大学 一种基于深度学习的嵌入式黄瓜叶片图像识别装置
CN112348776A (zh) * 2020-10-16 2021-02-09 上海布眼人工智能科技有限公司 基于EfficientDet的织物瑕疵检测方法
CN112256906A (zh) * 2020-10-23 2021-01-22 安徽启新明智科技有限公司 在显示屏上标记批注的方法、装置和存储介质
CN112232263B (zh) * 2020-10-28 2024-03-19 中国计量大学 一种基于深度学习的番茄识别方法
CN112232263A (zh) * 2020-10-28 2021-01-15 中国计量大学 一种基于深度学习的番茄识别方法
JP7474546B2 (ja) 2020-11-17 2024-04-25 メディリティ インク イメージ分析サーバー、イメージ分析サーバーを用いたオブジェクトカウント方法、及びオブジェクトカウントシステム
CN112597915A (zh) * 2020-12-26 2021-04-02 上海有个机器人有限公司 对室内近距离行人进行识别的方法、装置、介质和机器人
CN112597915B (zh) * 2020-12-26 2024-04-09 上海有个机器人有限公司 对室内近距离行人进行识别的方法、装置、介质和机器人
CN112926383A (zh) * 2021-01-08 2021-06-08 浙江大学 一种基于水下激光图像的目标自动识别系统
CN112881632A (zh) * 2021-01-20 2021-06-01 深圳市水文水质中心 一种水样中藻类计数方法及装置
CN113177133A (zh) * 2021-04-23 2021-07-27 深圳依时货拉拉科技有限公司 一种图像检索方法、装置、设备及存储介质
CN113177133B (zh) * 2021-04-23 2024-03-29 深圳依时货拉拉科技有限公司 一种图像检索方法、装置、设备及存储介质
CN113688706A (zh) * 2021-08-16 2021-11-23 南京信息工程大学 一种车辆检测方法、装置、设备及存储介质
CN113688706B (zh) * 2021-08-16 2023-12-05 南京信息工程大学 一种车辆检测方法、装置、设备及存储介质
CN114581348A (zh) * 2022-02-16 2022-06-03 三峡大学 一种基于植物群落行为的图像融合方法
CN114581348B (zh) * 2022-02-16 2024-04-30 三峡大学 一种基于植物群落行为的图像融合方法
CN117710756A (zh) * 2024-02-04 2024-03-15 成都数之联科技股份有限公司 一种目标检测及模型训练方法、装置、设备、介质
CN117710756B (zh) * 2024-02-04 2024-04-26 成都数之联科技股份有限公司 一种目标检测及模型训练方法、装置、设备、介质

Similar Documents

Publication Publication Date Title
CN111626993A (zh) 一种基于嵌入式FEFnet网络的图像自动检测计数方法及系统
CN111553929B (zh) 基于融合网络的手机屏幕缺陷分割方法、装置及设备
CN109766830B (zh) 一种基于人工智能图像处理的舰船目标识别系统及方法
CN112966684B (zh) 一种注意力机制下的协同学习文字识别方法
CN112150493B (zh) 一种基于语义指导的自然场景下屏幕区域检测方法
CN111652321A (zh) 一种基于改进yolov3算法的海上船舶检测方法
CN113592845A (zh) 一种电池涂布的缺陷检测方法及装置、存储介质
CN109376591B (zh) 深度学习特征与视觉特征联合训练的船只目标检测方法
CN111680706A (zh) 一种基于编码和解码结构的双通道输出轮廓检测方法
CN111310622A (zh) 一种面向水下机器人智能作业的鱼群目标识别方法
CN110853070A (zh) 基于显著性与Grabcut的水下海参图像分割方法
CN110633727A (zh) 基于选择性搜索的深度神经网络舰船目标细粒度识别方法
CN116665095B (zh) 一种运动舰船检测方法、系统、存储介质和电子设备
CN115393734A (zh) 基于Faster R-CNN与CV模型联合方法的SAR图像舰船轮廓提取方法
CN114648806A (zh) 一种多机制自适应的眼底图像分割方法
CN114842238A (zh) 一种嵌入式乳腺超声影像的识别方法
CN113052215A (zh) 基于神经网络可视化的声呐图像自动目标识别方法
CN110458019B (zh) 稀缺认知样本条件下的排除倒影干扰的水面目标检测方法
CN116704526B (zh) 工尺谱扫描机器人及其方法
CN117495718A (zh) 一种多尺度自适应的遥感图像去雾方法
CN115830514B (zh) 一种适用于带弯曲河道的全河段表面流速计算方法及系统
CN114037737B (zh) 一种基于神经网络的近岸海底鱼类检测及跟踪统计方法
CN116168328A (zh) 一种甲状腺结节超声检查系统及方法
CN115861276A (zh) 石墨膜片表面划痕检测方法和装置
CN115578364A (zh) 基于混合注意力与调和因子的微弱目标检测方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20200904