CN111626993A - 一种基于嵌入式FEFnet网络的图像自动检测计数方法及系统 - Google Patents
一种基于嵌入式FEFnet网络的图像自动检测计数方法及系统 Download PDFInfo
- Publication number
- CN111626993A CN111626993A CN202010404904.6A CN202010404904A CN111626993A CN 111626993 A CN111626993 A CN 111626993A CN 202010404904 A CN202010404904 A CN 202010404904A CN 111626993 A CN111626993 A CN 111626993A
- Authority
- CN
- China
- Prior art keywords
- image
- layer
- network
- feature
- candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 238000001514 detection method Methods 0.000 title claims abstract description 43
- 239000013598 vector Substances 0.000 claims abstract description 10
- 238000002360 preparation method Methods 0.000 claims abstract description 9
- 238000011176 pooling Methods 0.000 claims description 29
- 238000007781 pre-processing Methods 0.000 claims description 25
- 230000008569 process Effects 0.000 claims description 23
- 230000004927 fusion Effects 0.000 claims description 16
- 230000009467 reduction Effects 0.000 claims description 16
- 238000000605 extraction Methods 0.000 claims description 10
- 230000003213 activating effect Effects 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 claims description 5
- 238000001914 filtration Methods 0.000 claims description 4
- 241001474374 Blennius Species 0.000 claims description 3
- 230000008859 change Effects 0.000 claims description 3
- 238000010924 continuous production Methods 0.000 claims description 3
- 230000005764 inhibitory process Effects 0.000 claims description 3
- 230000000717 retained effect Effects 0.000 claims description 3
- 101100456045 Schizosaccharomyces pombe (strain 972 / ATCC 24843) map3 gene Proteins 0.000 claims description 2
- 238000012216 screening Methods 0.000 claims description 2
- 230000002708 enhancing effect Effects 0.000 claims 3
- 238000013500 data storage Methods 0.000 description 14
- 238000013527 convolutional neural network Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 12
- 238000012549 training Methods 0.000 description 11
- 239000013535 sea water Substances 0.000 description 10
- 238000012360 testing method Methods 0.000 description 8
- 239000011800 void material Substances 0.000 description 8
- 230000004913 activation Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 7
- 238000007667 floating Methods 0.000 description 4
- 230000004382 visual function Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 238000013508 migration Methods 0.000 description 3
- 230000005012 migration Effects 0.000 description 3
- 230000001629 suppression Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000004438 eyesight Effects 0.000 description 2
- 238000003064 k means clustering Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 101150064138 MAP1 gene Proteins 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 239000000049 pigment Substances 0.000 description 1
- 244000038651 primary producers Species 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/28—Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20192—Edge enhancement; Edge preservation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30242—Counting objects in image
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于嵌入式FEFnet网络的图像自动检测计数方法,其特征在于,包括以下步骤:将图像进行数据准备与预处理;再放入空洞卷积CNN网络提取特征图;将特征图放入多层感受野RPN网络中提取更精准的候选框;特征图和候选框送入ROI Align层将特征图转化为固定维度;最后使用全连接层输出分类和回归向量。通过反复迭代更新权重输出模型,调用模型放入检测装置中检测图像位置及个数。同时还涉及到一种基于嵌入式的图像自动识别系统,用以实现所提供的FEFnet网络复杂背景图像自动检测与计数方法。本发明能有效的进行类似图像目标识别,其目标识别的精度高、速度快、鲁棒性好,且同时具有通用目标检测的能力,具有较好的市场运用前景。
Description
技术领域
本发明属于计算机视觉技术目标检测领域,涉及一种基于嵌入式FEFnet网络(Faster Regional Expansion Fusion neural network)的复杂背景图像目标检测与计数的方法及系统。
背景技术
海水中的浮游植物是海洋生态系统中最主要的初级生产者和能量的主要转换者,海洋生物是主要的海洋浮游植物,对海洋中海洋生物进行识别,可以估测海区内生态系统的群落结构和分布状态,实现海洋的监测和综合治理。
目前大部分研究还处于人工计数阶段,其原理是用一定的色素使海水中的海洋生物呈现容易辨认的颜色,然后在海水随机提取一定微小体积的单元,将提取的海水放置于高倍放大镜下进行计数。数出一定体积内海洋生物细胞的个数,就能计算出提取的海水中海洋生物的浓度。这种方法存在实时性差、从提取样品到计数所经历的时间较长、误差较大,提取海水尽管有代表性,但仍然无法代替多点实时测量的准确性,而且由人工计数,必然产生人为误差。随着计算机硬件的快速发展,基于深度学习的图像识别广泛运用在农业、工业、商业等各领域中。本设计是一种基于嵌入式FEFnet网络的自动检测图像和计数的方法,能有效解决人工计数劳力费时的问题,经济环保。
目标检测分为单接阶法和双阶法。单阶法包括YOLO系列算法和SSD系列算法。而双阶算法包括RCNN,Fast R-CNN到Faster R-CNN。RCNN首次将CNN引入目标检测,采用选择性搜索查找高概率的预测框,使用卷积层提取每个框的高维特征,由支持向量机确定目标类别。但每个框的重叠部分进行了反复计算,增加了计算量。Fast R-CNN对RCNN进行改进,使用不同的池化层(ROI)共享特征提取的计算,得到固定维度的特征。但Fast R-CNN采取SS进行特征提取,检测速度有待提升。为了进一步提高检测速度,Faster R-CNN提出了区域建议RPN。虽然RPN依赖的几百个预测框就能达到Fast R-CNN上千个预测框相同的效果,但对于低分辨率的小目标,Faster R-CNN的检测精度相比于Fast R-CNN有所下降。
尽管现在双阶算法具有较高的准确率,但对于背景干扰大、光照反差大、图像模糊的海洋生物小目标而言检测效果不佳。一方面,小目标由于在图片中占据像素点较少,分辨率低,其对应区域的像素所反映出的信息量是非常有限的。而在极端的情况下,小目标检测可以视为像素分类任务,这导致一些通用的目标检测算法难以适用于小目标检测;另一方面,在图片包含大量噪声及光照反差大的情况下,小目标和噪声容易形成干扰,光照能影响小目标的颜色纹理等特征,这给卷积网络学习有效特征带来巨大的挑战。
根据本发明方法及系统,进行类似海洋生物这样的小目标识别,其小目标识别的精度高、速度快、鲁棒性好、环保便捷。该小目标识别方法可用于复杂背景下的目标检测,具有较好的市场运用前景。
发明内容
本发明的目的是提供一种基于嵌入式FEFnet网络的图像自动检测计数方法及系统,利用图像预处理突出小目标特征,使用更好的特征提取网络和更优质的候选框来提高小目标检测的准确率,降低漏检率。
本发明基于一种基于嵌入式FEFnet网络的图像自动检测计数方法及系统,其特征包括以下步骤:
图像采集过程;
图像数据准备和预处理;
FEFnet网络模型训练过程;
图像自动识别过程。
其中图像数据采集过程,使用高清防水摄像机对海底不同深度进行拍摄,将拍摄到的图片进行回传,通过无线模块将图片传递给数据存储模块进行储存。
图像数据准备和预处理中,使用不同的图像预处理方法突出图像特征。具体步骤如下:
1)把图片分为亮图和暗图,计算图片的均值和方差,有RGB三个通道,把该通道数组转化为整数,对三通道去其平均值,通过比较平均值的均值方差范围把所有图片分为亮图暗图两类。
2)将所有图片变为二值图像;首先使用直方图均衡化算法使图片中间亮度级向外扩散,达到均衡亮度级,增强图片对比度;然后使用锐化算法加强目标的整体轮廓,目标边缘得到明显加强;最后使用中值滤波和均值迁移算法,对亮图使用中值滤波算法能消除图像中大量孤立的噪声点、对暗图使用均值迁移算法使图像暗色噪声和加强后的噪声出现明显分层,加大参数调节范围使目标外围出现白圈,增强局部特征。
3)对于数据集不够,使用数据增强中的裁剪得到更多的数据集。
4)对增强后的图片进行筛选,挑去具有代表性的图像图片,使用标注工具对图像进行专家标注,获得PASCAL_VOC格式的图像位置标注文件,将训练的图片及对应的标注文件放入网络模型的数据集中,至此图像数据准备和预处理步骤结束。
PASCAL_VOC数据集是目标识别领域中最经典的数据集之一,常用于目标检测、分类、分割等。该数据集包含200类可视对象,包含517000张图像和534000个注释对象,这里图片标注的格式采用PASCAL_VOC数据集相同的格式。
FEFnet网络模型训练过程,其具体实现步骤如下:
(1)特征提取网络
1)首先使用2个3*3的卷积核进行卷积操作,并使用Leaky ReLU函数进行激活,使用3*3的卷积核其扩张率为2的空洞卷积层代替池化层进行降维操作,得到第一张特征图。
2)在第一张特征图的基础上,使用2个3*3的卷积核进行卷积操作,并使用LeakyReLU函数进行激活,使用3*3的卷积核其扩张率为3的空洞卷积层代替池化层进行降维操作,得到第二张特征图。
3)在第二张特征图的基础上,使用3个3*3的卷积核进行卷积操作,并使用LeakyReLU函数进行激活,使用3*3的卷积核其扩张率为2的空洞卷积层代替池化层进行降维操作,得到第三张特征图。
4)在第三张特征图的基础上,使用3个3*3的卷积核进行卷积操作,并使用ReLU函数进行激活,使用3*3的卷积核其扩张率为3的空洞卷积层代替池化层进行降维操作,得到第四张特征图。
5)在第四张特征图的基础上,使用3个3*3的卷积核进行卷积操作,并使用ReLU函数进行激活,使用3*3的卷积核其扩张率为2的空洞卷积层代替池化层进行降维操作,得到第五张特征图。
6)将低层特征图feature map1,feature map3与高层特征图feature map5进行特征融合,为了防止网络过拟合,对该三层采用不同的正则化。由于要提升小目标的检测精度,在低层特征图上进行较小的正则化系数,在高层使用较大的正则化系数,其正则化系数比例关系为:λfeature_map1∶λfeature_map3∶λfeature_map5=1∶3∶6。
其中λfeature_map1表示特征图feature map1的正则化系数,其中λfeature_map3表示特征图feature map3的正则化系数,其中λfeature_map5表示特征图feature map5的正则化系数。
(2)多层感受野RPN网络提取优质的候选框
1)通过上述步骤得到了特征融合后的特征图,因不同尺度的目标可以使用不同大小的感受野,小目标占据的图片面积小需要采取不同的卷积核滑动生成候选框,这里使用1*1、3*3、5*5的滑动窗口。
2)在RPN阶段选择候选框使用anchor机制,anchor机制(预定义边框)就是一组预设的边框,在训练时,以真实的边框位置相对于预设边框的偏移来构建训练样本。这就相当于,预设边框先大致在可能的位置“框“出来目标,然后再在这些预设边框的基础上进行调整。使用边框的纵横比和边框的面积(尺度)来定义,相当于一系列预设边框的生成规则,根据anchor机制可以在图像的任意位置,生成一系列的边框。
但对于不同数据集而言,生成的锚框的尺寸大小不一样,选择合适的锚点框不仅能提高后期的模型训练速度,而且能提升检测的精度。使用基于k-means聚类算法选择合适的锚框,k-means聚类算法步骤如下:
1.首先初始化k个聚类中心,然后遍历每个样本点,根据每个样本点离聚类中心的位置将这些样本点分配给聚类中心,该过程称为簇分类;
2.然后计算当前簇所有样本点的均值,将聚类中心移至均值坐标处,该过程称为聚类中心移动;
3.最后重复迭代上述过程,直到聚类中心收敛到固定点。
3)通过使用不同的感受野和使用k-means聚类算法寻找合适的候选框,将这些框递给cls layer层和reg layer层,实现前景背景分类和候选位置框的回归。
4)使用soft-NMS算法降低重复候选框质量
在去除边界框后减少了候选框的数量,但剩下的还有许多重复框,使用NMS(nonmaximum suppression)算法(非极大抑制算法)能保留最佳框,消除冗余框,本质是搜索局部极大值,抑制非极大值元素,但当检测的同类目标出现重叠度超过指定阈值之后就会将低置信度的候选框删除,造成了目标的漏检。
由此使用soft-NMS算法(软化非极大抑制算法)来减少重叠框的数量,该算法的优势在于在当前置信度的基础上递归的重新评分,而不是直接抑制置信度低且重叠度较高的候选框。为了提高算法计算速度,将低于最高置信度3倍的候选框直接去掉。其算法的基本流程如下:
(a)按类别对标签分组,预测标签中所有的候选框
(b)对于每一类的所有候选框记住A,筛选后的候选框记作B,执行以下操作:
1.选出得分最高的的候选框,记作M,其置信度分数记作SM加入到B中
2.计算剩余置信度不低于SM3倍的候选框与M之前的重叠面积,若大于设定的抑制阈值Nt则舍弃,否则保留。
3.若步骤2中所有框为空,则返回步骤(b),否则继续执行步骤1。
(c)经过上述步骤,得到了所有类别的最唯一候选框。
其线性加权函数为:
其中,Nt为拟制阈值,Si为第i个预测框的iou分类得分,SM为当前候选框置信度最高分类得分,M为最大得分所对应的边界框。iou为预测边界框和真实边界框的重叠率,也就是预测边界框与真实边界框的交集比上他们的并集,其中A是预测边界框,B是真实边界框,其公式如下:
(3)RoI Align兴趣区域对齐模块
ROI(Region Of Interest)是从目标图像中识别出候选区域,将RPN(RegionProposal Network)产生的候选识别框映射到特征图上。其中ROI Pooling(感兴趣区域池化层)是把大小形状各异的候选识别区域归一化到固定尺寸。
RoI Align(Alignment Of Region Of Interest)层(兴趣区域对齐层)是一个引入双线性插值的池化过程,目的在于使离散的池化过程变成连续的过程,从而弥补感兴趣区域池化粗糙量化的问题,提高了定位候选框的准确性。
其算法的主要流程为:根据输入的图片,将ROI映射到特征融合的特征图对应的位置上;遍历每一个候选区域,对浮点数边界进行保留;将候选区域分割成N*N个单元,每个单元的浮点数边界进行保留;在每个单元划分为等距的固定四个坐标位置,使用双线性内插的方式计算四个位置的值,在这四个位置使用最大化池化保留该单元的一个位置值。由此得到固定维度的特征图。
(4)全连接层及输出
将每个ROI区域输入固定大小的特征图通过两个全连接层得到两个特征向量,一个特征向量用来判别类别,另一个特征向量用来回归最终唯一坐标框。
通过反复迭代更新权重,使得RPN阶段和最终预测阶段的损失尽量较小,使得模型收敛到达损失全局最优。通过上述步骤得到海洋生物小目标模型。
本发明还提供了一种基于嵌入式FEFnet网络的图像自动检测系统,其特征在于,该装置是一个嵌入式的图像自动识别及计数系统,它包括:
图像数据采集模块,用于对不同深度的海水进行水下拍摄生成图片;
数据存储模块,用于存储所拍摄的图片;
嵌入式微处理器,用于对数据存储模块的图片进行读取,将读取后的图片进行图像数据预处理,调用训练好的模型,把检测的坐标信息和分类的置信度收集起来,调用可视化函数把检测的结果画在测试图片上,并生成表格统计图片中的海洋生物总个数。将检测的结果传递无限通讯模块;
无限通讯模块,用于将数据存储模块存储的图片及检测结果数据远程传递给终端;
终端显示模块,用于远程显示所拍摄图片的检测到海藻及总个数。
技术方案:图像数据采集模块对不同深度的海水进行水下拍摄生成图片,并把所拍摄的所有图片传递给数据存储模块;数据存储模块对图片进行存储;嵌入式微处理器读取数据存储模块存储的图片,并进行图像数据预处理,调用训练好的模型,把检测的坐标信息和分类的置信度收集起来,调用可视化函数把检测的结果画在测试图片上,并生成表格统计图片中的海藻总个数,将检测的结果传递无限通讯模块;无限通讯模块将数据存储模块存储的图片及检测结果数据远程传递给终端;终端显示模块显示所拍摄图片的检测到海洋生物及总个数。
通过结附图,阅读合以下本发明实施方式的详细描述后,本发明的其他特征、特点和优点将会变得更加清楚。
附图说明
图1是一种基于嵌入式FEFnet网络的图像自动检测计数方法及系统整体结构流程图;
图2是图像数据准备与预处理流程图;
图3是图像预处理流程图;
图4是空洞卷积CNN提取融合特征图流程图;
图5是精准提取候选框的多层感受野RPN网络流程图;
图6是亮图的识别结果图;
图7是暗图的识别结果图;
具体实施方式
下面将结合附图对本发明的具体实施方式进行详细说明。
图1是根据本发明的一种基于嵌入式FEFnet网络的图像自动检测计数方法及系统整体结构流程图。
在步骤101,开始;
在步骤102,对不同深度的海水进行水下拍摄生成图片;
在步骤103,用于存储所拍摄的图片;
在步骤104,判断是否训练好模型,若有进入测试阶段,若无,进入训练阶段;
在步骤105,进入测试阶段,将未训练的图片送入图像预处理模块,突出目标在图像中的轮廓;
在步骤106,将图像预处理后的图片通过输出模型119调用其模型;
在步骤107,将图片送入FEFnet网络中进行前向传播;
在步骤108,把检测的坐标信息和分类的置信度收集起来,调用可视化函数把检测的结果画在测试图片上,并生成表格统计图片中的海洋生物总个数;
其中图像预处理105、调用模型106、卷积网络前向传播107、检测结果108构成了嵌入式微处理器120,用于对数据存储模块的图片进行读取并进行检测,将检测的结果传递无限通讯模块109;
在步骤109,用于将数据存储模块存储的图片及检测结果数据远程传递给终端;
在步骤110,用于远程显示所拍摄图片的检测到海洋生物及总个数;
在步骤111,进入训练阶段,读取部分的存储图片,对图片进行数据准备与预处理;
在步骤112,将图像数据准备与预处理的图片进行空洞卷积CNN提取特征;
在步骤113,得到其融合后的提征图;
在步骤114,将融合特征图送入多层感受野RPN网络提取更加精准的候选框;
在步骤115,将多层感受野RPN网络得到的特征图与特征融合得到的特征图进行参数共享;
在步骤116,将融合特征图一方面送入ROI Align兴趣区域对齐层,另一方面RPN网络提取更加精准的候选框送入ROI Align兴趣区域对齐层。
RoI Align兴趣区域对齐层是一个引入双线性插值的池化过程,目的在于使离散的池化过程变成连续的过程,从而弥补感兴趣区域池化粗糙量化的问题,提高了定位候选框的准确性。ROI Align兴趣区域对齐层基本原理为根据输入的图片,将ROI映射到特征融合的特征图对应的位置上;遍历每一个候选区域,对浮点数边界进行保留;将候选区域分割成N*N个单元,每个单元的浮点数边界进行保留;在每个单元划分为等距的固定四个坐标位置,使用双线性内插的方式计算四个位置的值,在这四个位置使用最大化池化保留该单元的一个位置值。由此得到固定维度的特征图。
在步骤117,将每个ROI区域输入固定大小的特征图通过两个全连接层得到两个特征向量;
在步骤118,经过全连接层后一个特征向量用来判别候选框的类别,经过全连接层后另一个特征向量用来回归最终唯一坐标框;
在步骤119,通过反复迭代更新权重,使得RPN阶段和最终预测阶段的损失尽量较小,使得模型收敛到达损失全局最优,得到海洋生物小目标模型;
在步骤120,结束。
本发明还提供了一种基于嵌入式FEFnet网络的图像自动检测系统。图像数据采集模块对不同深度的海水进行水下拍摄生成图片,并把所拍摄的所有图片传递给数据存储模块;数据存储模块对图片进行存储;将存储得到的图片一方面送入模型训练阶段,该阶段为一次性过程,下次无需训练直接调用模型即可,存储的图片另一方面送入系统测试阶段(测试图片不包含训练图片),嵌入式微处理器读取数据存储模块存储的图片进行图像数据预处理,调用训练好的模型,把检测的坐标信息和分类的置信度收集起来,调用可视化函数把检测的结果画在测试图片上,并生成表格统计图片中的海洋生物总个数,将检测的结果传递无限通讯模块;无限通讯模块将数据存储模块存储的图片及检测结果数据远程传递给终端;终端显示模块显示所拍摄图片的检测到海洋生物及总个数。
图2是图1的图像数据准备与预处理111的图像数据准备与预处理流程图。
在步骤201,开始;
在步骤202,把图片分为亮图和暗图,计算图片的均值和方差,有RGB三个通道,把该通道数组转化为整数,对三通道去其平均值,通过比较平均值的均值方差范围把所有图片分为亮图暗图两类;
在步骤203,将亮暗图像进行图像预处理,得到较清晰的目标轮廓;
在步骤204,对图像预处理后的图片进行亮图暗图合并;
在步骤205,对于数据集不够,使用数据增强中的裁剪得到更多的数据集;
在步骤206,对图片进行筛选,挑去具有代表性的海洋生物图片,使用标注工具对海洋生物进行专家标注,获得PASCAL_VOC格式的海洋生物位置标注文件,得到训练的图片及对应的标注文件;
在步骤207,结束。
图3是图1图像预处理105的图像预处理流程图。
在步骤301,开始;
在步骤302,将所有图像进行二值化,得到二值图像;
在步骤303,使用直方图均衡化算法使图片中间亮度级向外扩散,达到均衡亮度级,增强图片对比度;
在步骤304,使用锐化算法加强目标的整体轮廓,目标边缘得到明显加强;
在步骤305,判断输入图片是否为亮图;
在步骤306,若不是亮图,使用均值迁移算法使图像暗色噪声和加强后的噪声出现明显分层,加大参数调节范围使目标外围出现白圈,增强局部特征;
在步骤307,若是亮图,使用中值滤波算法能消除图像中大量孤立的噪声点;
在步骤308,结束。
图4是图1中空洞卷积112中的空洞卷积CNN提取融合特征图流程图。
在步骤401,开始;
在步骤402,使用2个3*3的卷积核进行卷积操作,并使用Leaky ReLU函数进行激活;
在步骤403,使用3*3的卷积核其扩张率为3的空洞卷积层代替池化层进行降维;
在步骤404,判断是否为特征融合提供特征图;
在步骤405,使用2个3*3的卷积核进行卷积操作,并使用Leaky ReLU函数进行激活;
在步骤406,使用3*3的卷积核其扩张率为3的空洞卷积层代替池化层进行降维;
在步骤407,使用3个3*3的卷积核进行卷积操作,并使用ReLU函数进行激活;
在步骤408,使用3*3的卷积核其扩张率为2的空洞卷积层代替池化层进行降维;
在步骤409,判断是否为特征融合提供特征图;
在步骤410,使用3个3*3的卷积核进行卷积操作,并使用ReLU函数进行激活;
在步骤411,使用3*3的卷积核其扩张率为3的空洞卷积层代替池化层进行降维;
在步骤412,使用3个3*3的卷积核进行卷积操作,并使用ReLU函数进行激活;
在步骤413,使用3*3的卷积核其扩张率为2的空洞卷积层代替池化层进行降维;
在步骤414,将低层特征图feature map1,feature map3与高层特征图featuremap5进行特征融合,为了防止网络过拟合,对该三层采用不同的正则化。由于要提升小目标的检测精度,在低层特征图上进行较小的正则化系数,在高层使用较大的正则化系数,其正则化系数比例关系为:λfeature_map1∶λfeature_map3∶λfeature_map5=1∶3∶6;
在步骤415,得到融合后的特征图;
在步骤416,将第三张特征图进行降维,并使用1*1卷积核改变通道数,使其融合的特征图与第五张特征图尺寸保持一致;
在步骤417,将第一张特征图进行降维,并使用1*1卷积核改变通道数,使其融合的特征图与第五张特征图尺寸保持一致;
在步骤418,结束。
图5是图1中多层感受野RPN网络114模块的精准提取候选框的多层感受野RPN网络流程图。
在步骤501,开始;
在步骤502,通过空洞卷积CNN得到特征融合后的特征图;
在步骤503,因不同尺度的目标可以使用不同大小的感受野,小目标占据的图片面积小需要采取不同的卷积核滑动生成候选框,使用1*1、3*3、5*5的滑动窗口对特征图进行滑动;
在步骤504,生成与原图一一对应的不同感受野;
在步骤505,使用基于k-means聚类算法选择合适的锚框,k-means聚类算法步骤如下:
(1)首先初始化k个聚类中心,然后遍历每个样本点,根据每个样本点离聚类中心的位置将这些样本点分配给聚类中心,该过程称为簇分类;
(2)然后计算当前簇所有样本点的均值,将聚类中心移至均值坐标处,该过程称为聚类中心移动;
(3)最后重复迭代上述过程,直到聚类中心收敛到固定点。
在步骤506,得到适应本数据集的不同比例的候选框;
在步骤507,分类回归层中,分类层用来判别候选框是前景还是背景,回归层去除掉许多重叠度较高且置信度低的候选框。
使用soft-NMS算法来减少重叠框的数量,该算法的优势在于在当前置信度的基础上递归的重新评分,而不是直接抑制置信度低且重叠度较高的候选框。
为了提高算法计算速度,将低于最高置信度3倍的候选框直接去掉。其算法的基本流程如下:
(a)按类别对标签分组,预测标签中所有的候选框
(b)对于每一类的所有候选框记住A,筛选后的候选框记作B,执行以下操作:
1.选出得分最高的的候选框,记作M,其置信度分数记作SM加入到B中
2.计算剩余置信度不低于SM3倍的候选框与M之前的重叠面积,若大于设定的抑制阈值Nt则舍弃,否则保留。
3.若步骤2中所有框为空,则返回步骤(b),否则继续执行步骤1。
(c)经过上述步骤,得到了所有类别的最唯一候选框。
其线性加权函数为:
其中,Nt为拟制阀值,Si为第i个预测框的iou分类得分,SM为当前候选框置信度最高分类得分,M为最大得分所对应的边界框。iou为预测边界框和真实边界框的重叠率,也就是预测边界框与真实边界框的交集比上他们的并集,其中A是预测边界框,B是真实边界框,其公式如下:
在步骤508,结束。
图6是亮图的识别结果图;
图7是暗图的识别结果图;
一种基于嵌入式FEFnet网络的图像自动检测计数方法及系统能有效的进行类似海洋生物的小目标识别,其小目标识别的精度高、速度快、鲁棒性好、环保便捷。该小目标识别方法可用于复杂背景下的目标检测,同时具有通用目标检测的能力。随着计算机视觉在日常生活运用、科研、商业的发展,该系统在目标检测领域将具有较好的市场运用前景。
Claims (5)
1.一种基于嵌入式FEFnet网络的图像自动检测计数方法,其特征在于,包括以下步骤:
(1)读取部分的存储图片,对图片进行数据准备与预处理;
(2)将图像数据准备与预处理的图片进行空洞卷积CNN提取特征;
(3)得到其融合后的提征图;
(4)将融合特征图送入多层感受野RPN网络提取更加精准的候选框;
RPN(RegionProposal Network)区域生成网络,将一个任意尺度的特征图作为输入,经过滑动窗口滑动,输出一系列的前景矩形框位置信息及每个矩形框的置信分数。
(5)将融合特征图一方面送入ROI Align层,另一方面RPN网络提取更加精准的候选框送入ROI Align层;
RoI Align层(兴趣区域对齐层)是一个引入双线性插值的池化过程,目的在于使离散的池化过程变成连续的过程,从而弥补感兴趣区域池化粗糙量化的问题,提高了定位候选框的准确性。
(6)将每个RoI Align区域输入固定大小的特征图通过两个全连接层得到两个特征向量;
(7)经过全连接层后一个特征向量用来判别候选框的类别;
(8)经过全连接层后另一个特征向量用来回归最终唯一坐标框;
(9)通过反复迭代更新权重,使得RPN阶段和最终预测阶段的损失尽量较小,使得模型收敛到达损失全局最优,得到海藻小目标模型。
2.根据权利要求1所述一种基于嵌入式FEFnet网络的图像自动检测计数方法,其特征在于,图像数据准备与预处理是通过执行以下步骤实现:
(1)把图片分为亮图和暗图,计算图片的均值和方差,有RGB三个通道,把该通道数组转化为整数,对三通道去其平均值,通过比较平均值的均值方差范围把所有图片分为亮图暗图两类;
(2)将亮暗图像进行图像预处理,得到较清晰的目标轮廓;
(3)对图像预处理后的图片进行亮图暗图合并;
(4)对于数据集不够,使用数据增强中的裁剪得到更多的数据集;
(5)对图片进行筛选,挑去具有代表性的图像图片,使用标注工具对图像进行专家标注,获得PASCAL_VOC格式的图像位置标注文件,得到训练的图片及对应的标注文件。
3.根据权利要求1所述一种基于嵌入式FEFnet网络的图像自动检测计数方法,其特征在于,图像预处理是通过执行以下步骤实现:
(1)将所有图像进行二值化;
(2)使用直方图均衡化算法使图片中间亮度级向外扩散,达到均衡亮度级,增强图片对比度;
(3)使用锐化算法加强目标的整体轮廓,目标边缘得到明显加强;
(4)对亮图使用中值滤波算法能消除图像中大量孤立的噪声点;
(5)对暗图使用均值迁移算法使图像暗色噪声和加强后的噪声出现明显分层,加大参数调节范围使目标外围出现白圈,增强局部特征。
4.根据权利要求1所述一种基于嵌入式FEFnet网络的图像自动检测计数方法,其特征在于,空洞卷积CNN提取融合特征图是通过执行以下步骤实现:
(1)使用2个3*3的卷积核进行卷积操作,并使用Leaky ReLU函数进行激活;
(2)使用3*3的卷积核其扩张率为2的空洞卷积层代替池化层进行降维;
(3)使用2个3*3的卷积核进行卷积操作,并使用Leaky ReLU函数进行激活;
(4)使用3*3的卷积核其扩张率为3的空洞卷积层代替池化层进行降维;
(5)使用3个3*3的卷积核进行卷积操作,并使用ReLU函数进行激活;
(6)使用3*3的卷积核其扩张率为2的空洞卷积层代替池化层进行降维;
(7)使用3个3*3的卷积核进行卷积操作,并使用ReLU函数进行激活;
(8)使用3*3的卷积核其扩张率为3的空洞卷积层代替池化层进行降维;
(9)使用3个3*3的卷积核进行卷积操作,并使用ReLU函数进行激活;
(10)使用3*3的卷积核其扩张率为2的空洞卷积层代替池化层进行降维;
(11)将第一张特征图和第三张特征图进行降维,使其融合的特征图与第五张特征图尺寸保持一致;
(12)将低层特征图feature mapl,feature map3与高层特征图feature map5进行特征融合,为了防止网络过拟合,对该三层采用不同的正则化。由于要提升目标的检测精度,在低层特征图上进行较小的正则化系数,在高层使用较大的正则化系数,其正则化系数比例关系为:λfeature_map1∶λfeature_map3∶λfeature_map5=1∶3∶6。
5.根据权利要求1所述一种基于嵌入式FEFnet网络的图像自动检测计数方法,其特征在于,多层感受野RPN网络提取精准提取候选框是通过执行以下步骤实现:
(1)使用1*1、3*3、5*5的滑动窗口对特征图进行滑动;
(2)生成与原图一一对应的不同感受野;
(3)使用基于k-means聚类算法选择合适的锚框;
(4)得到适应本数据集的不同比例的候选框;
(5)分类层用来判别候选框是前景还是背景;
(6)回归层去除掉许多重叠度较高且置信度低的候选框。使用soft-NMS算法来减少重叠框的数量,该算法对当前置信度的基础上递归的重新评分,而不是直接抑制置信度低且重叠度较高的候选框。
为了提高算法计算速度,将低于最高置信度3倍的候选框直接去掉。其算法的基本流程如下:
(a)按类别对标签分组,预测标签中所有的候选框
(b)对于每一类的所有候选框记住A,筛选后的候选框记作B,执行以下操作:
1)选出得分最高的的候选框,记作M,其置信度分数记作SM加入到B中
2)计算剩余置信度不低于SM3倍的候选框与M之前的重叠面积,若大于设定的抑制阈值Nt则舍弃,否则保留。
3)若步骤2)中所有框为空,则返回步骤(b),否则继续执行步骤1)。
(c)经过上述步骤,得到了所有类别的最唯一候选框。
其线性加权函数为:
其中,Nt为拟制阈值,Si为第i个预测框的iou分类得分,SM为当前候选框置信度最高分类得分,M为最大得分所对应的边界框。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010404904.6A CN111626993A (zh) | 2020-05-07 | 2020-05-07 | 一种基于嵌入式FEFnet网络的图像自动检测计数方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010404904.6A CN111626993A (zh) | 2020-05-07 | 2020-05-07 | 一种基于嵌入式FEFnet网络的图像自动检测计数方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111626993A true CN111626993A (zh) | 2020-09-04 |
Family
ID=72271029
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010404904.6A Pending CN111626993A (zh) | 2020-05-07 | 2020-05-07 | 一种基于嵌入式FEFnet网络的图像自动检测计数方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111626993A (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112036397A (zh) * | 2020-09-29 | 2020-12-04 | 上海海事大学 | 一种基于深度学习的嵌入式黄瓜叶片图像识别装置 |
CN112232263A (zh) * | 2020-10-28 | 2021-01-15 | 中国计量大学 | 一种基于深度学习的番茄识别方法 |
CN112256906A (zh) * | 2020-10-23 | 2021-01-22 | 安徽启新明智科技有限公司 | 在显示屏上标记批注的方法、装置和存储介质 |
CN112348776A (zh) * | 2020-10-16 | 2021-02-09 | 上海布眼人工智能科技有限公司 | 基于EfficientDet的织物瑕疵检测方法 |
CN112597915A (zh) * | 2020-12-26 | 2021-04-02 | 上海有个机器人有限公司 | 对室内近距离行人进行识别的方法、装置、介质和机器人 |
CN112818840A (zh) * | 2021-01-29 | 2021-05-18 | 中国科学院微小卫星创新研究院 | 无人机在线检测系统和方法 |
CN112881632A (zh) * | 2021-01-20 | 2021-06-01 | 深圳市水文水质中心 | 一种水样中藻类计数方法及装置 |
CN112926383A (zh) * | 2021-01-08 | 2021-06-08 | 浙江大学 | 一种基于水下激光图像的目标自动识别系统 |
CN113177133A (zh) * | 2021-04-23 | 2021-07-27 | 深圳依时货拉拉科技有限公司 | 一种图像检索方法、装置、设备及存储介质 |
CN113688706A (zh) * | 2021-08-16 | 2021-11-23 | 南京信息工程大学 | 一种车辆检测方法、装置、设备及存储介质 |
CN114581348A (zh) * | 2022-02-16 | 2022-06-03 | 三峡大学 | 一种基于植物群落行为的图像融合方法 |
CN117710756A (zh) * | 2024-02-04 | 2024-03-15 | 成都数之联科技股份有限公司 | 一种目标检测及模型训练方法、装置、设备、介质 |
JP7474546B2 (ja) | 2020-11-17 | 2024-04-25 | メディリティ インク | イメージ分析サーバー、イメージ分析サーバーを用いたオブジェクトカウント方法、及びオブジェクトカウントシステム |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102957919A (zh) * | 2012-11-14 | 2013-03-06 | 四川长虹电器股份有限公司 | 一种数字图像亮度增强方法 |
CN105005973A (zh) * | 2015-06-30 | 2015-10-28 | 广东欧珀移动通信有限公司 | 一种图像快速去噪的方法及装置 |
CN105868689A (zh) * | 2016-02-16 | 2016-08-17 | 杭州景联文科技有限公司 | 一种基于级联卷积神经网络的人脸遮挡检测方法 |
CN108805873A (zh) * | 2017-04-28 | 2018-11-13 | 南宁富桂精密工业有限公司 | 图像处理方法及装置 |
CN109145854A (zh) * | 2018-08-31 | 2019-01-04 | 东南大学 | 一种基于级联卷积神经网络结构的人脸检测方法 |
CN109658387A (zh) * | 2018-11-27 | 2019-04-19 | 北京交通大学 | 电力列车的受电弓碳滑板缺陷的检测方法 |
-
2020
- 2020-05-07 CN CN202010404904.6A patent/CN111626993A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102957919A (zh) * | 2012-11-14 | 2013-03-06 | 四川长虹电器股份有限公司 | 一种数字图像亮度增强方法 |
CN105005973A (zh) * | 2015-06-30 | 2015-10-28 | 广东欧珀移动通信有限公司 | 一种图像快速去噪的方法及装置 |
CN105868689A (zh) * | 2016-02-16 | 2016-08-17 | 杭州景联文科技有限公司 | 一种基于级联卷积神经网络的人脸遮挡检测方法 |
CN108805873A (zh) * | 2017-04-28 | 2018-11-13 | 南宁富桂精密工业有限公司 | 图像处理方法及装置 |
CN109145854A (zh) * | 2018-08-31 | 2019-01-04 | 东南大学 | 一种基于级联卷积神经网络结构的人脸检测方法 |
CN109658387A (zh) * | 2018-11-27 | 2019-04-19 | 北京交通大学 | 电力列车的受电弓碳滑板缺陷的检测方法 |
Non-Patent Citations (3)
Title |
---|
YANG ZHANG等: "Deep Learning-Based Object Detection Improvement for Tomato Disease" * |
王凯等: "基于改进Faster R-CNN 图像小目标检测" * |
赵春晖等: "基于改进Faster R-CNN算法的舰船目标检测与识别" * |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112036397A (zh) * | 2020-09-29 | 2020-12-04 | 上海海事大学 | 一种基于深度学习的嵌入式黄瓜叶片图像识别装置 |
CN112036397B (zh) * | 2020-09-29 | 2024-05-31 | 上海海事大学 | 一种基于深度学习的嵌入式黄瓜叶片图像识别装置 |
CN112348776A (zh) * | 2020-10-16 | 2021-02-09 | 上海布眼人工智能科技有限公司 | 基于EfficientDet的织物瑕疵检测方法 |
CN112256906A (zh) * | 2020-10-23 | 2021-01-22 | 安徽启新明智科技有限公司 | 在显示屏上标记批注的方法、装置和存储介质 |
CN112232263B (zh) * | 2020-10-28 | 2024-03-19 | 中国计量大学 | 一种基于深度学习的番茄识别方法 |
CN112232263A (zh) * | 2020-10-28 | 2021-01-15 | 中国计量大学 | 一种基于深度学习的番茄识别方法 |
JP7474546B2 (ja) | 2020-11-17 | 2024-04-25 | メディリティ インク | イメージ分析サーバー、イメージ分析サーバーを用いたオブジェクトカウント方法、及びオブジェクトカウントシステム |
CN112597915A (zh) * | 2020-12-26 | 2021-04-02 | 上海有个机器人有限公司 | 对室内近距离行人进行识别的方法、装置、介质和机器人 |
CN112597915B (zh) * | 2020-12-26 | 2024-04-09 | 上海有个机器人有限公司 | 对室内近距离行人进行识别的方法、装置、介质和机器人 |
CN112926383A (zh) * | 2021-01-08 | 2021-06-08 | 浙江大学 | 一种基于水下激光图像的目标自动识别系统 |
CN112881632A (zh) * | 2021-01-20 | 2021-06-01 | 深圳市水文水质中心 | 一种水样中藻类计数方法及装置 |
CN112818840A (zh) * | 2021-01-29 | 2021-05-18 | 中国科学院微小卫星创新研究院 | 无人机在线检测系统和方法 |
CN113177133B (zh) * | 2021-04-23 | 2024-03-29 | 深圳依时货拉拉科技有限公司 | 一种图像检索方法、装置、设备及存储介质 |
CN113177133A (zh) * | 2021-04-23 | 2021-07-27 | 深圳依时货拉拉科技有限公司 | 一种图像检索方法、装置、设备及存储介质 |
CN113688706B (zh) * | 2021-08-16 | 2023-12-05 | 南京信息工程大学 | 一种车辆检测方法、装置、设备及存储介质 |
CN113688706A (zh) * | 2021-08-16 | 2021-11-23 | 南京信息工程大学 | 一种车辆检测方法、装置、设备及存储介质 |
CN114581348A (zh) * | 2022-02-16 | 2022-06-03 | 三峡大学 | 一种基于植物群落行为的图像融合方法 |
CN114581348B (zh) * | 2022-02-16 | 2024-04-30 | 三峡大学 | 一种基于植物群落行为的图像融合方法 |
CN117710756A (zh) * | 2024-02-04 | 2024-03-15 | 成都数之联科技股份有限公司 | 一种目标检测及模型训练方法、装置、设备、介质 |
CN117710756B (zh) * | 2024-02-04 | 2024-04-26 | 成都数之联科技股份有限公司 | 一种目标检测及模型训练方法、装置、设备、介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111626993A (zh) | 一种基于嵌入式FEFnet网络的图像自动检测计数方法及系统 | |
CN111553929B (zh) | 基于融合网络的手机屏幕缺陷分割方法、装置及设备 | |
CN112966684B (zh) | 一种注意力机制下的协同学习文字识别方法 | |
CN109766830B (zh) | 一种基于人工智能图像处理的舰船目标识别系统及方法 | |
CN111652321A (zh) | 一种基于改进yolov3算法的海上船舶检测方法 | |
CN112150493B (zh) | 一种基于语义指导的自然场景下屏幕区域检测方法 | |
CN110059586B (zh) | 一种基于空洞残差注意力结构的虹膜定位分割系统 | |
CN109376591B (zh) | 深度学习特征与视觉特征联合训练的船只目标检测方法 | |
CN111680706A (zh) | 一种基于编码和解码结构的双通道输出轮廓检测方法 | |
CN111310622A (zh) | 一种面向水下机器人智能作业的鱼群目标识别方法 | |
CN110853070A (zh) | 基于显著性与Grabcut的水下海参图像分割方法 | |
CN115393734A (zh) | 基于Faster R-CNN与CV模型联合方法的SAR图像舰船轮廓提取方法 | |
CN112200163B (zh) | 水下底栖生物检测方法及系统 | |
CN110633727A (zh) | 基于选择性搜索的深度神经网络舰船目标细粒度识别方法 | |
CN114842238A (zh) | 一种嵌入式乳腺超声影像的识别方法 | |
CN116665095B (zh) | 一种运动舰船检测方法、系统、存储介质和电子设备 | |
CN113052215A (zh) | 基于神经网络可视化的声呐图像自动目标识别方法 | |
CN114648806A (zh) | 一种多机制自适应的眼底图像分割方法 | |
CN110458019B (zh) | 稀缺认知样本条件下的排除倒影干扰的水面目标检测方法 | |
CN116740528A (zh) | 一种基于阴影特征的侧扫声呐图像目标检测方法及系统 | |
CN115439738A (zh) | 一种基于自监督协同重构的水下目标检测方法 | |
CN118172283A (zh) | 基于改进gUNet模型的海上目标图像去雾方法 | |
CN117495718A (zh) | 一种多尺度自适应的遥感图像去雾方法 | |
CN115830514B (zh) | 一种适用于带弯曲河道的全河段表面流速计算方法及系统 | |
CN114037737B (zh) | 一种基于神经网络的近岸海底鱼类检测及跟踪统计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20200904 |