CN112308002B - 一种基于单阶段深度学习网络的海底生物识别和检测方法 - Google Patents

一种基于单阶段深度学习网络的海底生物识别和检测方法 Download PDF

Info

Publication number
CN112308002B
CN112308002B CN202011232605.5A CN202011232605A CN112308002B CN 112308002 B CN112308002 B CN 112308002B CN 202011232605 A CN202011232605 A CN 202011232605A CN 112308002 B CN112308002 B CN 112308002B
Authority
CN
China
Prior art keywords
representing
box
submarine
truth
giou
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011232605.5A
Other languages
English (en)
Other versions
CN112308002A (zh
Inventor
王宁
陈廷凯
王荣峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dalian Maritime University
Original Assignee
Dalian Maritime University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dalian Maritime University filed Critical Dalian Maritime University
Priority to CN202011232605.5A priority Critical patent/CN112308002B/zh
Publication of CN112308002A publication Critical patent/CN112308002A/zh
Application granted granted Critical
Publication of CN112308002B publication Critical patent/CN112308002B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于单阶段深度学习网络的海底生物识别和检测方法,包含以下的步骤:基于卷积神经网络的海底生物特征提取;采用GIoU策略计算真值框和预测框的回归误差;基于K‑means算法的维度聚类。本发明利用基于卷积神经网络方法实现海底生物有效特征的提取,有效抑制背景噪声对于海底生物的干扰,同时突显海底生物的特征,有利于提高海底生物检测和识别的精度。本发明借助GIoU的方法,预测框和真值框之间的回归误差可以被精确的计算,从而整个检测系统的卷积权重可以被充分优化。本发明借助于K‑means聚类算法,获取海底生物外形尺寸的先验信息能够更加贴合海底生物的实际特性,有效降低海底生物的误检率。

Description

一种基于单阶段深度学习网络的海底生物识别和检测方法
技术领域
本发明属于水下智能捕捞机器人领域,尤其涉及一种基于单阶段深度学习网络的海底生物精准识别和检测方法。
背景技术
海底生物,特别是海参,具有极高的食用和药用价值。海参通常生活在远离岸边的深海环境中,传统捕捞海参的方法主要依靠大量的人力下潜至海底手动捕捞或者借助远程遥控机器人在岸边实施遥控抓取。上述捕捞海底生物的方法不可避免的存在风险性高、捕捞效率低下和作业时间短等缺陷。
随着人工智能的飞速发展,智能自主捕捞机器人技术得以快速的推动和发展。水下捕捞机器人能够捕捞成功的关键技术为高精度的检测和识别感兴趣的海底生物,包括海参、海胆和扇贝。需要指出的是,高精度检测和识别海底生物属于目标识别领域。实现高精度检测和识别海底生物的前提是针对海底生物能够获取丰富的语义信息和有效特征。在这种情况下,海底生物特征的提取可以分为机器学习和深度学习两种方法。传统已有的机器学习方法主要包括:方向梯度直方图Histogram of Oriented Gradient(HOG)、尺度不变特征变换Scale-invariant feature transform(SIFT)和加速鲁棒特征Speeded Up RobustFeatures(SURF)等,上述的机器算法仅能提取包括边缘、纹理、颜色等浅层的特征信息。当海底生物的颜色与海底背景一致的时候,基于机器学习的方法难以提取有效的特征。在这种情况下,不可避免的导致检测和识别的效果差、精度低。随着计算机硬件资源的加速和计算能力的增强,基于卷积神经网络convolution neural network(CNN)算法被广泛地提出,典型的算法包括Fast RCNN、Faster RCNN、You Only Look Once(YOLO)和Single ShotDetector(SSD)等,上述基于深度学习算法能够充分地利用卷积神经网络强大的特征提取和拟合能力,实现高精度的检测和识别海底生物。
基于前述深度学习的方法,复杂海底环境下的海底生物检测和识别主要存在如下的缺陷:(1)未知的、复杂的和时变的海洋环境极大的影响海底生物特征的提取,已有的方法没有考虑到所提取的特征对于海底生物检测结果的影响,导致后续的检测和识别的精度降低;(2)没有考虑到所使用的回归损失函数对于海底生物检测和识别结果的影响,导致不能精确计算预测框和真值框的回归误差;(3)最后,已有的方法没有考虑到海底生物形状层面的先验知识对于识别和检测的影响,导致基于深度学习的海底生物检测误检率较高。
发明内容
为解决现有技术存在的上述问题,本发明要设计一种后续检测和识别的精度高、能准确衡量预测框和真值框之间回归误差、有效降低海底生物误检率的基于单阶段深度学习网络的海底生物识别和检测方法。
为了实现上述目的,本发明的技术方案如下:
考虑到复杂多变的海底水下环境,特别是不均匀光照、能见度低、浊化现象严重以及对比度不均衡等情况,上述恶劣的海底环境导致利用传统的机器学习方法对海底生物检测识别效果差。本发明充分利用卷积神经网络强大的特征提取能力,首先对海底生物的特征进行提取,以此来提高海底生物检测的精度;进而,考虑当预测框和真值框不存在交集的时候,已有的回归损失函数难以直接有效的计算回归误差,本发明提出采用基于通用交并比Generalized Intersection overUnion(GIoU)的方法,以此来高精度的计算回归误差;最后,考虑到海底生物特殊的外形尺寸,本发明利用K-means聚类策略来学习海底生物特殊形状的先验知识,以此来降低海底生物的误检率。
一种基于单阶段深度学习网络的海底生物识别和检测方法,包含以下的步骤:
A、基于卷积神经网络的海底生物特征提取
基于卷积神经网络设计的特征提取网络包括53层卷积层和23层残差层,具体方法如下:
A1、读入分辨率为448×448×3大小的彩色图片,经过卷积正则激活模块即CBL,依次经过Res_1、Res_2、Res_8、Res_8、Res_4、5个CBL模块、1个卷积模块CBL Convolution即CC,得到宽度、高度以及通道数量分别是14、14和27的特征图,记作H-CNN-14;
A2、将步骤A1中CC输出的特征图利用上采样模块CBL UpSample即CU与A1步骤中第2个Res_8的输出相拼接,然后经过5个CBL模块、一个CC模块,得到宽度、高度以及通道数量分别是28、28和27的特征图,记作H-CNN-28;
A3、将步骤A2中CC输出的特征图利用CU与A1步骤中第1个Res_8的输出相拼接,然后经过5个CBL模块、1个CC模块,得到宽度、高度以及通道数量分别是56、56和27的特征图,记作H-CNN-56;
A4、分别利用步骤A1、A2和A3中得到的三个特征图H-CNN-14、H-CNN-28、H-CNN-56预测大尺度、中尺度和小尺度的海底生物。
B、采用GIoU策略计算真值框和预测框的回归误差
首先,利用在IOU的基础上GIoU策略计算预测框和真值框的DIOU距离,其中IOU代表交并比,表示真值框与预测框之间的交集与并集的比值;而GIOU代表通用交并比,表示一种具有更强泛化性能的预测框和真值框的距离衡量方法。
Figure BDA0002765698720000031
其中Pb=(xptl,yptl,xpdr,ypdr),(xptl,yptl)和(xpdr,ypdr)分别表示预测框的左上角和右下角坐标。Tb=(xttl,yttl,xtdr,ytdr),(xttl,yttl)和(xtdr,ytdr)分别表示真值框的左上角和右下角坐标。符号“∩”和“∪”分别表示交集和并集操作。从公式(1)中看出,DIOU的取值区间为[0,1],
其次,真值框和预测框的DGIOU距离通过下式计算:
Figure BDA0002765698720000032
其中C表示能够同时包含预测框和真值框的最小包围框,符号“\”表示前面的集合减去后面的集合。从公式(2)中得出,DGIoU的取值区间为(-1,1]。
最后,回归误差表示为:
Rloss=1-DGIoU (3)
从公式(3)中得到Rloss的取值范围为[0,2);
回归误差的具体计算步骤如下:
B1、计算交集的宽度wI
wI=min(xpdr,xtdr)-max(xptl,xttl)
其中xpdr代表预测框右下角横坐标;xtdr代表真值框的右下角横坐标;xptl代表预测框左上角横坐标;xttl代表真值框左上角横坐标;min操作代表两者中取小值;max操作代表两者中取大值;wI代表交集的宽度;
B2、计算交集的高度hI
hI=min(ypdr,ytdr)-max(yptl,yttl)
其中ypdr代表预测框右下角纵坐标;ytdr代表真值框的右下角纵坐标;yptl代表预测框左上角纵坐标;yttl代表真值框左上角纵坐标;hI代表交集的高度;
B3、计算预测框PBB的面积aP
aP=(xpdr-xptl)(ypdr-yptl)
其中aP代表预测框PBB的面积大小;
B4、计算真值框GTB的面积aT
aT=(xtdr-xttl)(ytdr-yttl)
其中aT代表真值框GTB的面积大小;
B5、计算最小包围框的宽度ws
ws=max(xtdr,xpdr)-min(xttl,xptl)
其中ws代表最小包围框的宽度;
B6、计算最小闭合矩形的高度hs
hs=max(ytdr,ypdr)-min(yttl,yptl)
其中hs代表最小包围框的高度;
B7、计算DIOU距离和DGIOU距离
如果wI>0&hI>0
Figure BDA0002765698720000041
其中DIOU代表以IOU为衡量方式的距离;
Figure BDA0002765698720000042
其中DGIoU代表以GIoU为衡量方式的距离;
否则:
DIOU=0
Figure BDA0002765698720000051
B8、求取回归误差:
Rloss=1-DGIoU
C、基于K-means算法的维度聚类
C1、建立优化目标
Figure BDA0002765698720000052
其中dIOU代表样本xi和聚类中心
Figure BDA0002765698720000053
的IOU距离,nc、m和Sj分别代表所要聚类的类别数量、第m次迭代以及第j类样本集合的中心;其中,/>
Figure BDA0002765698720000054
表示不同类别的聚类中心,c代表用宽度和高度来描述的先验框(wAB,hAB);
C2、基于IOU的距离衡量方法,计算样本xi和聚类中心
Figure BDA0002765698720000055
的距离:
Figure BDA0002765698720000056
C3、根据公式(5),求出最小的距离;根据最小距离将样本xi分配到集合Sj
Sj=Sj∪{xi|dij dip} (6)
其中p表示除了第j类外剩余的其他类别索引;
C4、重新计算新的聚类中心:
Figure BDA0002765698720000057
其中nj代表第jth类的所包含样本的数量;
C5、比较第m次和第m+1次聚类结果是否相等;如果前后两次聚类结果不相等,则转步骤C2,直到满足下式:
Figure BDA0002765698720000058
其中δ=0.0001—0.001,max代表求取最大值操作。
与现有技术相比,本发明具有以下有益效果:
1.复杂的海底环境通常存在光线不均匀、浑浊度大和对比度不均衡,因此不可避免地导致海底生物的特征提取困难。需要注意的是,有效特征的提取能够极大影响后续的检测和识别精度。基于此,本发明设计了基于卷积神经网络的主干特征提取网络BackboneConvolutional Neural Network(B-CNN)和基于卷积神经网络的检测网络HeadConvolutional Neural Network(H-CNN)。本发明利用基于卷积神经网络方法实现海底生物有效特征的提取,有效抑制背景噪声对于海底生物的干扰,同时突显海底生物的特征,有利于提高海底生物检测和识别的精度。
2、实现高精度的海底生物检测不断计算预测框Predicted Bounding Box(PBB)与真值框Ground Truth Box(GTB)之间的回归误差。当真值框和预测框不存在交集的时候,已有的基于交并比Intersection Over Unit(IOU)的策略难以有效地衡量回归误差大小。基于此,本发明借助GIoU的方法,预测框和真值框之间的回归误差可以被精确的计算,从而整个检测系统的卷积权重可以被充分优化。
3、基于卷积神经网络的海底生物检测中,可以充分利用海底生物外形尺寸的先验信息,能够使卷积神经网络的训练误差更快收敛。进而,能够实现海底生物高精度的检测和识别。基于此,本发明借助于K-means聚类算法,完成海底生物形状尺寸的聚类。相比于常见的先验框,利用K-means聚类算法获取海底生物外形尺寸的先验信息能够更加贴合海底生物的实际特性,有效降低海底生物的误检率。
附图说明
图1是基于深度学习的检测网络框架。
图2是海底生物训练集的平均IOU性能。
图3是海底生物训练集的维度聚类结果。
图4是真值框。
图5是Faster RCNN算法的水下真实场景检测结果。
图6是YOLOv2算法的水下真实场景检测结果。
图7是YOLOv3算法的水下真实场景检测结果。
图8是本发明所提出的算法对水下真实场景检测结果。
具体实施方式
下面结合附图对本发明进行进一步地描述。图1所示是基于深度学习的检测网络框架。平均IOU可以用作维度聚类的性能指标。如图2所示,随着聚类数量的增加,平均IOU亦逐渐增加。当聚类数量大于9的时候,平均IOU增加十分缓慢。考虑到检测的准确性和模型的复杂性,最终选定nc=9。当nc=9的时候,平均IOU能够达到79.31%,最终的聚类结果如图3所示,其中聚类中心用五星符号进行表示。
在表1中,先验框分别用宽和高的形式进行表示。从表1中可以看出,H-CNN-14、H-CNN-28和H-CNN-56分别结合感受野为大、中、小的先验框可以分别用来检测大尺度(物体所占面积大于962像素)、中尺度(物体所占面积大于322像素并且小于962像素)和小尺度(物体所占面积小于322像素)的海底生物。
表1不同感受野下的先验框
名称 感受野 先验框
H-CNN-14 13×19,23×41,19×29
H-CNN-28 29×34,31×50,37×68
H-CNN-56 47×48,52×82,76×115
为了充分说明本发明所提出算法的有效性和优越性,将本发明所提出的算法与典型的目标检测算法进行对比,包括Faster RCNN、YOLOv2和YOLOv3。
平均准确率average precision(AP)、类别平均准确率mean average precision(mAP)和检测速度Frames Per Second(FPS)作为量化评价指标。比较结果如表2所示,从表中我们可以看出,本发明所提出的算法能够分别在608×608和320×320实现最高的准确率和最快的检测速度。除此之外,本发明所提出的算法能够与YOLOv3算法实现相同的检测速度。缺少高层次语义特征信息的YOLOv2算法很难实现与本发明所提出的算法实现相同的准确率。最后,借助于ResNet-101网络,Faster RCNN算法可以实现比YOLOv2和YOLOv3更高的精度,但是Faster RCNN算法很难达到实时的效果。
表2评价指标
Figure BDA0002765698720000081
除此之外,用上述方法来检测真实海底,结果如图4-8所示,其中包括光线暗(第一行)、光线亮(第二行)、运动模糊(第三行)以及多目标(第四行)的四种典型的真实水下环境被用于比较。。从图4-8的第1行和第2行可以看出,在光线暗和光线亮的情况下,本发明所提出的检测算法远远超过其他算法。需要注意的是,如图4-8的第3行,在运动模糊的情况下,尽管所有的海底生物都能被检测出来,但是本发明算法具有更高的置信度得分,从而能够实现更高的检测精度。如图4-8的第4行,在多目标检测情况下,Faster RCNN算法能够实现与本发明所提出的算法相一致的检测精度。究其原因,Faster RCNN算法能够借助区域推荐网络Region Proposal Network(RPN)实现感兴趣区域的推荐。
本发明不局限于本实施例,任何在本发明披露的技术范围内的等同构思或者改变,均列为本发明的保护范围。

Claims (1)

1.一种基于单阶段深度学习网络的海底生物识别和检测方法,其特征在于:包含以下的步骤:
A、基于卷积神经网络的海底生物特征提取
基于卷积神经网络设计的特征提取网络包括53层卷积层和23层残差层,具体方法如下:
A1、读入分辨率为448×448×3大小的彩色图片,经过卷积正则激活模块即CBL,依次经过Res_1、Res_2、Res_8、Res_8、Res_4、5个CBL模块、1个卷积模块CBL Convolution即CC,得到宽度、高度以及通道数量分别是14、14和27的特征图,记作H-CNN-14;
A2、将步骤A1中CC输出的特征图利用上采样模块CBLUpSample即CU与A1步骤中第2个Res_8的输出相拼接,然后经过5个CBL模块、一个CC模块,得到宽度、高度以及通道数量分别是28、28和27的特征图,记作H-CNN-28;
A3、将步骤A2中CC输出的特征图利用CU与A1步骤中第1个Res_8的输出相拼接,然后经过5个CBL模块、1个CC模块,得到宽度、高度以及通道数量分别是56、56和27的特征图,记作H-CNN-56;
A4、分别利用步骤A1、A2和A3中得到的三个特征图H-CNN-14、H-CNN-28、H-CNN-56预测大尺度、中尺度和小尺度的海底生物;
B、采用GIoU策略计算真值框和预测框的回归误差
首先,利用在IOU的基础上GIoU策略计算预测框和真值框的DIOU距离,其中IOU代表交并比,表示真值框与预测框之间的交集与并集的比值;而GIOU代表通用交并比,表示一种具有更强泛化性能的预测框和真值框的距离衡量方法;
Figure FDA0002765698710000011
其中Pb=(xptl,yptl,xpdr,ypdr),(xptl,yptl)和(xpdr,ypdr)分别表示预测框的左上角和右下角坐标;Tb=(xttl,yttl,xtdr,ytdr),(xttl,yttl)和(xtdr,ytdr)分别表示真值框的左上角和右下角坐标;符号“∩”和“∪”分别表示交集和并集操作;从公式(1)中看出,DIOU的取值区间为[0,1],
其次,真值框和预测框的DGIOU距离通过下式计算:
Figure FDA0002765698710000021
其中C表示能够同时包含预测框和真值框的最小包围框,符号“\”表示前面的集合减去后面的集合;从公式(2)中得出,DGIoU的取值区间为(-1,1];
最后,回归误差表示为:
Rloss=1-DGIoU (3)
从公式(3)中得到Rloss的取值范围为[0,2);
回归误差的具体计算步骤如下:
B1、计算交集的宽度wI
wI=min(xpdr,xtdr)-max(xptl,xttl)
其中xpdr代表预测框右下角横坐标;xtdr代表真值框的右下角横坐标;xptl代表预测框左上角横坐标;xttl代表真值框左上角横坐标;min操作代表两者中取小值;max操作代表两者中取大值;wI代表交集的宽度;
B2、计算交集的高度hI
hI=min(ypdr,ytdr)-max(yptl,yttl)
其中ypdr代表预测框右下角纵坐标;ytdr代表真值框的右下角纵坐标;yptl代表预测框左上角纵坐标;yttl代表真值框左上角纵坐标;hI代表交集的高度;
B3、计算预测框PBB的面积aP
aP=(xpdr-xptl)(ypdr-yptl)
其中aP代表预测框PBB的面积大小;
B4、计算真值框GTB的面积aT
aT=(xtdr-xttl)(ytdr-yttl)
其中aT代表真值框GTB的面积大小;
B5、计算最小包围框的宽度ws
ws=max(xtdr,xpdr)-min(xttl,xptl)
其中ws代表最小包围框的宽度;
B6、计算最小闭合矩形的高度hs
hs=max(ytdr,ypdr)-min(yttl,yptl)
其中hs代表最小包围框的高度;
B7、计算DIOU距离和DGIOU距离
如果wI>0&hI>0
Figure FDA0002765698710000031
其中DIOU代表以IOU为衡量方式的距离;
Figure FDA0002765698710000032
其中DGIoU代表以GIoU为衡量方式的距离;
否则:
DIOU=0
Figure FDA0002765698710000033
B8、求取回归误差:
Rloss=1-DGIoU
C、基于K-means算法的维度聚类
C1、建立优化目标
Figure FDA0002765698710000034
其中dIOU代表样本xi和聚类中心
Figure FDA0002765698710000035
的IOU距离,nc、m和Sj分别代表所要聚类的类别数量、第m次迭代以及第j类样本集合的中心;其中,/>
Figure FDA0002765698710000036
表示不同类别的聚类中心,c代表用宽度和高度来描述的先验框(wAB,hAB);
C2、基于IOU的距离衡量方法,计算样本xi和聚类中心
Figure FDA0002765698710000037
的距离:
Figure FDA0002765698710000041
C3、根据公式(5),求出最小的距离;根据最小距离将样本xi分配到集合Sj
Sj=Sj∪{xi|dij dip} (6)
其中p表示除了第j类外剩余的其他类别索引;
C4、重新计算新的聚类中心:
Figure FDA0002765698710000042
其中nj代表第jth类的所包含样本的数量;
C5、比较第m次和第m+1次聚类结果是否相等;如果前后两次聚类结果不相等,则转步骤C2,直到满足下式:
Figure FDA0002765698710000043
其中δ=0.0001—0.001,max代表求取最大值操作。
CN202011232605.5A 2020-11-06 2020-11-06 一种基于单阶段深度学习网络的海底生物识别和检测方法 Active CN112308002B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011232605.5A CN112308002B (zh) 2020-11-06 2020-11-06 一种基于单阶段深度学习网络的海底生物识别和检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011232605.5A CN112308002B (zh) 2020-11-06 2020-11-06 一种基于单阶段深度学习网络的海底生物识别和检测方法

Publications (2)

Publication Number Publication Date
CN112308002A CN112308002A (zh) 2021-02-02
CN112308002B true CN112308002B (zh) 2023-07-11

Family

ID=74326526

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011232605.5A Active CN112308002B (zh) 2020-11-06 2020-11-06 一种基于单阶段深度学习网络的海底生物识别和检测方法

Country Status (1)

Country Link
CN (1) CN112308002B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113377356B (zh) * 2021-06-11 2022-11-15 四川大学 一种用户界面原型代码的生成方法、装置、设备及介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110866476A (zh) * 2019-11-06 2020-03-06 南京信息职业技术学院 一种基于自动标注和迁移学习的密集堆垛目标检测方法
CN111310861A (zh) * 2020-03-27 2020-06-19 西安电子科技大学 一种基于深度神经网络的车牌识别和定位方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110866476A (zh) * 2019-11-06 2020-03-06 南京信息职业技术学院 一种基于自动标注和迁移学习的密集堆垛目标检测方法
CN111310861A (zh) * 2020-03-27 2020-06-19 西安电子科技大学 一种基于深度神经网络的车牌识别和定位方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于S4-YOLO的海上目标检测识别方法;赵文强;孙巍;;光学与光电技术(第04期);全文 *

Also Published As

Publication number Publication date
CN112308002A (zh) 2021-02-02

Similar Documents

Publication Publication Date Title
Han et al. Marine organism detection and classification from underwater vision based on the deep CNN method
Li et al. SAR image change detection using PCANet guided by saliency detection
CN107016357B (zh) 一种基于时间域卷积神经网络的视频行人检测方法
CN109740460B (zh) 基于深度残差密集网络的光学遥感图像舰船检测方法
CN112598713A (zh) 一种基于深度学习的近岸海底鱼类检测、跟踪统计方法
CN106022232A (zh) 基于深度学习的车牌检测方法
CN109376591B (zh) 深度学习特征与视觉特征联合训练的船只目标检测方法
CN107169954B (zh) 一种基于并行卷积神经网络的图像显著性检测方法
You et al. Nearshore ship detection on high-resolution remote sensing image via scene-mask R-CNN
CN110991257B (zh) 基于特征融合与svm的极化sar溢油检测方法
CN110334703B (zh) 一种昼夜图像中的船舶检测和识别方法
CN108038515A (zh) 无监督多目标检测跟踪方法及其存储装置与摄像装置
CN109766823A (zh) 一种基于深层卷积神经网络的高分辨率遥感船舶检测方法
CN113052872B (zh) 一种基于声呐图像的水下运动目标跟踪方法
CN114861761B (zh) 一种基于孪生网络特征与几何验证的回环检测方法
CN110633727A (zh) 基于选择性搜索的深度神经网络舰船目标细粒度识别方法
Zhao et al. Research on detection method for the leakage of underwater pipeline by YOLOv3
CN110599463A (zh) 一种基于轻量级联神经网络的舌像检测及定位算法
Xiao et al. Traffic sign detection based on histograms of oriented gradients and boolean convolutional neural networks
CN113052215A (zh) 基于神经网络可视化的声呐图像自动目标识别方法
Wei et al. Novel green-fruit detection algorithm based on D2D framework
CN112308002B (zh) 一种基于单阶段深度学习网络的海底生物识别和检测方法
Fu et al. Underwater small object detection in side-scan sonar images based on improved YOLOv5
Zou et al. Fish tracking based on feature fusion and scale adaptation in a real-world underwater environment
CN110458234B (zh) 一种基于深度学习的以图搜车方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant