CN113158787A - 一种复杂海洋环境下船舶检测分类方法 - Google Patents

一种复杂海洋环境下船舶检测分类方法 Download PDF

Info

Publication number
CN113158787A
CN113158787A CN202110266753.7A CN202110266753A CN113158787A CN 113158787 A CN113158787 A CN 113158787A CN 202110266753 A CN202110266753 A CN 202110266753A CN 113158787 A CN113158787 A CN 113158787A
Authority
CN
China
Prior art keywords
feature
layer
network
ship
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110266753.7A
Other languages
English (en)
Other versions
CN113158787B (zh
Inventor
刘露
周薇娜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Maritime University
Original Assignee
Shanghai Maritime University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Maritime University filed Critical Shanghai Maritime University
Priority to CN202110266753.7A priority Critical patent/CN113158787B/zh
Publication of CN113158787A publication Critical patent/CN113158787A/zh
Application granted granted Critical
Publication of CN113158787B publication Critical patent/CN113158787B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种复杂海洋环境下船舶检测分类方法,包括如下步骤:S1,通过对船舶样本的数据集训练得到深度卷积神经网络模型;S2,通过训练好的深度卷积神经网络模型对船舶的类别和位置信息进行预测;所述的深度卷积神经网络模型包括:主干特征提取网络,所述的主干特征提取网络包括不同尺度特征层;多尺度特征融合网络,其包括若干个多层特征融合模块和若干个多层感受野模块,所述的多层特征融合模块连接其中不同尺度的特征层;检测网络,其连接于多尺度特征融合网络。本发明相比于现有的基于深度学习的船舶检测算法,具有较高的检测精度,能够适合与复杂海洋环境下的船舶检测。

Description

一种复杂海洋环境下船舶检测分类方法
技术领域
本发明涉及属于目标检测跟踪技术,具体涉及在背景较为复杂的海上船舶检测和分类方法。
背景技术
海洋环境下的目标检测是计算机视觉领域中一个重要研究方向,尤其是对船舶进行检测和分类,这不仅为码头管理、港口监控和安全航行提供了重要信息,而且在海上侦察走私船舶、海上救援等方面也发挥着重要作用。计算机辅助船舶检测的方法极大促进了该项研究的发展,提高了检测效率,释放了人力资源。近年来,随着基于深度卷积神经网络的目标检测技术的飞速发展,为视频和图像处理提供了新的理论和方法,使得在目标检测过程中不再需要手动选择特征。
目前基于深度学习的目标检测算法可以分为两类:一类是基于区域的目标检测算法,形成了以基于区域的卷积神经网络(R-CNN)为代表的两阶段算法。这类算法由于其检测精度高,在船舶检测方面有所应用,但它们检测的速度慢不足以满足实时检测的要求。第二种是基于回归的目标检测算法,形成了以你只看一次(YOLO)和单次多边界框检测器(SSD)为代表的单阶段算法。该类算法将检测问题转化为回归问题,大大提高了检测速度,在实时船舶检测方面优势比较突出。
但是考虑到海洋环境的复杂性,船舶检测会受到拍摄距离,海杂波,光照强度,天气变化,复杂背景以及船舶颜色和海面颜色对比不明显等因素的影响,单单凭借肉眼或现有的船舶检测算法,效率低、成本高且检测未必准确,难以达到令人满意的监测结果,进而虚警和漏检的情况会时常出现。
总而言之,基于深度学习的目标检测仍然是一个具有挑战性的课题,面对复杂的水面环境,检测中仍存在复杂海洋环境下小船舶检测难以及不能够准确识别船舶种类的问题。因此准确、快速地检测与识别复杂背景下的船舶目标,赢得更可能多的反应与处理时间,已成为当前船舶检测方法上急需解决的难题,这一课题的研究具有重大的现实意义。
发明内容
鉴于现有技术所存在的上述问题,本发明的目的是提供一种基于改进YOLOv4的复杂海洋环境下船舶检测和分类方法,用于快速准确地检测出海面上的船舶目标,较之前的船舶检测算法,对于复杂海洋背景下的小船舶检测精度改进明显。
为了实现以上目的,本发明是通过以下技术方案实现的:
一种复杂海洋环境下船舶检测分类方法,其特点是,包括如下步骤:
S1,通过对船舶样本的数据集训练得到深度卷积神经网络模型;
S2,通过训练好的深度卷积神经网络模型对船舶的类别和位置信息进行预测;
所述的深度卷积神经网络模型包括:
主干特征提取网络,所述的主干特征提取网络包括不同尺度特征层;
多尺度特征融合网络,其包括若干个多层特征融合模块和若干个多层感受野模块,所述的多层特征融合模块连接其中不同尺度的特征层;
检测网络,其连接于多尺度特征融合网络。
所述的主干特征提取网络为CSPDarknet53。
所述的多层特征融合模块融合三个尺度特征层,所述多层特征融合模块输入为特征层F13×13、特征层F26×26和特征层F52×52,输出为F'26×26;所述多层特征融合模块通过CONCAT1和CONCAT2两个级联操作来融合多层特征,其中CONCAT1连接了当前特征层及通过金字塔池化结构、特征提取模块和2倍上采样的深层特征,CONCAT2则连接了CONCAT1出来后经过一次1×1的卷积的特征与通过下采样的浅层特征,该模块融合了三个不同尺度的特征层,输出F'26×26可用如下的公式表示:
F'26×26=[F13×13,F26×26,F52×52]。
所述的多层特征融合模块融合四个尺度特征层,所述多层特征融合模块输入为特征层F13×13、特征层F26×26、特征层F52×52和特征层F104×104,输出为F'52×52;所述多层特征融合模块通过CONCAT1和CONCAT2两个级联操作来融合多层特征;其中CONCAT1连接了经过多层特征融合模块和特征提取模块的深层特征以及连接当前特征层,CONCAT2则连接了三个不同尺度的特征层,分别为经过金字塔池化结构、特征提取模块和上采样操作的更深层特征、经过CONCAT1和Conv2D的当前特征以及通过最大池化操作的浅层特征,输出F'52×52可用如下的公式表示:
F'52×52=[F13×13,F26×26,F52×52,F104×104]。
所述的深度卷积神经网络模型的总损失的数学定义:
Figure BDA0002972321220000031
其中,IOU为预测框与真实框的交并比,b为预测框中心点坐标,bgt为真实框中心点坐标,ρ(b,bgt)代表预测框和真实框的中心点的欧式距离,c代表的是能够同时包含预测框和真实框的最小闭包区域的对角线距离,αυ为对长宽比的惩罚项,用来测量长宽比的一致性,υ是一个正数,具体定义如下:
Figure BDA0002972321220000032
其中,ωgt和hgt为真实框的宽、高,ω和h为预测框的宽、高;若真实框和预测框的宽高相似,那么υ为0,则惩罚项αυ将不起作用。
所述的数据集包括:不同背景环境、不同天气状况、白天和黑夜以及各种类别的船舶样本。
采用两个用于目标检测任务的指标作为评估指标:平均精度mAP和每秒帧数FPS,计算公式如下:
Figure BDA0002972321220000033
Figure BDA0002972321220000034
Figure BDA0002972321220000035
Figure BDA0002972321220000036
式中TP为指对象本来为正样本,网络识别为正样本,FP为指对象本来为负例,网络识别为正样本,FN为对象本来为正样本,网络识别为负样本,因此TP+FP是检测到的所有船舶数量,TP+FN表示实际船舶总数。
本发明与现有技术相比,具有以下优点:
平均精度高:本发明在原有网络的尺度基础上增加一个浅层尺度,同时在尺度融合之后加入改进特征融合模块,使得低层的细节信息和高层的抽象信息融合更加充分,一定程度上提升了整个算法的性能。
改进特征融合模块,在不增加计算量的同时,提高整个模型的检测准确率。
本发明与其他流行检测算法在相同数据集上做对比,尤其是对复杂海洋环境下的小船舶精度效果更胜一筹。
附图说明
图1为本发明深度卷积神经网络模型的结构示意图;
图2为本发明提出的融合三个尺度特征层的多层特征融合模块(MFF);
图3为本发明提出的融合四个尺度特征层的多层特征融合模块(MFF);
图4为本发明提出的多层感受野模块(M-RFB)。
图5为本发明方法的流程图。
具体实施方式
以下结合附图,通过详细说明一个较佳的具体实施例,对本发明做进一步阐述。
如图5所示,一种复杂海洋环境下船舶检测分类方法,包括如下步骤:
S1,通过对船舶样本的数据集训练得到深度卷积神经网络模型;
S2,通过训练好的深度卷积神经网络模型对船舶的类别和位置信息进行预测;
所述的深度卷积神经网络模型包括:
主干特征提取网络,所述的主干特征提取网络包括不同尺度特征层;
多尺度特征融合网络,其包括若干个多层特征融合模块和若干个多层感受野模块,所述的多层特征融合模块连接其中不同尺度的特征层;
检测网络,其连接于多尺度特征融合网络。
如图1所示,本发明的主干特征提取网络依然延用CSPDarknet53网络。在融合多层特征前也同样对13×13的特征层采用空间金字塔池化结构(SPP),这主要是因为金字塔池化结构能够极大地增加感受野,分离出最显著的上下文特征,且几乎没有降低网络运行速度。另外,我们融合了主干网络中的四个不同尺度特征层进入到特征融合部分,并且将特征提取模块(FE)、多层特征融合模块(MFF)、多层感受野模块(M-RFB)三个模块融合成新的PANet结构,即采用特征提取模块(FE)进行特征提取,采用多层特征融合模块(MFF)来更大程度的增强上下文语义信息,采用多层感受野模块(M-RFB)自底向上地融合特征来进一步的扩大特征层感受野。
如附图2所示,是本发明的网络中的融合三个尺度特征层的多层特征融合模块(MFF),该模块的输入为F13×13、F26×26、F52×52三个特征层,输出为F'26×26。该模块主要由通过CONCAT1和CONCAT2两个级联操作来融合多层特征。其中CONCAT1连接了当前特征层与通过金字塔池化结构(SPP)、特征提取模块(FE)和2倍上采样的深层特征(13×13),CONCAT2则连接了CONCAT1出来后经过一次1×1的卷积的特征(26×26)与通过下采样的浅层特征(52×52)。该模块融合了三个不同尺度的特征层,输出F'26×26可用如下的公式表示:
F'26×26=[F13×13,F26×26,F52×52]
如附图3所示,是本发明的网络中的融合四个尺度特征层的多层特征融合模块(MFF),该模块的输入为F13×13、F26×26、F52×52、F104×104三个特征层,输出为F'52×52。同样是通过CONCAT1和CONCAT2两个级联操作来融合多层特征。CONCAT1连接了经过多层特征融合模块(MFF)以及特征提取模块(FE)的深层特征(26×26)与当前特征(52×52),CONCAT2则连接了三个不同尺度的特征层,分别为经过金字塔池化结构(SPP)、特征提取模块(FE)和上采样操作的更深层特征(13×13)、经过CONCAT1和Conv2D的当前特征(52×52)以及通过最大池化操作的浅层特征(104×104)。即该模块将四个尺度的特征信息都充分融合。输出F'52×52可用如下的公式表示:
F'52×52=[F13×13,F26×26,F52×52,F104×104]
通过上述将主干网络中的4个相邻尺度(浅、稍浅、深、更深)的特征融合在一起,使特征更加丰富,以便更好地检测。
对于融合多层感受野模块(M-RFB),在多层特征融合模块(MFF)的基础上进一步融合多层特征,增加自底向上融合的路径从较浅层尺度引入语义特征,以此来进一步扩大不同区域的感受野和语义特征。
所述的深度卷积神经网络模型的总损失的数学定义:
Figure BDA0002972321220000061
其中,IOU为预测框与真实框的交并比,b为预测框中心点坐标,bgt为真实框中心点坐标,ρ(b,bgt)代表预测框和真实框的中心点的欧式距离,c代表的是能够同时包含预测框和真实框的最小闭包区域的对角线距离,αυ为对长宽比的惩罚项,用来测量长宽比的一致性,υ是一个正数,具体定义如下:
Figure BDA0002972321220000062
其中,ωgt和hgt为真实框的宽、高,ω和h为预测框的宽、高;若真实框和预测框的宽高相似,那么υ为0,则惩罚项αυ将不起作用。
所述的数据集包括:不同背景环境、不同天气状况、白天和黑夜以及各种类别的船舶样本。
如附图4所示,是本发明的网络中的多层感受野模块(M-RFB),该模块输入为F1,F2,F3三个特征层,F1表示当前特征层、F2表示当前特征层经过多层特征融合模块(MFF)或者金字塔池化结构(SPP)和特征提取模块(FE)出来的特征层、F3表示通过最大池化操作或者多层感受野模块(M-RFB)的浅层特征。F1、F2、F3三个特征层首先分别通过1×1或3×3的卷积操作以减少它们的通道数,以此来降低计算量;然后在通过膨胀率为1、3和5的膨胀卷积操作,来扩大特征层的感受野区域;最后进行级联操作,这样可以把浅层特征与当前特征融合,来进一步扩大特征层的感受野。该模块的输出Foutput可用如下的公式表示:
Foutput=[F1,F2,F3]
所述的采用两个广泛用于目标检测任务的指标作为评估指标:平均精度mAP和每秒帧数FPS,计算公式如下:
Figure BDA0002972321220000071
Figure BDA0002972321220000072
Figure BDA0002972321220000073
Figure BDA0002972321220000074
式中TP为指对象本来为正样本,网络识别为正样本,FP为指对象本来为负例,网络识别为正样本,FN为对象本来为正样本,网络识别为负样本,因此TP+FP是检测到的所有船舶数量,TP+FN表示实际船舶总数。
本发明的训练基于TensorFlow 2.3.0框架,算法的编程语言为Python 3.8.1,硬件平台为Intel(R)Core(TM)i5-8500 CPU,3.00GHz,NVIDIA GTX 1070GPU。预设训练参数为:动量为0.9,权值衰减为0.0005,初始学习率为1e-3,总的时期为100。在实施的过程中为了加快网络训练的速度,我们先随机冻结一些层进行训练,此时模型所需要训练的层数较少,因此将批量大小设置为8,训练时期为50个时期。当50个时期训练结束后,再来训练网络的所有层数,这时的批量大小设置为4,训练剩下的50个时期,直到训练结束。
表1中将本发明方法取得的检测性能与现有方法做了对比。评估指标为平均精度(mAP)和每秒帧数(FPS),具体公式前文中已经提出。
表1与现有方法的对比(最优和次优结果分别用黑体和斜体表示)
Figure BDA0002972321220000081
从表中结果可以看出本发明具有较好的检测性能。
尽管本发明的内容已经通过上述优选实施例作了详细介绍,但应当认识到上述的描述不应被认为是对本发明的限制。在本领域技术人员阅读了上述内容后,对于本发明的多种修改和替代都将是显而易见的。因此,本发明的保护范围应由所附的权利要求来限定。

Claims (7)

1.一种复杂海洋环境下船舶检测分类方法,其特征在于,包括如下步骤:
S1,通过对船舶样本的数据集训练得到深度卷积神经网络模型;
S2,通过训练好的深度卷积神经网络模型对船舶的类别和位置信息进行预测;
所述的深度卷积神经网络模型包括:
主干特征提取网络,所述的主干特征提取网络包括不同尺度特征层;
多尺度特征融合网络,其包括若干个多层特征融合模块和若干个多层感受野模块,所述的多层特征融合模块连接其中不同尺度的特征层;
检测网络,其连接于多尺度特征融合网络。
2.如权利要求1所述的复杂海洋环境下船舶检测分类方法,其特征在于,所述的主干特征提取网络为CSPDarknet53。
3.如权利要求1所述的复杂海洋环境下船舶检测分类方法,其特征在于,所述的多层特征融合模块融合三个尺度特征层,所述多层特征融合模块输入为特征层F13×13、特征层F26×26和特征层F52×52,输出为F'26×26;所述多层特征融合模块通过第一级联单元CONCAT1和第二级联单元CONCAT2两个级联操作来融合多层特征,其中CONCAT1连接了当前特征层及通过金字塔池化结构、特征提取模块和2倍上采样的深层特征,CONCAT2则连接了CONCAT1出来后经过一次1×1的卷积的特征与通过下采样的浅层特征,该模块融合了三个不同尺度的特征层,输出F'26×26可用如下的公式表示:
F'26×26=[F13×13,F26×26,F52×52]。
4.如权利要求1所述的复杂海洋环境下船舶检测分类方法,其特征在于,所述的多层特征融合模块融合四个尺度特征层,所述多层特征融合模块输入为特征层F13×13、特征层F26×26、特征层F52×52和特征层F104×104,输出为F'52×52;所述多层特征融合模块通过第一级联单元CONCAT1和第二级联单元CONCAT2两个级联操作来融合多层特征;其中CONCAT1连接了经过多层特征融合模块和特征提取模块的深层特征以及连接当前特征层,CONCAT2则连接了三个不同尺度的特征层,分别为经过金字塔池化结构、特征提取模块和上采样操作的更深层特征、经过CONCAT1和卷积层Conv2D的当前特征以及通过最大池化操作的浅层特征,输出F'52×52可用如下的公式表示:
F'52×52=[F13×13,F26×26,F52×52,F104×104]。
5.如权利要求1所述的复杂海洋环境下船舶检测分类方法,其特征在于,所述的深度卷积神经网络模型的总损失的数学定义:
Figure FDA0002972321210000021
其中,IOU为预测框与真实框的交并比,b为预测框中心点坐标,bgt为真实框中心点坐标,ρ(b,bgt)代表预测框和真实框的中心点的欧式距离,c代表的是能够同时包含预测框和真实框的最小闭包区域的对角线距离,αυ为对长宽比的惩罚项,用来测量长宽比的一致性,υ是一个正数,具体定义如下:
Figure FDA0002972321210000022
其中,ωgt和hgt为真实框的宽、高,ω和h为预测框的宽、高;若真实框和预测框的宽高相似,那么υ为0,则惩罚项αυ将不起作用。
6.如权利要求1所述的复杂海洋环境下船舶检测分类方法,其特征在于,所述的数据集包括:不同背景环境、不同天气状况、白天和黑夜以及各种类别的船舶样本。
7.如权利要求1所述的复杂海洋环境下船舶检测分类方法,其特征在于,采用两个用于目标检测任务的指标作为评估指标:平均精度mAP和每秒帧数FPS,计算公式如下:
Figure FDA0002972321210000023
Figure FDA0002972321210000024
Figure FDA0002972321210000025
Figure FDA0002972321210000026
式中TP为指对象本来为正样本,网络识别为正样本,FP为指对象本来为负例,网络识别为正样本,FN为对象本来为正样本,网络识别为负样本,因此TP+FP是检测到的所有船舶数量,TP+FN表示实际船舶总数。
CN202110266753.7A 2021-03-11 2021-03-11 一种复杂海洋环境下船舶检测分类方法 Active CN113158787B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110266753.7A CN113158787B (zh) 2021-03-11 2021-03-11 一种复杂海洋环境下船舶检测分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110266753.7A CN113158787B (zh) 2021-03-11 2021-03-11 一种复杂海洋环境下船舶检测分类方法

Publications (2)

Publication Number Publication Date
CN113158787A true CN113158787A (zh) 2021-07-23
CN113158787B CN113158787B (zh) 2024-04-05

Family

ID=76886802

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110266753.7A Active CN113158787B (zh) 2021-03-11 2021-03-11 一种复杂海洋环境下船舶检测分类方法

Country Status (1)

Country Link
CN (1) CN113158787B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114067368A (zh) * 2022-01-17 2022-02-18 国网江西省电力有限公司电力科学研究院 基于深度卷积特征的电网危害鸟种分类识别方法
CN114092885A (zh) * 2021-11-29 2022-02-25 东方世纪科技股份有限公司 基于视频分析的高速服务区车辆防护方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019101221A1 (zh) * 2017-12-11 2019-05-31 珠海大横琴科技发展有限公司 一种基于场景多维特征的船只检测方法及系统
CN110427981A (zh) * 2019-07-11 2019-11-08 四川大学 基于深度神经网络的sar船舶检测系统及方法
CN111062383A (zh) * 2019-11-04 2020-04-24 南通大学 一种基于图像的船舶检测深度神经网络算法
CN111652321A (zh) * 2020-06-10 2020-09-11 江苏科技大学 一种基于改进yolov3算法的海上船舶检测方法
CN112464883A (zh) * 2020-12-11 2021-03-09 武汉工程大学 一种自然场景下船舶目标自动检测识别方法与系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019101221A1 (zh) * 2017-12-11 2019-05-31 珠海大横琴科技发展有限公司 一种基于场景多维特征的船只检测方法及系统
CN110427981A (zh) * 2019-07-11 2019-11-08 四川大学 基于深度神经网络的sar船舶检测系统及方法
CN111062383A (zh) * 2019-11-04 2020-04-24 南通大学 一种基于图像的船舶检测深度神经网络算法
CN111652321A (zh) * 2020-06-10 2020-09-11 江苏科技大学 一种基于改进yolov3算法的海上船舶检测方法
CN112464883A (zh) * 2020-12-11 2021-03-09 武汉工程大学 一种自然场景下船舶目标自动检测识别方法与系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
邓睿哲;陈启浩;陈奇;刘修国;: "遥感影像船舶检测的特征金字塔网络建模方法", 测绘学报, no. 06 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114092885A (zh) * 2021-11-29 2022-02-25 东方世纪科技股份有限公司 基于视频分析的高速服务区车辆防护方法及系统
CN114067368A (zh) * 2022-01-17 2022-02-18 国网江西省电力有限公司电力科学研究院 基于深度卷积特征的电网危害鸟种分类识别方法

Also Published As

Publication number Publication date
CN113158787B (zh) 2024-04-05

Similar Documents

Publication Publication Date Title
Nandhini et al. Detection of Crime Scene Objects using Deep Learning Techniques
CN111738112B (zh) 基于深度神经网络和自注意力机制的遥感船舶图像目标检测方法
CN110490174A (zh) 基于特征融合的多尺度行人检测方法
CN113158787B (zh) 一种复杂海洋环境下船舶检测分类方法
CN110610165A (zh) 一种基于yolo模型的船舶行为分析方法
CN115171336B (zh) 一种海滩监控溺水防护系统
CN116824335A (zh) 一种基于YOLOv5改进算法的火灾预警方法及系统
CN110766721A (zh) 一种基于机载视觉的着舰合作目标检测方法
Yi et al. Research on Underwater small target Detection Algorithm based on improved YOLOv7
Zhou et al. YOLO-ship: a visible light ship detection method
Xingxin et al. Adaptive auxiliary input extraction based on vanishing point detection for distant object detection in high-resolution railway scene
Zhang et al. Underwater target detection algorithm based on improved YOLOv4 with SemiDSConv and FIoU loss function
CN114898290A (zh) 一种海上船舶实时检测方法及系统
Zhou et al. A real-time scene parsing network for autonomous maritime transportation
Shi et al. Obstacle type recognition in visual images via dilated convolutional neural network for unmanned surface vehicles
CN114140753A (zh) 一种海洋船舶识别的方法、装置及系统
Dong et al. Visual Detection Algorithm for Enhanced Environmental Perception of Unmanned Surface Vehicles in Complex Marine Environments
He et al. A novel image recognition algorithm of target identification for unmanned surface vehicles based on deep learning
CN114937239B (zh) 行人多目标跟踪识别方法及跟踪识别装置
Wu et al. Unmanned Ship Identification Based on Improved YOLOv8s Algorithm
CN114863103A (zh) 一种无人潜航器识别方法、设备和存储介质
Luo et al. A slight smoke perceptual network
Dhyani et al. Multi-class Traffic Sign Recognition System Using One-Stage Detector YOLOv5s
Risnumawan et al. Towards an Automatic Aircraft Wreckage Detection Using A Monocular Camera of UAV
Li et al. Underwater Object Detection Based on Improved Transformer and Attentional Supervised Fusion

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant