CN113158787A - 一种复杂海洋环境下船舶检测分类方法 - Google Patents
一种复杂海洋环境下船舶检测分类方法 Download PDFInfo
- Publication number
- CN113158787A CN113158787A CN202110266753.7A CN202110266753A CN113158787A CN 113158787 A CN113158787 A CN 113158787A CN 202110266753 A CN202110266753 A CN 202110266753A CN 113158787 A CN113158787 A CN 113158787A
- Authority
- CN
- China
- Prior art keywords
- feature
- layer
- network
- ship
- features
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 49
- 238000000034 method Methods 0.000 title claims abstract description 24
- 230000004927 fusion Effects 0.000 claims abstract description 47
- 238000000605 extraction Methods 0.000 claims abstract description 24
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 18
- 238000012549 training Methods 0.000 claims abstract description 11
- 238000012545 processing Methods 0.000 claims abstract description 10
- 238000011176 pooling Methods 0.000 claims description 13
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000011156 evaluation Methods 0.000 claims description 4
- 238000013135 deep learning Methods 0.000 abstract description 4
- 238000011160 research Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000003556 assay Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种复杂海洋环境下船舶检测分类方法,包括如下步骤:S1,通过对船舶样本的数据集训练得到深度卷积神经网络模型;S2,通过训练好的深度卷积神经网络模型对船舶的类别和位置信息进行预测;所述的深度卷积神经网络模型包括:主干特征提取网络,所述的主干特征提取网络包括不同尺度特征层;多尺度特征融合网络,其包括若干个多层特征融合模块和若干个多层感受野模块,所述的多层特征融合模块连接其中不同尺度的特征层;检测网络,其连接于多尺度特征融合网络。本发明相比于现有的基于深度学习的船舶检测算法,具有较高的检测精度,能够适合与复杂海洋环境下的船舶检测。
Description
技术领域
本发明涉及属于目标检测跟踪技术,具体涉及在背景较为复杂的海上船舶检测和分类方法。
背景技术
海洋环境下的目标检测是计算机视觉领域中一个重要研究方向,尤其是对船舶进行检测和分类,这不仅为码头管理、港口监控和安全航行提供了重要信息,而且在海上侦察走私船舶、海上救援等方面也发挥着重要作用。计算机辅助船舶检测的方法极大促进了该项研究的发展,提高了检测效率,释放了人力资源。近年来,随着基于深度卷积神经网络的目标检测技术的飞速发展,为视频和图像处理提供了新的理论和方法,使得在目标检测过程中不再需要手动选择特征。
目前基于深度学习的目标检测算法可以分为两类:一类是基于区域的目标检测算法,形成了以基于区域的卷积神经网络(R-CNN)为代表的两阶段算法。这类算法由于其检测精度高,在船舶检测方面有所应用,但它们检测的速度慢不足以满足实时检测的要求。第二种是基于回归的目标检测算法,形成了以你只看一次(YOLO)和单次多边界框检测器(SSD)为代表的单阶段算法。该类算法将检测问题转化为回归问题,大大提高了检测速度,在实时船舶检测方面优势比较突出。
但是考虑到海洋环境的复杂性,船舶检测会受到拍摄距离,海杂波,光照强度,天气变化,复杂背景以及船舶颜色和海面颜色对比不明显等因素的影响,单单凭借肉眼或现有的船舶检测算法,效率低、成本高且检测未必准确,难以达到令人满意的监测结果,进而虚警和漏检的情况会时常出现。
总而言之,基于深度学习的目标检测仍然是一个具有挑战性的课题,面对复杂的水面环境,检测中仍存在复杂海洋环境下小船舶检测难以及不能够准确识别船舶种类的问题。因此准确、快速地检测与识别复杂背景下的船舶目标,赢得更可能多的反应与处理时间,已成为当前船舶检测方法上急需解决的难题,这一课题的研究具有重大的现实意义。
发明内容
鉴于现有技术所存在的上述问题,本发明的目的是提供一种基于改进YOLOv4的复杂海洋环境下船舶检测和分类方法,用于快速准确地检测出海面上的船舶目标,较之前的船舶检测算法,对于复杂海洋背景下的小船舶检测精度改进明显。
为了实现以上目的,本发明是通过以下技术方案实现的:
一种复杂海洋环境下船舶检测分类方法,其特点是,包括如下步骤:
S1,通过对船舶样本的数据集训练得到深度卷积神经网络模型;
S2,通过训练好的深度卷积神经网络模型对船舶的类别和位置信息进行预测;
所述的深度卷积神经网络模型包括:
主干特征提取网络,所述的主干特征提取网络包括不同尺度特征层;
多尺度特征融合网络,其包括若干个多层特征融合模块和若干个多层感受野模块,所述的多层特征融合模块连接其中不同尺度的特征层;
检测网络,其连接于多尺度特征融合网络。
所述的主干特征提取网络为CSPDarknet53。
所述的多层特征融合模块融合三个尺度特征层,所述多层特征融合模块输入为特征层F13×13、特征层F26×26和特征层F52×52,输出为F'26×26;所述多层特征融合模块通过CONCAT1和CONCAT2两个级联操作来融合多层特征,其中CONCAT1连接了当前特征层及通过金字塔池化结构、特征提取模块和2倍上采样的深层特征,CONCAT2则连接了CONCAT1出来后经过一次1×1的卷积的特征与通过下采样的浅层特征,该模块融合了三个不同尺度的特征层,输出F'26×26可用如下的公式表示:
F'26×26=[F13×13,F26×26,F52×52]。
所述的多层特征融合模块融合四个尺度特征层,所述多层特征融合模块输入为特征层F13×13、特征层F26×26、特征层F52×52和特征层F104×104,输出为F'52×52;所述多层特征融合模块通过CONCAT1和CONCAT2两个级联操作来融合多层特征;其中CONCAT1连接了经过多层特征融合模块和特征提取模块的深层特征以及连接当前特征层,CONCAT2则连接了三个不同尺度的特征层,分别为经过金字塔池化结构、特征提取模块和上采样操作的更深层特征、经过CONCAT1和Conv2D的当前特征以及通过最大池化操作的浅层特征,输出F'52×52可用如下的公式表示:
F'52×52=[F13×13,F26×26,F52×52,F104×104]。
所述的深度卷积神经网络模型的总损失的数学定义:
其中,IOU为预测框与真实框的交并比,b为预测框中心点坐标,bgt为真实框中心点坐标,ρ(b,bgt)代表预测框和真实框的中心点的欧式距离,c代表的是能够同时包含预测框和真实框的最小闭包区域的对角线距离,αυ为对长宽比的惩罚项,用来测量长宽比的一致性,υ是一个正数,具体定义如下:
其中,ωgt和hgt为真实框的宽、高,ω和h为预测框的宽、高;若真实框和预测框的宽高相似,那么υ为0,则惩罚项αυ将不起作用。
所述的数据集包括:不同背景环境、不同天气状况、白天和黑夜以及各种类别的船舶样本。
采用两个用于目标检测任务的指标作为评估指标:平均精度mAP和每秒帧数FPS,计算公式如下:
式中TP为指对象本来为正样本,网络识别为正样本,FP为指对象本来为负例,网络识别为正样本,FN为对象本来为正样本,网络识别为负样本,因此TP+FP是检测到的所有船舶数量,TP+FN表示实际船舶总数。
本发明与现有技术相比,具有以下优点:
平均精度高:本发明在原有网络的尺度基础上增加一个浅层尺度,同时在尺度融合之后加入改进特征融合模块,使得低层的细节信息和高层的抽象信息融合更加充分,一定程度上提升了整个算法的性能。
改进特征融合模块,在不增加计算量的同时,提高整个模型的检测准确率。
本发明与其他流行检测算法在相同数据集上做对比,尤其是对复杂海洋环境下的小船舶精度效果更胜一筹。
附图说明
图1为本发明深度卷积神经网络模型的结构示意图;
图2为本发明提出的融合三个尺度特征层的多层特征融合模块(MFF);
图3为本发明提出的融合四个尺度特征层的多层特征融合模块(MFF);
图4为本发明提出的多层感受野模块(M-RFB)。
图5为本发明方法的流程图。
具体实施方式
以下结合附图,通过详细说明一个较佳的具体实施例,对本发明做进一步阐述。
如图5所示,一种复杂海洋环境下船舶检测分类方法,包括如下步骤:
S1,通过对船舶样本的数据集训练得到深度卷积神经网络模型;
S2,通过训练好的深度卷积神经网络模型对船舶的类别和位置信息进行预测;
所述的深度卷积神经网络模型包括:
主干特征提取网络,所述的主干特征提取网络包括不同尺度特征层;
多尺度特征融合网络,其包括若干个多层特征融合模块和若干个多层感受野模块,所述的多层特征融合模块连接其中不同尺度的特征层;
检测网络,其连接于多尺度特征融合网络。
如图1所示,本发明的主干特征提取网络依然延用CSPDarknet53网络。在融合多层特征前也同样对13×13的特征层采用空间金字塔池化结构(SPP),这主要是因为金字塔池化结构能够极大地增加感受野,分离出最显著的上下文特征,且几乎没有降低网络运行速度。另外,我们融合了主干网络中的四个不同尺度特征层进入到特征融合部分,并且将特征提取模块(FE)、多层特征融合模块(MFF)、多层感受野模块(M-RFB)三个模块融合成新的PANet结构,即采用特征提取模块(FE)进行特征提取,采用多层特征融合模块(MFF)来更大程度的增强上下文语义信息,采用多层感受野模块(M-RFB)自底向上地融合特征来进一步的扩大特征层感受野。
如附图2所示,是本发明的网络中的融合三个尺度特征层的多层特征融合模块(MFF),该模块的输入为F13×13、F26×26、F52×52三个特征层,输出为F'26×26。该模块主要由通过CONCAT1和CONCAT2两个级联操作来融合多层特征。其中CONCAT1连接了当前特征层与通过金字塔池化结构(SPP)、特征提取模块(FE)和2倍上采样的深层特征(13×13),CONCAT2则连接了CONCAT1出来后经过一次1×1的卷积的特征(26×26)与通过下采样的浅层特征(52×52)。该模块融合了三个不同尺度的特征层,输出F'26×26可用如下的公式表示:
F'26×26=[F13×13,F26×26,F52×52]
如附图3所示,是本发明的网络中的融合四个尺度特征层的多层特征融合模块(MFF),该模块的输入为F13×13、F26×26、F52×52、F104×104三个特征层,输出为F'52×52。同样是通过CONCAT1和CONCAT2两个级联操作来融合多层特征。CONCAT1连接了经过多层特征融合模块(MFF)以及特征提取模块(FE)的深层特征(26×26)与当前特征(52×52),CONCAT2则连接了三个不同尺度的特征层,分别为经过金字塔池化结构(SPP)、特征提取模块(FE)和上采样操作的更深层特征(13×13)、经过CONCAT1和Conv2D的当前特征(52×52)以及通过最大池化操作的浅层特征(104×104)。即该模块将四个尺度的特征信息都充分融合。输出F'52×52可用如下的公式表示:
F'52×52=[F13×13,F26×26,F52×52,F104×104]
通过上述将主干网络中的4个相邻尺度(浅、稍浅、深、更深)的特征融合在一起,使特征更加丰富,以便更好地检测。
对于融合多层感受野模块(M-RFB),在多层特征融合模块(MFF)的基础上进一步融合多层特征,增加自底向上融合的路径从较浅层尺度引入语义特征,以此来进一步扩大不同区域的感受野和语义特征。
所述的深度卷积神经网络模型的总损失的数学定义:
其中,IOU为预测框与真实框的交并比,b为预测框中心点坐标,bgt为真实框中心点坐标,ρ(b,bgt)代表预测框和真实框的中心点的欧式距离,c代表的是能够同时包含预测框和真实框的最小闭包区域的对角线距离,αυ为对长宽比的惩罚项,用来测量长宽比的一致性,υ是一个正数,具体定义如下:
其中,ωgt和hgt为真实框的宽、高,ω和h为预测框的宽、高;若真实框和预测框的宽高相似,那么υ为0,则惩罚项αυ将不起作用。
所述的数据集包括:不同背景环境、不同天气状况、白天和黑夜以及各种类别的船舶样本。
如附图4所示,是本发明的网络中的多层感受野模块(M-RFB),该模块输入为F1,F2,F3三个特征层,F1表示当前特征层、F2表示当前特征层经过多层特征融合模块(MFF)或者金字塔池化结构(SPP)和特征提取模块(FE)出来的特征层、F3表示通过最大池化操作或者多层感受野模块(M-RFB)的浅层特征。F1、F2、F3三个特征层首先分别通过1×1或3×3的卷积操作以减少它们的通道数,以此来降低计算量;然后在通过膨胀率为1、3和5的膨胀卷积操作,来扩大特征层的感受野区域;最后进行级联操作,这样可以把浅层特征与当前特征融合,来进一步扩大特征层的感受野。该模块的输出Foutput可用如下的公式表示:
Foutput=[F1,F2,F3]
所述的采用两个广泛用于目标检测任务的指标作为评估指标:平均精度mAP和每秒帧数FPS,计算公式如下:
式中TP为指对象本来为正样本,网络识别为正样本,FP为指对象本来为负例,网络识别为正样本,FN为对象本来为正样本,网络识别为负样本,因此TP+FP是检测到的所有船舶数量,TP+FN表示实际船舶总数。
本发明的训练基于TensorFlow 2.3.0框架,算法的编程语言为Python 3.8.1,硬件平台为Intel(R)Core(TM)i5-8500 CPU,3.00GHz,NVIDIA GTX 1070GPU。预设训练参数为:动量为0.9,权值衰减为0.0005,初始学习率为1e-3,总的时期为100。在实施的过程中为了加快网络训练的速度,我们先随机冻结一些层进行训练,此时模型所需要训练的层数较少,因此将批量大小设置为8,训练时期为50个时期。当50个时期训练结束后,再来训练网络的所有层数,这时的批量大小设置为4,训练剩下的50个时期,直到训练结束。
表1中将本发明方法取得的检测性能与现有方法做了对比。评估指标为平均精度(mAP)和每秒帧数(FPS),具体公式前文中已经提出。
表1与现有方法的对比(最优和次优结果分别用黑体和斜体表示)
从表中结果可以看出本发明具有较好的检测性能。
尽管本发明的内容已经通过上述优选实施例作了详细介绍,但应当认识到上述的描述不应被认为是对本发明的限制。在本领域技术人员阅读了上述内容后,对于本发明的多种修改和替代都将是显而易见的。因此,本发明的保护范围应由所附的权利要求来限定。
Claims (7)
1.一种复杂海洋环境下船舶检测分类方法,其特征在于,包括如下步骤:
S1,通过对船舶样本的数据集训练得到深度卷积神经网络模型;
S2,通过训练好的深度卷积神经网络模型对船舶的类别和位置信息进行预测;
所述的深度卷积神经网络模型包括:
主干特征提取网络,所述的主干特征提取网络包括不同尺度特征层;
多尺度特征融合网络,其包括若干个多层特征融合模块和若干个多层感受野模块,所述的多层特征融合模块连接其中不同尺度的特征层;
检测网络,其连接于多尺度特征融合网络。
2.如权利要求1所述的复杂海洋环境下船舶检测分类方法,其特征在于,所述的主干特征提取网络为CSPDarknet53。
3.如权利要求1所述的复杂海洋环境下船舶检测分类方法,其特征在于,所述的多层特征融合模块融合三个尺度特征层,所述多层特征融合模块输入为特征层F13×13、特征层F26×26和特征层F52×52,输出为F'26×26;所述多层特征融合模块通过第一级联单元CONCAT1和第二级联单元CONCAT2两个级联操作来融合多层特征,其中CONCAT1连接了当前特征层及通过金字塔池化结构、特征提取模块和2倍上采样的深层特征,CONCAT2则连接了CONCAT1出来后经过一次1×1的卷积的特征与通过下采样的浅层特征,该模块融合了三个不同尺度的特征层,输出F'26×26可用如下的公式表示:
F'26×26=[F13×13,F26×26,F52×52]。
4.如权利要求1所述的复杂海洋环境下船舶检测分类方法,其特征在于,所述的多层特征融合模块融合四个尺度特征层,所述多层特征融合模块输入为特征层F13×13、特征层F26×26、特征层F52×52和特征层F104×104,输出为F'52×52;所述多层特征融合模块通过第一级联单元CONCAT1和第二级联单元CONCAT2两个级联操作来融合多层特征;其中CONCAT1连接了经过多层特征融合模块和特征提取模块的深层特征以及连接当前特征层,CONCAT2则连接了三个不同尺度的特征层,分别为经过金字塔池化结构、特征提取模块和上采样操作的更深层特征、经过CONCAT1和卷积层Conv2D的当前特征以及通过最大池化操作的浅层特征,输出F'52×52可用如下的公式表示:
F'52×52=[F13×13,F26×26,F52×52,F104×104]。
6.如权利要求1所述的复杂海洋环境下船舶检测分类方法,其特征在于,所述的数据集包括:不同背景环境、不同天气状况、白天和黑夜以及各种类别的船舶样本。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110266753.7A CN113158787B (zh) | 2021-03-11 | 2021-03-11 | 一种复杂海洋环境下船舶检测分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110266753.7A CN113158787B (zh) | 2021-03-11 | 2021-03-11 | 一种复杂海洋环境下船舶检测分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113158787A true CN113158787A (zh) | 2021-07-23 |
CN113158787B CN113158787B (zh) | 2024-04-05 |
Family
ID=76886802
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110266753.7A Active CN113158787B (zh) | 2021-03-11 | 2021-03-11 | 一种复杂海洋环境下船舶检测分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113158787B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114067368A (zh) * | 2022-01-17 | 2022-02-18 | 国网江西省电力有限公司电力科学研究院 | 基于深度卷积特征的电网危害鸟种分类识别方法 |
CN114092885A (zh) * | 2021-11-29 | 2022-02-25 | 东方世纪科技股份有限公司 | 基于视频分析的高速服务区车辆防护方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019101221A1 (zh) * | 2017-12-11 | 2019-05-31 | 珠海大横琴科技发展有限公司 | 一种基于场景多维特征的船只检测方法及系统 |
CN110427981A (zh) * | 2019-07-11 | 2019-11-08 | 四川大学 | 基于深度神经网络的sar船舶检测系统及方法 |
CN111062383A (zh) * | 2019-11-04 | 2020-04-24 | 南通大学 | 一种基于图像的船舶检测深度神经网络算法 |
CN111652321A (zh) * | 2020-06-10 | 2020-09-11 | 江苏科技大学 | 一种基于改进yolov3算法的海上船舶检测方法 |
CN112464883A (zh) * | 2020-12-11 | 2021-03-09 | 武汉工程大学 | 一种自然场景下船舶目标自动检测识别方法与系统 |
-
2021
- 2021-03-11 CN CN202110266753.7A patent/CN113158787B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019101221A1 (zh) * | 2017-12-11 | 2019-05-31 | 珠海大横琴科技发展有限公司 | 一种基于场景多维特征的船只检测方法及系统 |
CN110427981A (zh) * | 2019-07-11 | 2019-11-08 | 四川大学 | 基于深度神经网络的sar船舶检测系统及方法 |
CN111062383A (zh) * | 2019-11-04 | 2020-04-24 | 南通大学 | 一种基于图像的船舶检测深度神经网络算法 |
CN111652321A (zh) * | 2020-06-10 | 2020-09-11 | 江苏科技大学 | 一种基于改进yolov3算法的海上船舶检测方法 |
CN112464883A (zh) * | 2020-12-11 | 2021-03-09 | 武汉工程大学 | 一种自然场景下船舶目标自动检测识别方法与系统 |
Non-Patent Citations (1)
Title |
---|
邓睿哲;陈启浩;陈奇;刘修国;: "遥感影像船舶检测的特征金字塔网络建模方法", 测绘学报, no. 06 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114092885A (zh) * | 2021-11-29 | 2022-02-25 | 东方世纪科技股份有限公司 | 基于视频分析的高速服务区车辆防护方法及系统 |
CN114067368A (zh) * | 2022-01-17 | 2022-02-18 | 国网江西省电力有限公司电力科学研究院 | 基于深度卷积特征的电网危害鸟种分类识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113158787B (zh) | 2024-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Nandhini et al. | Detection of Crime Scene Objects using Deep Learning Techniques | |
CN111738112B (zh) | 基于深度神经网络和自注意力机制的遥感船舶图像目标检测方法 | |
CN110490174A (zh) | 基于特征融合的多尺度行人检测方法 | |
CN113158787B (zh) | 一种复杂海洋环境下船舶检测分类方法 | |
CN110610165A (zh) | 一种基于yolo模型的船舶行为分析方法 | |
CN115171336B (zh) | 一种海滩监控溺水防护系统 | |
CN116824335A (zh) | 一种基于YOLOv5改进算法的火灾预警方法及系统 | |
CN110766721A (zh) | 一种基于机载视觉的着舰合作目标检测方法 | |
Yi et al. | Research on Underwater small target Detection Algorithm based on improved YOLOv7 | |
Zhou et al. | YOLO-ship: a visible light ship detection method | |
Xingxin et al. | Adaptive auxiliary input extraction based on vanishing point detection for distant object detection in high-resolution railway scene | |
Zhang et al. | Underwater target detection algorithm based on improved YOLOv4 with SemiDSConv and FIoU loss function | |
CN114898290A (zh) | 一种海上船舶实时检测方法及系统 | |
Zhou et al. | A real-time scene parsing network for autonomous maritime transportation | |
Shi et al. | Obstacle type recognition in visual images via dilated convolutional neural network for unmanned surface vehicles | |
CN114140753A (zh) | 一种海洋船舶识别的方法、装置及系统 | |
Dong et al. | Visual Detection Algorithm for Enhanced Environmental Perception of Unmanned Surface Vehicles in Complex Marine Environments | |
He et al. | A novel image recognition algorithm of target identification for unmanned surface vehicles based on deep learning | |
CN114937239B (zh) | 行人多目标跟踪识别方法及跟踪识别装置 | |
Wu et al. | Unmanned Ship Identification Based on Improved YOLOv8s Algorithm | |
CN114863103A (zh) | 一种无人潜航器识别方法、设备和存储介质 | |
Luo et al. | A slight smoke perceptual network | |
Dhyani et al. | Multi-class Traffic Sign Recognition System Using One-Stage Detector YOLOv5s | |
Risnumawan et al. | Towards an Automatic Aircraft Wreckage Detection Using A Monocular Camera of UAV | |
Li et al. | Underwater Object Detection Based on Improved Transformer and Attentional Supervised Fusion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |