CN112487912B - 基于改进YOLOv3的任意方向舰船检测方法 - Google Patents

基于改进YOLOv3的任意方向舰船检测方法 Download PDF

Info

Publication number
CN112487912B
CN112487912B CN202011331077.9A CN202011331077A CN112487912B CN 112487912 B CN112487912 B CN 112487912B CN 202011331077 A CN202011331077 A CN 202011331077A CN 112487912 B CN112487912 B CN 112487912B
Authority
CN
China
Prior art keywords
target
frame
loss
detection
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011331077.9A
Other languages
English (en)
Other versions
CN112487912A (zh
Inventor
谷雨
聂圣东
彭冬亮
刘俊
徐英
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN202011331077.9A priority Critical patent/CN112487912B/zh
Publication of CN112487912A publication Critical patent/CN112487912A/zh
Application granted granted Critical
Publication of CN112487912B publication Critical patent/CN112487912B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明公开了基于改进YOLOv3的任意方向舰船检测方法。首先,检测网络能同时输出垂直框和旋转框的预测结果。其次,基于垂直框和旋转框预测结果定义了多任务损失函数。最后,采用基于旋转框的非极大值抑制方法剔除重叠检测结果时,通过融合垂直框和旋转框预测结果进行目标方位角估计校正,以进一步提高检测性能。本发明提出的改进模型适用于纯海洋背景下SAR图像中的舰船目标检测,能够准确估计目标的方位角,并满足舰船目标检测的实时性需求。

Description

基于改进YOLOv3的任意方向舰船检测方法
技术领域
本发明属于SAR图像舰船目标检测领域,涉及一种基于改进YOLOv3的任意方向舰船目标检测方法。
背景技术
海面舰船目标检测对于维护我国海洋权益、促进海洋资源开发起到至关重要的作用。目前,用于舰船目标探测的主要数据来源包括雷达一维距离像、合成孔径雷达(Synthetic Aperture Radar,SAR)图像、卫星或无人机拍摄的遥感图像、近岸或海面舰船搭载的光电平台拍摄的视频图像等。
SAR是一种主动式微波成像传感器,具有全天时、全天候工作能力,对土壤、植被和云雾等具有一定的穿透性,在军事和民用领域具有广泛的应用。目前,国内外研究学者在SAR图像舰船目标检测与识别方面开展了大量的研究工作,建立了较为成熟的SAR图像舰船目标监视系统。
随着深度学习理论和优化技术的发展,基于卷积神经网络(Convolution NeuralNetwork,CNN)的目标检测识别模型取得了远超传统方法的性能。用于目标检测的深度模型可分为一阶段检测模型和两阶段检测模型。一阶段检测模型中的YOLOv3目标检测模型兼顾了检测精度与实时性的需求,通过重新设计特征提取网络(记做Darknet-53),采用特征金字塔网络(Feature Pyramid Network,FPN)的设计理念构建多尺度检测网络,提高了对不同尺度尤其是小目标的检测性能。
在一些应用场合,舰船目标的方位角信息具有重要的参考价值,因此学者开始研究能够输出目标方位角估计的深度检测模型。CHEN C等人采用一阶段检测框架,设计了一个多尺度自适应校正网络来检测任意方向的舰船目标,设计的模型采用目标中心点坐标、长宽和方位角共5个参数描述目标旋转框信息,其中目标方位角定义为水平轴沿逆时针方向旋转到与目标旋转框相交的角度,范围为(-90°,0°],与传统的一阶段检测模型不同,采用旋转锚框以解决目标方位角估计问题,但锚框角度和长宽比需通过实验进行优化设置,其对检测结果影响较大。AnQ等人基于SSD框架,采用旋转锚框策略实现目标方位角预测,目标方位角范围定义为[0°,180°)或[0°,330°),综合利用线上难例挖掘、Focal损失等解决正负样本不均衡问题。
发明内容
本发明的目的是为实现SAR图像舰船目标检测能同时输出位置和方位角估计信息,且兼顾检测精度和实时性的需求,基于YOLOv3框架,提出了一种能够同时输出垂直框和旋转框的SAR图像任意方向舰船目标检测方法。首先检测网络能同时输出垂直框和旋转框的预测结果,其次基于垂直框和旋转框预测结果设计了多任务损失函数,最后采用基于旋转框的非极大值抑制方法剔除重叠检测结果时,通过融合垂直框和旋转框预测结果进行目标方位角估计校正,以进一步提高检测性能。
基于Tensorflow深度学习框架实现本发明提出的方法并进行参数训练,采用SSDD+和HRSID SAR舰船目标检测数据集、可见光高分辨率舰船目标识别数据集(HighResolution Ship Collection 2016,HRSC2016)分别进行了提出改进模型的性能、迁移性和适用性测试,验证了本发明提出模型的有效性。
本发明采用的技术方案包括以下步骤:
步骤(1).获取SAR图像数据集。
步骤(2).预处理。
步骤(3).构建改进YOLOv3模型。
步骤(4).目标方位角校正。
本发明与现有技术相比,其显著优点为:
(1)本发明采用改进YOLOv3模型,同时输出垂直框和旋转框的预测结果,能够同时获取目标位置信息和方位角信息;
(2)本发明基于垂直框和旋转框预测结果设计了多任务损失函数,利用多任务损失函数对改进YOLOv3模型进行优化。
(3)针对可能存在的目标方位角估计偏差,在采用旋转非极大值抑制方法剔除重叠目标的同时,基于垂直框和旋转框预测判定方位角估计的准确性,并进行校正。
(4)本发明提出的改进模型适用于纯海洋背景下SAR图像中的舰船目标检测,能够准确估计目标的方位角,并满足舰船目标检测的实时性需求。
附图说明
图1是旋转框及目标方位角示意图;
图2是与旋转框对应的垂直框示意图;
图3是SSDD+数据集舰船目标长宽分布图;
图4是SSDD+测试集舰船目标检测结果;(a)离岸情况-大目标;(b)离岸情况-小目标;(c)近岸情况-1;(d)近岸情况-2;
图5是HRSID数据集舰船目标检测结果;(a)离岸情况;(b)近岸情况;
图6是HRSC2016舰船目标检测结果;(a)不同尺度情况-1;(b)不同尺度情况-2;(c)标注不完整情况;(d)密集目标情况。
具体实施方式
以下结合附图对本发明作进一步说明。
本发明具体实施步骤如下:
步骤(1)、获取SAR图像数据集。具体如下:
当采用(x1,y1,x2,y2,x3,y3,x4,y4)8参数形式描述任意角度的目标框的SAR图像数据集,其中x1,y1,x2,y2,x3,y3,x4,y4分别表示目标框的四个角的坐标。
步骤(2)、对数据集预处理。具体如下:
采用最小包围盒估计算法将8参数形式描述任意角度的目标框转换为(trx,try,trw,trh,t)的5参数形式。其中trx、try、trw、trh、t分别表示旋转框中心的横坐标、纵坐标、旋转框的宽度和高度以及目标方位角,如图1所示,方位角为x轴沿逆时针方向旋转到与目标旋转框长边重合的角度。
步骤(3)、构建改进YOLOv3模型。具体如下:
本发明重新定义YOLOv3模型的输出为(tx,ty,tw,th,trx,try,trw,trh,t,pconf,pclass),其中tx、ty、tw、th分别表示目标预测垂直框的中心横坐标、纵坐标以及目标预测垂直框的宽度和高度,trx、try、trw、trh、t分别表示目标预测旋转框的中心横坐标、纵坐标以及目标预测旋转框的宽度、高度和旋转角,pconf表示检测结果的置信度,pclass为C维向量,代表目标的属于C个类别的概率,此时各尺度特征图检测分支的输出维数增加为[S,S,B×(C+10)],其中S为对应尺度特征图的输出分辨率,B为每个尺度特征图使用的锚框(Anchor)的个数。
改进YOLOv3模型多任务损失函数共包含5部分,具体为:
Loss=Losscoord+Lossrcoord+Lossconf+Lossclass+Lossangle (1)
其中Losscoord为位置估计误差损失,具体公式为:
其中i、j分别表示特征图中第i个坐标点第j个锚框,在k为x、y、w、h时分别表示目标垂直框中心横坐标、纵坐标、高度、宽度的真实值和预测值,/>表示目标预测输出为正样本情况,即特征图中第i个坐标点第j个锚框预测结果与目标真值的交并比(Intersection Over Union,IOU)超过阈值,/>为1,否则/>为0;
Lossrcoord为旋转误差损失,其中rcoord=(trx,try,trw,trh),具体公式为:
其中在l为rx、ry、rw、rh时分别表示目标旋转框中心横坐标、纵坐标、高度、宽度的真实值和预测值。
目标置信度估计误差Lossconf的具体公式为
其中表示目标置信度真值,/>为背景情况,/>为目标置信度预测值;
类别预测误差Lossclass的具体公式为:
其中表示目标属于类别m的真值,/>为目标属于类别m的预测值。
目标方位角估计损失采用均方误差损失,具体定义如下:
其中分别表示旋转框的方位角的预测值与真实值。
训练阶段,训练集数据首先通过Darknet网络进行特征提取,得到特征图;将上述特征图输入到类FPN结构化网络中,分别得到三个尺度的特征图;再将这三个特征图输入到逻辑回归判断层中,得到判断结果;将这一结果与真实结果通过公式(1)多任务损失函数计算出损失值,再通过反向传播算法调整网络参数,最终得到训练的模型文件。
表1训练超参数
把训练好的改进YOLOv3模型在测试集上测试模型的检测性能,具体如下:
将测试集样本输入到训练得到的模型中,得到预测结果,与真实值比对,通过计算mAP等性能指标来评价模型的性能。
测试阶段,本发明在剔除重检测结果时,采用旋转非极大值抑制的方法剔除重检测目标,即根据旋转框的交并比来进行非极大值抑制剔除重叠目标,在目标密集的情况下,减少了目标的漏检。
步骤(3)、目标方位角估计矫正
融合垂直框和旋转框的预测结果进行目标方位角估计矫正,进一步提高了模型的检测性能。由于目标方位角范围为[0°,-180°),当目标处于水平方向时,角度估计会出现较大偏差。为解决该问题,计算估计得到的旋转框外接矩形,将其与基于检测网络输出的垂直框计算IOU值,若IOU值小于某个阈值(本发明设定为0.5),说明旋转框中角度参数估计不准确,此时将目标方位角估计值设定为0°。
为了验证本发明提出的模型改进方法的有效性,采用SSDD+SAR图像舰船目标检测数据集验证提出模型的性能,并基于HRSID数据集进行模型迁移测试。为进一步验证提出模型的适用性,采用HRSC2016数据集进行了可见光图像舰船目标检测实验。
训练时对输入数据除进行常规增强,包括水平翻转、随机裁剪和mixup等,还进行了旋转增强,主要是因为对目标方位角进行回归学习,应尽量使训练集中目标方位角覆盖(-180°,0°],增强后训练数据集数量变为原来的11倍。
SSDD+数据集描述如表2所示。由于对原始的SAR图像人为进行了裁剪,故该数据集的图像分辨率相对较低。SSDD+数据集采用8参数形式(x1,y1,x2,y2,x3,y3,x4,y4)描述任意角度的目标框,采用最小包围盒估计算法将上述参数转换为(trx,try,trw,trh,t)的5参数形式。当采用旋转框描述时舰船目标长宽分布如图3所示,从图3中可以看出,目标长宽比集中分布在两个主要方向上。将SSDD+数据集按照7:1:2比例随机划分成训练集、验证集和测试集。完成模型参数训练后,对测试集进行测试时,设定检测阈值为0.25,设定NMS阈值为0.25。舰船目标检测结果如图4所示,图片中倾斜的矩形框为目标旋转框估计结果,与坐标轴对齐的矩形框为目标垂直框估计结果。
表2 SSDD+数据集描述
实验结果:从图4(a)和图4(b)中可以看出,在纯海洋背景下,即使目标尺寸很小,目标仍能够被全部检出,且目标方位角估计准确。图4(c)中的靠岸舰船目标没有被检出,这是因为舰船与周围具有较强后向散射系数的背景区域连在一起,此时很难分辨目标。图4(d)中虽然为近岸情况,但是舰船目标周围背景具有较强的对比度,故也能检测出大部分目标,仅有一个虚警。当设定IOU阈值为0.5,置信度阈值为0.05,NMS阈值为0.45时,采用本发明改进模型对测试集进行测试可得,mAP0.5=0.819。F1分数指标综合考虑召回率(Recall)和精确率(Precision)结果,故计算该指标时需设置一个合适的检测阈值。设定IOU阈值为0.5,置信度阈值为0.45,NMS阈值为0.3时,召回率Recall=0.889,精确率Precision=0.868,则F1分数为2×Precision×Recall/(Precision+Recall)=0.879。由于数据集随机划分导致的纯海洋背景和靠岸情况下舰船目标比例不同,故会导致不同模型之间精度存在一定差异。另外,本发明提出改进模型在训练和测试阶段均能利用垂直框预测结果提高旋转框的预测精度,因此在没有对特征提取网络做改动的情况下,mAP0.5值略有提高。
为验证本发明提出改进模型中各模块的有效性,进行了消融实验,具体如表3所示。表3实验2未采用多任务损失函数,仅预测目标的旋转框预测结果,因没有垂直框预测结果,无需进行目标方位角校正,故此时算法耗时较少。比较表3中实验2和实验5结果可以看出,采用多任务损失显著提高了mAP0.5和F1值,提高了目标检测性能。比较表3实验4和实验5结果可以看出,采用本发明定义的目标方位角校正能在一定程度上提高检测性能。由于本发明中模型采用的是基于回归思想的一阶段模型,故进行旋转增强以生成不同目标方位角下的训练样本,有利于提高训练模型的泛化性能,同样能够提高目标检测精度。由表3可以看出,本发明的算法处理一帧图像耗时约为25毫秒,采用现有硬件条件能够满足舰船目标检测实时性的需求。
表3消融实验
当采用HRSID数据集进行模型迁移测试实验时,由于与SSDD+数据集的图像分辨率存在差异,故当采用三种不同模型输入分辨率时,在其它参数设置相同的情况下分别计算mAP0.5,具体如表4所示。从表4可以看出,随着模型输出尺寸的增加,当SSDD+数据集的图像分辨率和HRSID数据集中的图像分辨率接近匹配时,目标检测精度最优。当模型输入分辨率为832×832时,部分检测结果如图5所示。对于纯海洋背景,虽然仅采用SSDD+数据集训练模型参数,但仍能得到较为满意的检测结果,如图5(a)所示。对于靠岸情况,与SSDD+数据集类似,舰船目标检测结果不理想,图5(b)中一个目标也没有检测到。一方面是由于靠岸情况下舰船目标及其周围背景的像素分布复杂,两个数据集间目标分布差异大,会导致训练模型泛化性能下降;另一方面是靠岸情况下HRSID数据集中舰船目标更加密集,且目标相对于SSDD+数据集小,更加难以区分,导致目标检测率下降。
表4基于HRSID数据集的舰船目标检测精度
在HRSC2016数据集上采用同样的训练超参数基于增广后的训练集进行模型参数训练,然后采用同样的参数计算mAP0.5,结果为mAP0.5=0.888。这也说明本发明提出的改进模型具有一定的通用性,本发明中模型采用的是一阶段的检测结构,具有推理耗时少的优势。对HRSC2016中部分图像的检测结果如图6所示。从图6(a)和图6(b)可以看出,在不存在密集目标的情况下,对于场景中的不同尺度目标均具有较高的检测精度,且舰船目标的方位角估计准确。从图6(c)可以看出,提出的模型具有一定的泛化性能,对于场景中的未标注舰船目标仍能检测到,且目标旋转框预测准确。本发明提出的改进模型对于密切目标情况检测效果较差,尤其是目标方位角不是垂直和水平的情况,如图6(d)所示。这主要是因为在目标外观相近的情况下,影响了目标垂直框预测精度,且此时垂直框预测区域包含了更多的临近目标像素,对目标方位角预测精度也产生了影响,即使融合垂直框和旋转框进行目标方位角校正也很难处理目标密集情况。

Claims (4)

1.基于改进YOLOv3的任意方向舰船检测方法,其特征在于该方法包括以下步骤:
步骤(1)、获取SAR图像数据集,该数据集采用(x1,y1,x2,y2,x3,y3,x4,y4)8参数形式描述任意角度的目标框,即目标框的四个角的坐标为x1,y1,x2,y2,x3,y3,x4,y4
步骤(2)、预处理;
对SAR图像数据集的目标框采用最小包围盒估计算法转换为(trx,try,trw,trh,t)5参数形式的目标旋转框;其中trx、try、trw、trh、t分别表示目标旋转框中心的横坐标、纵坐标、目标旋转框的宽度和高度以及目标方位角,目标方位角为x轴沿逆时针方向旋转到与目标旋转框长边重合的角度;
步骤(3)、构建改进YOLOv3模型
改进YOLOv3模型为在常规YOLOv3模型基础上设定输出为(tx,ty,tw,th,trx,try,trw,trh,t,pconf,pclass),其中tx、ty、tw、th分别表示目标预测垂直框的中心横坐标、纵坐标以及目标预测垂直框的宽度和高度,trx、try、trw、trh、t分别表示目标预测旋转框的中心横坐标、纵坐标以及目标预测旋转框的宽度、高度和旋转角,旋转角即为目标方位角,pconf表示检测结果的置信度,pclass为C维向量,代表目标的属于C个类别的概率,此时各尺度特征图检测分支的输出维数增加为[S,S,B×(C+10)],其中S为对应尺度特征图的输出分辨率,B为每个尺度特征图使用的锚框(Anchor)的个数;
改进YOLOv3模型多任务损失函数共包含5部分,具体为:
Loss=Losscoord+Lossrcoord+Lossconf+Lossclass+Lossangle (1)
其中Losscoord为位置估计误差损失,具体公式为:
公式中的i、j代表特征图中第i个坐标点第j个锚框中的结果,在k为x、y、w、h时分别表示目标垂直框中心横坐标、纵坐标、高度、宽度的真实值和预测值,/>表示目标预测输出为正样本情况,即特征图中第i个坐标点第j个锚框预测结果与目标真值的交并比(Intersection OverUnion,IOU)超过阈值为1,否则为0;
Lossrcoord为旋转误差损失,其中rcoord=(trx,try,trw,trh),具体公式为:
其中在l为rx、ry、rw、rh时分别表示目标旋转框中心横坐标、纵坐标、高度、宽度的真实值和预测值;
目标置信度估计误差Lossconf的具体公式为
其中表示目标置信度真值,/>为背景情况,/>为目标置信度预测值;
类别预测误差Lossclass的具体公式为:
其中表示目标属于类别m的真值,/>为目标属于类别m的预测值;
目标方位角估计损失采用均方误差损失,具体定义如下:
其中分别表示旋转框的方位角的预测值和真实值
步骤(4)、目标方位角校正
将改进YOLOv3模型输出的目标预测旋转框外接矩形与改进YOLOv3模型输出的目标预测垂直框计算IOU值,若IOU值小于阈值则认为旋转框中旋转角估计不准确,将目标方位角估计值设定为0°。
2.如权利要求1所述的基于改进YOLOv3的任意方向舰船检测方法,其特征在于训练阶段,首先通过Darknet网络进行特征提取,得到特征图;将上述特征图输入到类FPN结构化网络中,分别得到三个尺度的特征图;再将这三个特征图输入到逻辑回归判断层中,得到判断结果;将这一结果与真实结果通过公式(1)多任务损失函数计算出损失值,再通过反向传播算法调整网络参数。
3.如权利要求1所述的基于改进YOLOv3的任意方向舰船检测方法,其特征在于测试阶段,采用旋转非极大值抑制的方法剔除重检测目标。
4.如权利要求1所述的基于改进YOLOv3的任意方向舰船检测方法,其特征在于在进行预测时,对目标方位角的校正;将改进YOLOv3模型输出的目标预测旋转框外接矩形与改进YOLOv3模型输出的目标预测垂直框计算IOU值,若IOU值小于阈值则认为旋转框中旋转角估计不准确,将目标方位角估计值设定为0°。
CN202011331077.9A 2020-11-24 2020-11-24 基于改进YOLOv3的任意方向舰船检测方法 Active CN112487912B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011331077.9A CN112487912B (zh) 2020-11-24 2020-11-24 基于改进YOLOv3的任意方向舰船检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011331077.9A CN112487912B (zh) 2020-11-24 2020-11-24 基于改进YOLOv3的任意方向舰船检测方法

Publications (2)

Publication Number Publication Date
CN112487912A CN112487912A (zh) 2021-03-12
CN112487912B true CN112487912B (zh) 2024-02-06

Family

ID=74933957

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011331077.9A Active CN112487912B (zh) 2020-11-24 2020-11-24 基于改进YOLOv3的任意方向舰船检测方法

Country Status (1)

Country Link
CN (1) CN112487912B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113469302A (zh) * 2021-09-06 2021-10-01 南昌工学院 一种视频图像的多圆形目标识别方法和系统
CN114444895A (zh) * 2021-12-31 2022-05-06 深圳云天励飞技术股份有限公司 清洁质量评估方法及相关设备
CN117095161B (zh) * 2023-10-20 2023-12-22 云南联合视觉科技有限公司 一种向量化编码的旋转目标检测方法及装置
CN117351440B (zh) * 2023-12-06 2024-02-20 浙江华是科技股份有限公司 基于开放式文本检测的半监督船舶检测方法及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111563414A (zh) * 2020-04-08 2020-08-21 西北工业大学 一种基于非局部特征增强的sar图像舰船目标检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6192910B2 (ja) * 2012-09-04 2017-09-06 富士通テン株式会社 レーダ装置および物標高算出方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111563414A (zh) * 2020-04-08 2020-08-21 西北工业大学 一种基于非局部特征增强的sar图像舰船目标检测方法

Also Published As

Publication number Publication date
CN112487912A (zh) 2021-03-12

Similar Documents

Publication Publication Date Title
CN112487912B (zh) 基于改进YOLOv3的任意方向舰船检测方法
CN101214851B (zh) 船舶行驶智能型全天候主动安全预警系统及其预警方法
CN110414396A (zh) 一种基于深度学习的无人艇感知融合算法
CN112560671B (zh) 基于旋转卷积神经网络的船舶检测方法
CN114612769B (zh) 一种融入局部结构信息的集成感知红外成像舰船检测方法
CN113643284B (zh) 基于卷积神经网络的极化合成孔径雷达图像舰船检测方法
CN109213204A (zh) 基于数据驱动的auv海底目标搜寻航行系统及方法
CN109829423A (zh) 一种结冰湖泊红外成像检测方法
CN103971370A (zh) 一种针对遥感大图像的海洋溢油智能检测方法
CN113420594A (zh) 基于改进Faster R-CNN的SAR图像舰船检测方法
Zhang et al. Nearshore vessel detection based on Scene-mask R-CNN in remote sensing image
CN107169412B (zh) 基于混合模型决策的遥感图像靠港船只检测方法
CN116168028A (zh) 低可见度下基于边缘滤波的高铁原始图像处理方法和系统
Ge et al. Research On Ship Small Target Detection In SAR Image Based On Improved YOLO-v7
Zou et al. Sonar Image Target Detection for Underwater Communication System Based on Deep Neural Network.
Wang et al. Scattering Information Fusion Network for Oriented Ship Detection in SAR Images
Wan et al. Orientation Detector for Small Ship Targets in SAR Images Based on Semantic Flow Feature Alignment and Gaussian Label Matching
CN117876664A (zh) 一种光电经纬仪目标跟踪辅助方法
CN111127506A (zh) 一种基于序列图像的海上运动目标综合检测方法
CN113484864B (zh) 面向无人艇的航海雷达与光电吊舱协同环境感知方法
Jian et al. Maritime target detection and tracking
Li et al. A sea–sky–line detection method for long wave infrared image based on improved Swin Transformer
Wang et al. The unified object detection framework with arbitrary angle
Li et al. Research status and prospect for maritime object monitoring technology
Zhang et al. Review on light vision detection of surface obstacles for USV

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant