CN114973014A - 基于多网络级联的飞机目标细粒度检测方法及系统 - Google Patents

基于多网络级联的飞机目标细粒度检测方法及系统 Download PDF

Info

Publication number
CN114973014A
CN114973014A CN202210584494.7A CN202210584494A CN114973014A CN 114973014 A CN114973014 A CN 114973014A CN 202210584494 A CN202210584494 A CN 202210584494A CN 114973014 A CN114973014 A CN 114973014A
Authority
CN
China
Prior art keywords
network
detection
target
cascade
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210584494.7A
Other languages
English (en)
Inventor
李润生
胡庆
潘超凡
牛朝阳
刘伟
许岩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Information Engineering University of PLA Strategic Support Force
Original Assignee
Information Engineering University of PLA Strategic Support Force
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Information Engineering University of PLA Strategic Support Force filed Critical Information Engineering University of PLA Strategic Support Force
Priority to CN202210584494.7A priority Critical patent/CN114973014A/zh
Publication of CN114973014A publication Critical patent/CN114973014A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于卫星遥感目标识别技术领域,特别涉及一种基于多网络级联的飞机目标细粒度检测方法及系统,通过构建用于目标检测的级联网络模型,所述级联网络模型包含:用于定位输入数据中目标并获取目标切片的旋转检测网络,及用于对目标切片进行细粒度分类识别的二级分类网络;收集带有标注标签的卫星遥感影像飞机检测样本数据集,并将收集的样本数据集按照预设比例划分为训练样本集、验证样本集及测试样本集,并分别对级联网络模型进行训练、调优和评估,确认最终用于目标检测识别的级联网络模型;利用级联网络模型对待检测输入数据进行目标检测识别。本发明将飞机检测和类型识别功能从单一网络中分离,便于充分利用公开数据集进行网络模型训练,分别提高检测和类型识别准确性。

Description

基于多网络级联的飞机目标细粒度检测方法及系统
技术领域
本发明属于卫星遥感目标识别技术领域,特别涉及一种基于多网络级联的飞机目标细粒度检测方法及系统。
背景技术
飞机的检测和识别是光学遥感图像解释领域的一项重要任务。随着遥感影像分辨率的提高,可以捕捉到目标越来越多的色彩、纹理和空间信息,使得进一步准确分析判读飞机的属性和型号成为现实。遥感影像飞机的细粒度检测包含飞机目标的方位预测和型号细粒度识别,由于成像背景、阴影、光照、分辨率、姿态、视点、飞机涂装和不同类型飞机外型相似等复合因素,飞机的型号识别一直是一项充满挑战性的任务。
遥感影像飞机目标的细粒度检测存在以下几个难点:一是飞机目标的类内多样性和类间相似性给型号识别带来挑战,比如以波音707为原型改造的运输机C-135、电子侦察机RC-135和空中加油机KC-135在外形上就极具相似性,需要通过识别特定部件的细小差别才能区分,对网络的鉴别能力提出了更高的要求,而同一类型飞机又会由于颜色、成像角度、背景等因素导致差异性。二是数据集稀缺,现有开源的包含飞机型号的目标检测数据集很少,多数机型的数量仅有几十架,类别不平衡、有限的数据样本和低质量影像给训练鲁棒的目标检测网络带来挑战,单一网络泛化性能不足,在同时实现目标定位和机型识别时的精度有待提升。
发明内容
为此,本发明提供一种基于多网络级联的飞机目标细粒度检测方法及系统,将飞机检测和类型识别的功能从单一网络中分离出来,可以分别提高检测和类型识别的准确性,便于充分利用公开数据集进行网络模型训练,可适用于不同场景和分辨率下目标型号分类识别。
按照本发明所提供的设计方案,提供一种基于多网络级联的飞机目标细粒度检测方法,包含如下内容:
构建用于目标检测的级联网络模型,所述级联网络模型包含:用于定位输入数据中目标并获取目标切片的旋转检测网络,及用于对目标切片进行细粒度分类识别的二级分类网络;
收集带有标注标签的卫星遥感影像飞机检测样本数据集,并将收集的样本数据集按照预设比例划分为训练样本集、验证样本集及测试样本集;
利用训练样本集中的数据对级联网络模型进行训练,利用验证样本集中的数据对训练后的级联网络模型进行调优,并利用测试样本集中的数据对调优后的级联网络模型进行评估,确认最终用于目标检测识别的级联网络模型;
利用确认后的级联网络模型对待检测输入数据进行目标检测识别。
作为本发明基于多网络级联的飞机目标细粒度检测方法,进一步地,旋转检测网络中,利用YOLOv5作为框定输入数据目标位置并获取检测框中目标切片的主干网络,并在主干网络输出层上添加用于角度分类回归的角度预测回归器。
作为本发明基于多网络级联的飞机目标细粒度检测方法,进一步地,主干网络中采用六参数定义水平回归框,具体定义内容描述如下:(category,x,y,w,h,θ),其中,category表示类别序号,(x,y)表示检测框中心点坐标,w表示矩形检测框较长边,h表示矩形检测框短边,θ表示x轴沿顺时针方向旋转遇到矩形检测框最长边所经过的角度。
作为本发明基于多网络级联的飞机目标细粒度检测方法,进一步地,旋转检测网络中,使用高斯窗口函数进行标签平滑处理,以使网络衡量预测标签和真实标签之间的角度距离;并利用纵横比感知权重函数来约束检测框在旋转角度下的纵横比。
作为本发明基于多网络级联的飞机目标细粒度检测方法,进一步地,高斯窗口函数表示为:
Figure BDA0003665356370000021
其中,σ为窗函数方差,r为窗函数半径;纵横比感知权重函数表示为:
Figure BDA0003665356370000022
其中,hgt和wgt分别为检测框长边和短边,r为纵横比阈值,α为调节权重窗口超参数,Δθ表示预测角度值与真实值之差,θgt表示目标角度真实值,θpred表示角度预测值。
作为本发明基于多网络级联的飞机目标细粒度检测方法,进一步地,旋转检测网络的目标损失函数表示为:Loss=λ1Lbox2Lcls3Lconf4Lθ,其中,λ1,λ2,λ3,λ4分别为位置损失Lbox,分类损失Lcls,置信度损失Lconf和角度损失Lθ的超参数。
作为本发明基于多网络级联的飞机目标细粒度检测方法,进一步地,二级分类网络采用EfficientNet-v2s网络结构,并该网络结构的池化层输出侧增加由多个子分类器构建集成学习模块和对提取特征进行约束的Fisher正则化判别层。
作为本发明基于多网络级联的飞机目标细粒度检测方法,进一步地,二级分类网络中,利用EfficientNet-v2s网络结构提取一级特征,并按照设定比率随机选取所有一级特征中的特征数据,将选取的特征数据进行融合产生二级特征;利用子分类器对每个二级特征进行预分类,并将所有子分类器的预分类结果通过平均加权生成最终分类结果。
作为本发明基于多网络级联的飞机目标细粒度检测方法,进一步地,二级分类网络的目标损失函数表示为:
Figure BDA0003665356370000031
其中,λ012分别为分类损失函数J0(X,Y),提取特征施加Fisher判别正则化函数J1(X)及权重衰减项函数
Figure BDA0003665356370000032
的超参数,X,Y分别为输入数据及其对应标签。
进一步地,本发明还提供一种基于多网络级联的飞机目标细粒度检测系统,包含:模型构建模块、样本收集模块、模型训练模块及目标识别模块,其中,
模型构建模块,用于构建用于目标检测的级联网络模型,所述级联网络模型包含:用于定位输入数据中目标并获取目标切片的旋转检测网络,及用于对目标切片进行细粒度分类识别的二级分类网络;
样本收集模块,用于收集带有标注标签的卫星遥感影像飞机检测样本数据集,并将收集的样本数据集按照预设比例划分为训练样本集、验证样本集及测试样本集;
模型训练模块,用于利用训练样本集中的数据对级联网络模型进行训练,利用验证样本集中的数据对训练后的级联网络模型进行调优,并利用测试样本集中的数据对调优后的级联网络模型进行评估,确认最终用于目标检测识别的级联网络模型;
目标识别模块,用于利用确认后的级联网络模型对待检测输入数据进行目标检测识别。
本发明的有益效果:
本发明将飞机检测和类型识别的功能从单一网络中分离出来,可以分别提高检测和类型识别的准确性;另,因包含飞机型号的公开数据集较少,制作数据集耗时费力,该级联网络可以充分利用公开数据集训练鲁棒的飞机检测网络,增强在航空和卫星影像中的通用性,保证飞机检测的召回率;然后只需要采集一些各类飞机切片,对其进行缩放、雾化、旋转、亮度变化、对比度变化、场景迁移等数据增强操作,就可以生成大量的不同分辨率、不同姿势、不同光线、不同背景下的飞机切片,保证二级分类网络可以适应不同场景和分辨率下的机型分类,如果后续需要增加新的目标类别,只需要对二级分类网络进行微调或增量学习就能够很方便应用;解决光学遥感影像中的多方向密集排列、多种型号飞机目标的方向检测和型号识别困难问题。并进一步结合数据增强技术,通过集成学习和Fisher判别正则化改进分类网络,提升机型分类精度,使得本案方案在整体检测精度方面具有更大优势,具有较好的应用前景。
附图说明:
图1为实施例中飞机目标细粒度检测方法流程示意;
图2为实施例中级联网络模型结构示意;
图3为实施例中旋转检测网络结构示意;
图4为实施例中PoA和EoE问题示意;
图5为实施例中长边定义法示意;
图6为实施例中类正方形目标IoU精度和损失值不一致示意;
图7为实施例中二级分类网络结构示意;
图8为实施例中样本标签可视化示意;
图9为实施例中选取部分目标样例示意;
图10为实施例中数据增广方法示意;
图11为实施例中DOTA测试集上的检测结果示意;
图12为实施例中改进网络在测试集上的混淆矩阵示意;
图13为实施例中单级网络检测结果混淆矩阵示意;
图14为实施例中对比算法对各类目标检测精度的柱状图示意;
图15为实施例中对比算法在不同场景下的检测结果示意;
图16为实施例中本案算法在未知机场的检测结果示意。
具体实施方式:
为使本发明的目的、技术方案和优点更加清楚、明白,下面结合附图和技术方案对本发明作进一步详细的说明。
本发明实施例,参见图1所示,提供一种基于多网络级联的飞机目标细粒度检测方法,包含如下内容:
S101、构建用于目标检测的级联网络模型,所述级联网络模型包含:用于定位输入数据中目标并获取目标切片的旋转检测网络,及用于对目标切片进行细粒度分类识别的二级分类网络;
S102、收集带有标注标签的卫星遥感影像飞机检测样本数据集,并将收集的样本数据集按照预设比例划分为训练样本集、验证样本集及测试样本集;
S103、利用训练样本集中的数据对级联网络模型进行训练,利用验证样本集中的数据对训练后的级联网络模型进行调优,并利用测试样本集中的数据对调优后的级联网络模型进行评估,确认最终用于目标检测识别的级联网络模型;
S104、利用确认后的级联网络模型对待检测输入数据进行目标检测识别。
本案实施例中,将飞机检测和类型识别的功能从单一网络中分离出来,可以分别提高检测和类型识别的准确性,以提升目标检测识别效果。
为提高遥感影像飞机目标细粒度检测的水平,可利用构建的大型光学卫星遥感影像飞机检测数据集FDDA来作为样本数据。FDDA数据能够获取自高分、WorldView、Quickbird等国内外遥感卫星,拍摄地区包括各个区域的机场,影像空间分辨率介于1m~2m之间,可通过采集不同季节、不同视点、不同光照条件下的影像数据,以保证数据集的多样性。
FDDA数据集包含2 244幅尺寸为800*800像素~13 680*8 392像素不等的卫星遥感影像,可按照6:2:2的比例划分为训练集、验证集和测试集,分别包含1 346、449、449张影像,存储格式为.tif,数据量为46.2GB。经过专家判读,数据集中飞机目标实例总数为17506个,包括轰炸机、预警机、运输机、加油机、战斗机、客机和直升机7个大类,根据具体型号又可分为13个小类,表1中展示了数据集的具体分类情况以及各类别数量统计,各类目标数量分布稍微有些不均衡,最大相差约8倍。部分类的目标个体实例,除了一些由民航改装的加油机和侦察机需要通过飞机翼型、机长翼展比等非常细微的特征点去辨别外,其他型号在外形布局上具有比较明显的区分特征。
表1 FDDA数据集包含的飞机类别
Figure BDA0003665356370000051
所有目标实例可通过rolabelImg进行标注,标注样式可选择为旋转框,标注信息为(cx,cy,w,h,angle),分别表示中心点坐标(cx,cy)、标注框的宽和高(w,h)和标注框顺时针旋转的角度,角度范围为(0,π)。
本案实施例中,参见图2所示,为了实现对影像中的飞机细粒度检测,级联网络首先使用旋转检测算法从影像中框定飞机的位置,然后,切割检测框中的飞机目标,通过以EfficientNetV2-S为主体的细粒度分类网络实现快速精准的分类。
进一步地,本案实施例的旋转检测网络中,利用YOLOv5作为框定输入数据目标位置并获取检测框中目标切片的主干网络,并在主干网络输出层上添加用于角度分类回归的角度预测回归器。
基于旋转框的飞机检测算法可以有效地减少目标框中的冗余背景信息,实现更准确的定位预测。如图3所示的旋转检测网络,包括预测参数、损失函数等,以确保模型的功能实现和正确的收敛,主干网络采用YOLOv5,在检测输出阶段,添加角度预测模块,并修改相应的损失函数,利用纵横比感知权重函数来解决类正方形目标带来的角度损失突变问题,以实现更好的旋转检测功能。
进一步地,本案实施例的旋转检测网络中,使用高斯窗口函数进行标签平滑处理,以使网络衡量预测标签和真实标签之间的角度距离;并利用纵横比感知权重函数来约束检测框在旋转角度下的纵横比。
定向检测框参数化的主流方法主要有八参数定义法(xa,ya,xb,yb,xc,yc,xd,yd)和五参数定义法(x,y,w,h,θ),鉴于YOLOv5使用中心坐标和宽高(x,y,w,h)定义水平回归框。本案实施例中,增加一个角度参数θ来实现定向水平框的设定。但是五参数定义法存在损失不连续的问题,主要来源于角度的周期性(periodicity of angular,PoA)和边缘的可交换性(exchangeability of edges,EoE),如图4所示,浅灰是标签位置,角度为0°,当浅灰框逆时针旋转2°时到达黑色框位置,此时检测框的角度为2°;当浅灰框顺时针旋转2°时到达深灰框的位置,此时检测框的角度为178°,这两种旋转方式的实际角度误差值很小,损失值却产生了一个周期的突变,增加了稳定收敛的难度;(b)表示在预测目标框时,发生了宽高互换现象,Opencv定义法规定的角度值是指目标框与x轴所成的锐角,范围为[-90°,0°),由于理想的回归方式超出了角度设定范围,需要顺时针旋转至过渡框,再进行边的交换得到最终预测框,这样的回归方式导致损失值较大。
为了解决以上两个问题,可把角度回归问题转化为分类问题,通过限制预测结果的范围来消除边界损失突变问题,并使用长边定义法进行角度标记,如图5所示,数据标签可采用(category,x,y,w,h,θ)六参数形式,其中category表示类别序号,(x,y)表示检测框的中心点坐标,w表示检测框较长的那一边,h表示另一条短边,θ表示x轴沿顺时针方向旋转遇到检测框最长边所经过的角度,范围是[0°,179°]。进一步,可将角度回归分为180类,间隔1°划分为一类,这样划分虽然无法预测出0.5°中间值,但对最终精度影响很小。
由于角度预测转换成分类回归之后,角度真值就变成了离散的独热码,所以在角度分类损失计算时,传统的交叉熵损失函数并不能真实反映角度间的距离,比如当真实值为0°时,预测成1°和90°时候的损失值可能是一样的,但现实中应该允许预测值接近真实值,即对于真实角度为0°时,预测成179°时或者1°是能够接受的。所以在交叉熵计算损失之前,可使用高斯窗口函数进行标签平滑处理,使得模型可以衡量预测标签和真实标签之间的角度距离,即在一定范围内,越靠近真实值的预测值的损失值越小,以此实现更加鲁棒的角度预测。高斯窗口函数表达如下所示:
Figure BDA0003665356370000071
式中:σ是窗函数的方差;r是窗函数的半径,σ默认为6;θ表示目标框的真实角度。
“角度分类+长边定义法”较好地解决了边界损失不连续问题,但是无法较好地定义一个类正方形目标,如图6所示,类正方形目标两边长近似相等,长边和短边的预测顺序容易相反,而且位置损失误差依然很小,(c)表示两个相同的目标框在不同旋转角度下的交并比曲线,每一条曲线代表一类纵横比,可以看出,当目标框旋转90°时,目标的长宽比越小,交并比越接近1,但是这两个目标框的预测角度却相差约90°,也就是目标IoU的评估和角度损失之间存在不一致性。为此,本案实施例中,利用纵横比感知权重函数(AspectRatio Sensitive Weighting Function,ARSWF),具体公式如下:
Figure BDA0003665356370000072
式中:hgt和wgt是真实框的长边和短边;r是纵横比阈值,可从图6的(c)中选取r=1.1;α是调节权重窗口的超参数,默认取20。该函数可以灵活地针对不同纵横比的目标调整训练策略,以
Figure BDA0003665356370000073
为周期抑制类正方形目标的角度损失,缓解不一致性,促进网络收敛。
旋转检测网络将损失函数分为位置损失(Lbox)、分类损失(Lcls)、置信度损失(Lconf)和角度损失(Lθ),定义如下:
Loss=λ1Lbox2Lcls3Lconf4Lθ.
式中,超参数λ1,λ2,λ3,λ4控制这四项损失的平衡,默认设置为{1,0.5,1,1}。
设定(x,y,w,h,θ)、
Figure BDA0003665356370000081
分别代表真实标注框和预测框的参数,位置回归损失Lbox考虑覆盖面积、中心点距离和长宽比这三个因素,使用CIOU计算,如下所示:
Figure BDA0003665356370000082
式中,IOU表示真实标注框和预测框的交并比;
Figure BDA0003665356370000083
表示两中心点坐标的欧氏距离;c表示标注框和预测框最小外接矩形的对角线长度;
Figure BDA0003665356370000084
表示标注框与预测框长宽比的距离。
可使用多分类交叉熵计算分类损失Lcls和角度损失Lθ,如下所示:
Figure BDA0003665356370000085
Figure BDA0003665356370000086
式中,N代表检测框的总数;C代表类别数,在角度损失中即为180类;I是符号函数,当第i个检测框的真实类别为j类时,值为1,否则为0;pij表示网络输出的类别预测值;w(Δθ)代表纵横比感知权重函数。
置信度损失函数设置如下所示:
Figure BDA0003665356370000087
式中,N代表检测框的总数;confi表示置信度的预测值,对检测框为正样本的置信度真值不直接赋1,而是计算对应检测框与真实框的CIOU,使用CIOU作为该检测框的置信度标签,对检测框为负样本的置信度真值还是直接赋0,这样一来,标签值的大小与检测框、真实框的重合度有关,重合程度越高则标签值越大;若检测框为正样本,则
Figure BDA0003665356370000088
否则
Figure BDA0003665356370000089
进一步地,本案实施例中,二级分类网络采用EfficientNet-v2s网络结构,并该网络结构的池化层输出侧增加由多个子分类器构建集成学习模块和对提取特征进行约束的Fisher正则化判别层。二级分类网络中,利用EfficientNet-v2s网络结构提取一级特征,并按照设定比率随机选取所有一级特征中的特征数据,将选取的特征数据进行融合产生二级特征;利用子分类器对每个二级特征进行预分类,并将所有子分类器的预分类结果通过平均加权生成最终分类结果。
光学遥感影像中目标的类内相异性、类间相似性以及尺寸方向变换等情况降低了目标检测器的性能,不同型号飞机目标之间尺寸接近、形状类似,类间特征差别较小,难以精细识别;同型号飞机之间受可变掠翼张角不同、涂装、自身阴影等影响,容易产生错误分类。本案实施例中,基于EfficientNetV2-S模型利用一个轻量的细粒度分类子网络,通过利用多个子分类器构建集成学习模块、引入Fisher判别正则化对CNN提取的特征施加约束来提升分类效果,整体网络架构如图7所示,分类网络的主体结构是EfficientNetV2-S,在池化层后,增加集成学习模块和Fisher正则化函数。
EfficientNetV2是谷歌大脑提出的一种新型高效分类网络。它基于感知神经架构搜索技术,获得一组最优的复合系数,将MBConv、fusion-MBConv、网络深度和宽度等进行缩放和组合。通过限制输入图像的最大尺寸和使用渐进学习方案,实现了参数效率和分类精度之间的完美平衡。考虑到网络复杂度对检测时间的影响,本案实施例中,采用参数最少的EfficientnetV2-S网络,在池化层后,构建多个子分类器进行集成学习,并增加Fisher正则化约束以提高分类效果。
在机器学习中,通过构建多组基分类器组成一个预测模型的元算法,以此来增强模型的稳定性和鲁棒性。本案实施例中,增加的集成学习模块使用多个子分类器实现优势互补,试图通过群体决策来提升模型学习能力,解决单一分类器性能不足的问题,各子分类器之间差异性越大,集成效果越好。基于EfficientNetV2-S网络提取一级特征,可按照设定比率60%对所有的一级特征进行随机选取,融合产生新的二级特征,给每个二级特征分别训练一个子分类器进行预分类,最后平均加权所有子分类器的预分类结果,生成最终的分类结果,如下式所示:
Figure BDA0003665356370000091
式中:T表示子分类器总个数,默认T=7;hi(x)表示第i个子分类器的输出结果。
其次,通过优化一个新的目标函数对CNN提取的一级特征施加Fisher判别准则来训练Fisher判别层,使目标分类具有较小的类内离散和较大的类间离散度,以提升细粒度分类的精度。给定一组训练样本X={x1,x2,x3,...}及其相应标签Y={yxi,xi∈X},新的目标函数表达如下:
Figure BDA0003665356370000092
式中:λ012是衡量各项重要性的超参数,这里分别设置为[1,0.005,0.0005]。第一项是分类损失函数,它是使用标签平滑-负对数似然准则定义的。其目的是最小化给定训练样本的分类误差,计算如下:
Figure BDA0003665356370000101
式中:K表示总类别数,Os(xi)表示第i类目标的softmax输出,
Figure BDA0003665356370000102
表示平滑处理后的标签值,ε是一个很小的常数,设为0.1。
第二项J1(X)是对训练样本提取的特征施加Fisher判别正则化,目的是最小化类内离散度(SW(X)),最大化类间离散度(SB(X)),对于训练样本x∈X,SW(X)和SB(X)定义如下:
Figure BDA0003665356370000103
Figure BDA0003665356370000104
式中:O(x)表示池化层后输出的一级特征,nk表示第k类目标的样本总数,mk表示第k类目标的平均特征值,m表示全部训练样本的平均特征值。判别正则化J1(X)定义如下:
J1(X)=tr(SW(X))-tr(SB(X)).
式中:tr(X)表示矩阵X的对角线总和。第三项是权重衰减项,降低网络过拟合的可能性。
进一步地,基于上述的方法,本发明实施例还提供一种基于多网络级联的飞机目标细粒度检测系统,包含:模型构建模块、样本收集模块、模型训练模块及目标识别模块,其中,
模型构建模块,用于构建用于目标检测的级联网络模型,所述级联网络模型包含:用于定位输入数据中目标并获取目标切片的旋转检测网络,及用于对目标切片进行细粒度分类识别的二级分类网络;
样本收集模块,用于收集带有标注标签的卫星遥感影像飞机检测样本数据集,并将收集的样本数据集按照预设比例划分为训练样本集、验证样本集及测试样本集;
模型训练模块,用于利用训练样本集中的数据对级联网络模型进行训练,利用验证样本集中的数据对训练后的级联网络模型进行调优,并利用测试样本集中的数据对调优后的级联网络模型进行评估,确认最终用于目标检测识别的级联网络模型;
目标识别模块,用于利用确认后的级联网络模型对待检测输入数据进行目标检测识别。
为验证本案方案有效性,下面结合试验数据做进一步解释说明:
实验采用自建数据集和“天智杯”平台的飞机智能检测识别数据。其中,“天智杯”数据集共有430幅影像,划分训练集308幅,测试集122幅,尺寸为4 096×4 096,数据分辨率为0.5-1m,涵盖不同季节、不同天气、不同视点、不同背景、不同尺度和不同质量的影像,具有丰富的表现形式,部分数据样本标签如图8所示,以旋转框的方式对飞机进行标注,影像背景比较复杂,云雾、周边建筑等其他干扰因素多,目标尺寸多样,部分小目标排列密集,一些飞机目标颜色与背景相近,不容易准确识别。“天智杯”数据集包含11类目标,由于部分型号在训练集和验证集中数量极少,本案可选取其中9类进行试验。部分目标样例如图9所示,飞机型号众多,单一类别飞机可能由1个或多个型号组成,因此同一类别飞机外观存在不一致现象,同时,不同类别的飞机之间存在外观相似性,比如E、F、H、I这4类目标存在形状类似的现象,类间特征差别较小。
此外,DOTA数据集中的飞机目标和数据增广手段将使用于本文的级联网络中。DOTA数据集中197张大尺寸遥感影像融合“天智杯”数据集为定向检测网络提供充分的训练数据。针对分类网络,可制作用于训练机型分类的数据集,部分样本来自于“天智杯”训练样本数据,部分样本截取自“谷歌地球”,采用缩放、旋转、亮度变化、对比度变化、场景迁移等数据增广操作进行了目标样本制作和扩充,其中训练样本24 277个,测试样本6412个,数据增强效果如图10所示。
实验运行环境为Ubuntu 20.04,GPU为NVIDIA Quadro RTX 5000(显存为16G),CPU为Intel(R)Xeon(R)Gold 6128,CUDA10.2+Pytorch1.7.1。对于定向检测网络,设置训练循环周期epochs=120,batch_size=4,选择随机梯度下降法SGD作为优化器,设置动量因子为0.937,权重衰减系数为0.000 5,初始学习率设为0.05,训练120轮,通过设置函数lr_sc=0.05*((1+cos(x*π/120))/2+0.01),x∈[0,119],使学习率平滑地从0.05降至0.0005。对于分类网络,设置训练循环周期epochs=80,batch_size=16,选择衰减系数为0.9、动量因子为0.9的均方根传递算法(RMSProp)作为优化器,权重衰减系数为0.000 05,初始学习率设为0.01,每2.4个epoch学习率下降至97%。
首先,通过多组实验研究纵横比权重函数(ARSWF)的有效性及其超参数α的选择。从DOTA数据集中筛选飞机(PL)、储罐(ST)和环形交叉路口(RA)这三种类正方形的目标进行实验。实验结果如表2所示,mAP50表示IoU阈值取0.5的三类目标平均精度,结果表明,使用纵横比感知权重函数可以加速损失函数收敛,促进类正方形物体检测精度的提高。α决定了损失抑制窗口的大小,当α=0的时候,ARSWF是一个恒定的函数0,完全抑制了角度损失值,无法进行训练;当α比较小的时候,函数的抑制窗口相对较大,它会抑制正常的角度损失值,影响正常的训练效果。当α很大的时候,抑制窗口接近脉冲函数,ARSWF在特定角度值附近的容错率会降低。实验结果也表明,α适当取值的效果是最好的,三类目标的总体精度提高了1.5%。
表2在不同超参数α下的检测结果比较
Figure BDA0003665356370000121
为进一步验证旋转检测网络的性能,在完整的DOTA测试集上进行了对比验证。表3结果显示,与其他优秀的旋转网络相比,本案算法具有良好的性能,对于大纵横比目标,如桥梁(BD)、船舶(SH)和港口(HA)等,仍然具有良好的检测精度。检测效果图如图11所示,面对复杂的影像背景、密集的小目标、以及大纵横比的物体都获得了不错的检测效果。
表1本案算法与其他优秀旋转检测算法在DOTA数据集上的对比结果
模型 PL BD BR GTF SV LV SH TC BC ST SBF RA HA SP HC mAP50
RoI-Transformer 88.64 78.52 43.44 75.92 68.81 73.68 83.59 90.74 77.27 81.46 58.39 53.54 62.83 58.93 47.67 69.56
O2-DNet 89.31 82.14 47.33 61.21 71.32 74.03 78.62 90.76 82.23 81.36 60.93 60.17 58.21 66.98 61.03 71.04
P-RSDet 88.58 77.84 50.44 69.29 71.10 75.79 78.66 90.88 80.10 81.71 57.92 63.03 66.30 69.77 63.13 72.30
SCRDet 89.98 80.65 52.09 68.36 68.36 60.32 72.41 90.85 87.94 86.86 65.02 66.68 66.25 68.24 65.21 72.61
FADet 90.21 79.58 45.49 76.41 73.18 68.27 79.56 90.83 83.40 84.68 53.40 65.42 74.17 69.69 64.86 73.28
R3Det 89.49 81.17 50.53 66.10 70.92 78.66 78.21 90.81 85.26 84.23 61.81 63.77 68.16 69.83 67.17 73.74
Gliding Vertex 89.64 85.00 52.26 77.34 73.01 73.14 86.82 90.74 79.02 86.81 59.55 70.91 72.94 70.86 57.32 75.02
BBAVectors 88.63 84.06 52.13 69.56 78.26 80.40 88.06 90.87 87.23 86.39 56.11 65.62 67.10 72.08 63.96 75.36
FFA 90.1 82.7 54.2 75.2 71.0 79.9 83.5 90.7 83.9 84.6 61.2 68.0 70.7 76.0 63.7 75.7
FPN-CSL 90.25 85.53 54.64 75.31 70.44 73.51 77.62 90.84 86.15 86.69 69.60 68.04 73.83 71.10 68.93 76.17
本案算法 90.46 85.69 54.67 65.45 81.13 83.43 88.34 90.75 87.17 88.23 59.79 68.44 76.72 79.58 66.40 77.75
其次,为了测试改进分类网络对机型分类性能的提升效果,在自建数据集上,设计了多组消融实验,如表4所示,可以看出,本案方案中两个改进模块都可以提升EfficientNetV2-S进行机型分类的效果,集成学习模块提升了1.2%的分类精度,但增加了1M参数量,说明使用多个子分类器抽取不完全一样的特征,可以更加充分地解析目标图像的信息,从而获得比单一分类器更好的分类效果;Fisher正则化器提升了1个百分点,在一定程度上可以减小类内离散度和扩大类间离散度,而且没有增加参数负担,这两个模块组合的分类精度最好,共提升2%的分类精度。
表4分类网络消融实验结果
Figure BDA0003665356370000131
图12是改进分类网络在测试集上得到的混淆矩阵,对角线为各机型分类的准确率,其余位置为分类错误率,颜色越深代表占比越大。可以看到9类型号中有8类型号的准确率达到了90%以上,I类型号的准确率最低为88.7%,其中A类错分成E类较多,C、F、H、I类目标相互错分较多。
然后,算法由“YOLOv5+角度分类器(CSL)+分类网络”构成,为验证多网络级联的效果,首先在FDDA数据集上与端到端的单级网络“YOLOv5+CSL”进行对比,实验中,在级联网络里使用与YOLOv5+CSL相同的训练权重实现一类飞机目标的定向检测。图13是单级网络检测结果的混淆矩阵图,表5是级联网络与单级网络的实验结果对比。从图13中可以看出,除了存在背景误检和目标漏检的因素外,单级网络对机型分类的好坏很大程度上影响了检测精度,比如F-16和F-22被过多地划分为F-15,导致战斗机类目标检测精度整体偏低。表5实验结果表明,在飞机定位精度相同的前提下,使用级联网络可以实现更加精准的型号分类。
表5在FDDA测试集上的实验结果对比
Figure BDA0003665356370000132
表6级联网络与其他算法的检测性能对比
Figure BDA0003665356370000133
表6展示了级联网络与CSL、BBAVectors、R3Det等优秀旋转检测算法在“天智杯”数据集上的检测性能对比结果,图14是他们对各类目标检测精度的柱状图。根据表6和图14可知,相对于其他3种方法,本案算法在A、D、G、I这五类飞机目标中的检测精度得到了较大的提升。其中D、G是战斗机和MV-22等类型的小目标,在低分辨率和复杂背景中较难精准检测,本案中级联网络在一定程度上提升了小目标的检测率;A、E、F、H、I类目标外观特征比较相近,有一些机型改装自民航客机,差别较小,容易分类错误,本案中二级细粒度分类网络能够较好地区分它们之间的特征差别,显著提高了模型的性能,在这四类网络中表现最好。
为了更直观地展现改进算法的检测性能,实验截取3个具有代表性的测试集场景,依次是光线暗淡、云雾缭绕的机场;分布具有与民航特征相似机型的机场;分布较多小目标的机场。如图15所示,从检测结果中看出,在基本能够检测出飞机目标的前提下,本案算法的分类效果是最好的,在3类场景中,仅有两架飞机分类错误和一架直升机漏检,而其他算法在区分F、H、I类飞机上面出现较多错误,CSL和BBVectors对小目标存在更多漏检。
最后,为验证本案算法具有良好的泛化性能,从“谷歌地球”上获取某一未知机场的遥感影像,尺寸大小为10 696*6 204,分辨率为1m,整体检测效果如图16所示。选择A、B、C三个区域放大分析,这三个区域的飞机目标均实现了全部检测,没有出现虚警和漏警。在机型分类效果上,仅有A区域1架和C区域1架飞机分类错误;而在目标方向检测中,由于D型号飞机偏小,像素信息不足,在检测的时候难以分辨排列方向,区域B有5架飞机的机头方向与检测框出现了偏差,这也是导致D类飞机检测精度较低的一个重要原因。但总体来说,本案中级联网络可以有效应对不同场景、不同尺寸,不同排列下的多型号飞机目标检测,具有良好的泛化性能。
除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对步骤、数字表达式和数值并不限制本发明的范围。
基于上述的方法和/或系统,本发明实施例还提供一种服务器,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现上述的方法。
基于上述的方法和/或系统,本发明实施例还提供一种计算机可读介质,其上存储有计算机程序,其中,该程序被处理器执行时实现上述的方法。
在这里示出和描述的所有示例中,任何具体值应被解释为仅仅是示例性的,而不是作为限制,因此,示例性实施例的其他示例可以具有不同的值。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。

Claims (10)

1.一种基于多网络级联的飞机目标细粒度检测方法,其特征在于,包含如下内容:
构建用于目标检测的级联网络模型,所述级联网络模型包含:用于定位输入数据中目标并获取目标切片的旋转检测网络,及用于对目标切片进行细粒度分类识别的二级分类网络;
收集带有标注标签的卫星遥感影像飞机检测样本数据集,并将收集的样本数据集按照预设比例划分为训练样本集、验证样本集及测试样本集;
利用训练样本集中的数据对级联网络模型进行训练,利用验证样本集中的数据对训练后的级联网络模型进行调优,并利用测试样本集中的数据对调优后的级联网络模型进行评估,确认最终用于目标检测识别的级联网络模型;
利用确认后的级联网络模型对待检测输入数据进行目标检测识别。
2.根据权利要求1所述的基于多网络级联的飞机目标细粒度检测方法,其特征在于,旋转检测网络中,利用YOLOv5作为框定输入数据目标位置并获取检测框中目标切片的主干网络,并在主干网络输出层上添加用于角度分类回归的角度预测回归器。
3.根据权利要求2所述的基于多网络级联的飞机目标细粒度检测方法,其特征在于,主干网络中采用六参数定义水平回归框,具体定义内容描述如下:(category,x,y,w,h,θ),其中,category表示类别序号,(x,y)表示检测框中心点坐标,w表示矩形检测框较长边,h表示矩形检测框短边,θ表示x轴沿顺时针方向旋转遇到矩形检测框最长边所经过的角度。
4.根据权利要求3所述的基于多网络级联的飞机目标细粒度检测方法,其特征在于,旋转检测网络中,使用高斯窗口函数进行标签平滑处理,以使网络衡量预测标签和真实标签之间的角度距离;并利用纵横比感知权重函数来约束检测框在旋转角度下的纵横比。
5.根据权利要求4所述的基于多网络级联的飞机目标细粒度检测方法,其特征在于,高斯窗口函数表示为:
Figure FDA0003665356360000011
其中,σ为窗函数方差,r为窗函数半径;纵横比感知权重函数表示为:
Figure FDA0003665356360000012
其中,hgt和wgt分别为检测框长边和短边,r为纵横比阈值,α为调节权重窗口超参数,Δθ表示预测角度值与真实值之差,θgt表示目标角度真实值,θpred表示角度预测值。
6.根据权利要求1所述的基于多网络级联的飞机目标细粒度检测方法,其特征在于,旋转检测网络的目标损失函数表示为:Loss=λ1Lbox2Lcls3Lconf4Lθ,其中,λ1,λ2,λ3,λ4分别为位置损失Lbox,分类损失Lcls,置信度损失Lconf和角度损失Lθ的超参数。
7.根据权利要求1所述的基于多网络级联的飞机目标细粒度检测方法,其特征在于,二级分类网络采用EfficientNet-v2s网络结构,并该网络结构的池化层输出侧增加由多个子分类器构建集成学习模块和对提取特征进行约束的Fisher正则化判别层。
8.根据权利要求7所述的基于多网络级联的飞机目标细粒度检测方法,其特征在于,二级分类网络中,利用EfficientNet-v2s网络结构提取一级特征,并按照设定比率随机选取所有一级特征中的特征数据,将选取的特征数据进行融合产生二级特征;利用子分类器对每个二级特征进行预分类,并将所有子分类器的预分类结果通过平均加权生成最终分类结果。
9.根据权利要求7或8所述的基于多网络级联的飞机目标细粒度检测方法,其特征在于,二级分类网络的目标损失函数表示为:
Figure FDA0003665356360000021
其中,λ012分别为分类损失函数项J0(X,Y),提取特征施加Fisher判别正则化函数项J1(X)及权重衰减函数项
Figure FDA0003665356360000022
的超参数,X,Y分别为输入数据及其对应标签。
10.一种基于多网络级联的飞机目标细粒度检测系统,其特征在于,包含:模型构建模块、样本收集模块、模型训练模块及目标识别模块,其中,
模型构建模块,用于构建用于目标检测的级联网络模型,所述级联网络模型包含:用于定位输入数据中目标并获取目标切片的旋转检测网络,及用于对目标切片进行细粒度分类识别的二级分类网络;
样本收集模块,用于收集带有标注标签的卫星遥感影像飞机检测样本数据集,并将收集的样本数据集按照预设比例划分为训练样本集、验证样本集及测试样本集;
模型训练模块,用于利用训练样本集中的数据对级联网络模型进行训练,利用验证样本集中的数据对训练后的级联网络模型进行调优,并利用测试样本集中的数据对调优后的级联网络模型进行评估,确认最终用于目标检测识别的级联网络模型;
目标识别模块,用于利用确认后的级联网络模型对待检测输入数据进行目标检测识别。
CN202210584494.7A 2022-05-27 2022-05-27 基于多网络级联的飞机目标细粒度检测方法及系统 Pending CN114973014A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210584494.7A CN114973014A (zh) 2022-05-27 2022-05-27 基于多网络级联的飞机目标细粒度检测方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210584494.7A CN114973014A (zh) 2022-05-27 2022-05-27 基于多网络级联的飞机目标细粒度检测方法及系统

Publications (1)

Publication Number Publication Date
CN114973014A true CN114973014A (zh) 2022-08-30

Family

ID=82956579

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210584494.7A Pending CN114973014A (zh) 2022-05-27 2022-05-27 基于多网络级联的飞机目标细粒度检测方法及系统

Country Status (1)

Country Link
CN (1) CN114973014A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115965627A (zh) * 2023-03-16 2023-04-14 中铁电气化局集团有限公司 一种应用于铁路运营的微小部件检测系统及方法
CN116051632A (zh) * 2022-12-06 2023-05-02 中国人民解放军战略支援部队航天工程大学 一种双通道transformer卫星六自由度姿态估计算法
CN117746193A (zh) * 2024-02-21 2024-03-22 之江实验室 一种标签优化方法、装置、存储介质及电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210374524A1 (en) * 2020-05-31 2021-12-02 Salesforce.Com, Inc. Systems and Methods for Out-of-Distribution Detection
CN114005045A (zh) * 2021-11-01 2022-02-01 中国空间技术研究院 基于轻量级深度神经网络的旋转框遥感目标检测方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210374524A1 (en) * 2020-05-31 2021-12-02 Salesforce.Com, Inc. Systems and Methods for Out-of-Distribution Detection
CN114005045A (zh) * 2021-11-01 2022-02-01 中国空间技术研究院 基于轻量级深度神经网络的旋转框遥感目标检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
QING HU等: "Toward aircraft detection and fine-grained recognition from remote sensing images", 《JOURNAL OF APPLIED REMOTE SENSING》, pages 1 - 18 *
XUE YANG等: "Dense Label Encoding for Boundary Discontinuity Free Rotation Detection", 《ARXIV》, pages 1 - 12 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116051632A (zh) * 2022-12-06 2023-05-02 中国人民解放军战略支援部队航天工程大学 一种双通道transformer卫星六自由度姿态估计算法
CN116051632B (zh) * 2022-12-06 2023-12-05 中国人民解放军战略支援部队航天工程大学 一种双通道transformer卫星六自由度姿态估计算法
CN115965627A (zh) * 2023-03-16 2023-04-14 中铁电气化局集团有限公司 一种应用于铁路运营的微小部件检测系统及方法
CN117746193A (zh) * 2024-02-21 2024-03-22 之江实验室 一种标签优化方法、装置、存储介质及电子设备
CN117746193B (zh) * 2024-02-21 2024-05-10 之江实验室 一种标签优化方法、装置、存储介质及电子设备

Similar Documents

Publication Publication Date Title
CN107609601B (zh) 一种基于多层卷积神经网络的舰船目标识别方法
CN114973014A (zh) 基于多网络级联的飞机目标细粒度检测方法及系统
Rachmadi et al. Vehicle color recognition using convolutional neural network
CN108009509A (zh) 车辆目标检测方法
CN105260738B (zh) 基于主动学习的高分辨率遥感影像变化检测方法及系统
CN106909902B (zh) 一种基于改进的层次化显著模型的遥感目标检测方法
CN103218831B (zh) 一种基于轮廓约束的视频运动目标分类识别方法
CN108416307A (zh) 一种航拍图像路面裂缝检测方法、装置及设备
CN112836713A (zh) 基于图像无锚框检测的中尺度对流系统识别与追踪方法
CN106023257A (zh) 一种基于旋翼无人机平台的目标跟踪方法
CN103049751A (zh) 一种改进的加权区域匹配高空视频行人识别方法
CN105631892B (zh) 一种基于阴影和纹理特征的航空影像建筑物损毁检测方法
CN110956187A (zh) 一种基于集成学习的无人机影像植物冠层信息提取方法
CN110111338A (zh) 一种基于超像素时空显著性分割的视觉跟踪方法
CN112053426B (zh) 一种基于深度学习的大规模三维铆钉点云提取方法
CN112417981B (zh) 基于改进FasterR-CNN的复杂战场环境目标高效识别方法
CN112766184B (zh) 基于多层级特征选择卷积神经网络的遥感目标检测方法
CN109919223B (zh) 基于深度神经网络的目标检测方法及装置
CN107798345B (zh) 基于块对角与低秩表示的高光谱伪装目标检测方法
CN109668567B (zh) 无人机多云条件下偏振光定向方法、系统及偏振光传感器
CN108230313B (zh) 基于部件自适应选择与判别模型的sar图像目标检测方法
CN114049572A (zh) 识别小目标的检测方法
CN111539422A (zh) 基于Faster RCNN的飞行目标协同识别方法
CN114565842A (zh) 基于Nvidia Jetson嵌入式硬件的无人机实时目标检测方法及系统
CN115272876A (zh) 一种基于深度学习的遥感图像船舶目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20220830