CN114612769A - 一种融入局部结构信息的集成感知红外成像舰船检测方法 - Google Patents

一种融入局部结构信息的集成感知红外成像舰船检测方法 Download PDF

Info

Publication number
CN114612769A
CN114612769A CN202210254933.8A CN202210254933A CN114612769A CN 114612769 A CN114612769 A CN 114612769A CN 202210254933 A CN202210254933 A CN 202210254933A CN 114612769 A CN114612769 A CN 114612769A
Authority
CN
China
Prior art keywords
network
frame
integrated
candidate
inputting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210254933.8A
Other languages
English (en)
Other versions
CN114612769B (zh
Inventor
彭真明
韩雅琪
鲁天舒
廖靖雯
且若辰
易海杨
张一薇
练睿旖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202210254933.8A priority Critical patent/CN114612769B/zh
Publication of CN114612769A publication Critical patent/CN114612769A/zh
Application granted granted Critical
Publication of CN114612769B publication Critical patent/CN114612769B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种融入局部结构信息的集成感知红外成像舰船检测方法,其主要步骤为:步骤一、红外遥感舰船数据准备并进行预处理和数据集划分;步骤二、将训练集图像输入集成感知网络进行迭代训练,该网络的工作流程为:使用双向特征融合网络提取骨干特征,使用上下文注意力网络提取空间注意力,使用Mask‑RPN生成候选框,使用融入局部结构信息的检测头进行最终检测;步骤三、将测试集图像输入训练完毕的集成感知网络得到预测框位置及其概率,经过非极大值抑制操作去除冗余框后得到最终检测结果,本发明将局部结构信息作为先验知识监督网络进行多源信息感知,有效降低了虚警率,明显减少小目标漏检,增强了复杂海洋环境下的检测鲁棒性。

Description

一种融入局部结构信息的集成感知红外成像舰船检测方法
技术领域
本发明涉及一种融入局部结构信息的集成感知红外成像舰船检测方法,属于遥感图像处理中的目标检测领域。
背景技术
近年来,遥感技术发展迅猛,高质量遥感数据量日益增多,高效的图像信息处理技术可以有效扩大其应用范围。同时,随着中国走向深蓝的海洋战略的提出,海洋产业持续蓬勃发展,船只作为海上运输的重要载体,是海上检测的重点目标,复杂海洋环境下的自动舰船检测在海洋交通管理、海洋救援等领域都有极其重要的战略意义。红外遥感因可全天候工作、隐蔽性好、可反侦察、环境适应能力强等不可替代的优点,越来越多的被用在舰船自动检测的领域中来。
相较于一般图像中的检测任务,红外遥感舰船检测中存在诸多挑战。首先,遥感图像本身具有低质性,相较于一般图像分辨率低且只有单通道信息。此外,海洋场景较为复杂,水面与陆地灰度值因昼夜温度呈现多极性,舰船与背景对比度呈现多样性。厚云层、陆地条状高亮建筑易产生虚警。同时,红外成像舰船目标很小且语义特征非常微弱,近岸停泊的舰船很容易被陆地淹没。
目前对于遥感图像舰船目标检测主要有两类方法,一类是手工视觉特征建模的传统方法,此类方法需要根据检测目标的外形、纹理等特点进行手工视觉特征的建模,在场景较为单一的高质量图像中可以获得令人满意的结果,但检测效果常常依赖于调参,在复杂海洋场景下的鲁棒性较差;另一类是基于深度学习的方法,此类方法由数据驱动,具有高效稳定的特点。虽然许多优秀的网络,如Faster RCNN,YOLO,SSD,CenterNet等,在一般自然图像检测中效果出色,但是由于深度网络的黑盒属性,难以在特定任务中进行有针对性的改进,因此在红外成像舰船检测任务中表现出各种局限性。比如,由于舰船目标过小,多次池化后的高语义特征层大量损失小目标信息,易造成漏检;小型卷云、高亮建筑等虚警较多;单个边界框“骑跨”在两个并排目标中间等。因此,进一步研究能够克服上述局限性的高精确、高鲁棒的检测算法具有非常重要的理论意义和应用价值。
发明内容
本发明的目的在于:结合手工视觉特征建模方法与深度学习方法的优势,将精准设计的局部结构特征与深度特征融合,实现对舰船目标的集成感知,有效减少虚警;此外,本发明设计了双向特征融合模块以平衡特征图的语义信息和分辨率,增大特征图感受野,减少小型舰船漏检;同时,提出了上下文注意力网络增强目标信息和目标周边信息、抑制背景杂波,提升复杂海洋环境下的检测鲁棒性。具体的,本发明采用以下技术方案:
本发明提供了一种融入局部结构信息的集成感知红外成像舰船检测方法,包括如下步骤:
步骤1:准备红外遥感舰船数据并进行预处理和数据集划分,得到训练集和测试集;
步骤2:将训练集输入集成感知网络进行迭代训练,该集成感知网络的工作流程为:将原始图像输入双向特征融合网络提取骨干特征,将骨干特征输入上下文注意力网络得到空间注意力掩膜以进行骨干特征的增强,将注意力掩膜和增强后的骨干特征输入Mask-RPN提取候选框,将候选框输入融入局部结构信息的检测头进行目标框位置回归和目标框概率预测;
步骤3:将测试集的图像输入训练完毕的集成感知网络得到预测框位置及其概率,经过非极大值抑制操作去除冗余框后得到最终检测结果。
上述技术方案中,所述步骤1的具体步骤如下:
步骤1.1:将准备的红外遥感数据进行辐射定标、大气校正的预处理工作,得到预处理的红外遥感数据的数据集;
步骤1.2:将步骤1.1得到的数据集按照7∶3的比例随机划分为训练集和测试集,将训练集中的舰船目标使用4参数元组(xc,yc,w,h)进行轴向框标注,其中xc为轴向框中心点x轴坐标、yc为轴向框中心点y轴坐标,w为轴向框的宽,h为轴向框的高。
上述技术方案中,所述步骤2具体如下:
步骤2.1:对集成感知网络的第一个子网络双向特征融合网络中的骨干网部分使用在 ImageNet上预训练的骨干网进行参数初始化,集成感知网络其余参数使用截断正态分布进行随机初始化;
步骤2.2:冻结骨干网的最底层参数,使其在训练中保持初始值;
步骤2.3:随机挑选步骤1.2得到的训练集中的图像进行在线数据增广,手段包括:水平翻转、垂直翻转、随机角度旋转、添加随机参数高斯噪声、随机参数gamma校正;
步骤2.4:将步骤2.3得到的增广后图像输入集成感知网络,该网络的第一个子网络为双向特征融合网络,用于提取骨干特征,由骨干网、双向特征融合模块和感受野扩张模块组成,具体构架为:双向特征融合网络首先使用骨干网的前4层提取图像的多尺度特征,得到分辨率分别为原图的1/22,1/42,1/82,1/162的4个特征图Ci(i∈[1,4]),然后用双向特征融合模块将C2,C3,C4融合,得到与C3尺寸相同的融合特征图F,具体融合公式如下:
F=Conv1×1[UpSample(C4)]+CA(C3)+CA{Conv1×1[DownSample(C2)]} (1)
其中,CA为通道注意力模块,UpSample为2倍双线性差值上采样,DownSample为2倍双线性差值降采样,Conv1×1为512维1×1卷积核;
随后融合特征图F进一步输入基于空洞卷积的感受野扩张模块,该模块的表达式如下:
Figure BDA0003544464870000031
其中,Atous_Conv1为3×3×512×256的空洞率为2的空洞卷积核,Atous_Conv2为3×3 ×128×128的空洞率为4的空洞卷积核,Atous_Conv3为3×3×128×128的空洞率为8的空洞卷积核,Conv1×1为128维1×1卷积核,
Figure BDA0003544464870000032
表示通道堆叠操作,P为最终输出的感受野扩张后的特征图;
步骤2.5:将步骤2.4得到的特征图P输入集成感知网络的第二个子网络——上下文注意力网络,该上下文注意力网络以监督学习的方式计算出两个空间注意力掩模M1与M2,训练掩模M1和M2的真实值MASK1和MASK2都为前景为1、背景为0的二值化图像,二者的区别为MASK1直接将训练集标注框内的区域填充为1、其余区域填充为0,而MASK2将训练集标注框放大一倍后的区域填充为1、其余区域填充为0,上下文注意力网络的具体结构为:将特征图P输入4层256维3×3的卷积层,后接2个独立的2维3×3卷积层,再使用 softmax操作得到网络学习出的M1与M2,M1与M2中的值的取值范围在[0,1]区间,M1与M2加权相加得到最终学习到的上下文注意力掩模M,上下文注意力掩模M与特征图P中的元素对应位置相乘得到目标增强、目标周边局部信息增强、背景抑制后的特征图P′;
步骤2.6:将步骤2.5得到的特征图P′和上下文注意力掩模M输入集成感知网络的第三个子网络——Mask-RPN网络,该Mask-RPN网络提取的目标候选框由两部分组成:基础候选框和附加候选框,其中基础候选框来源于RPN网络,RPN网络首先将特征图P′输入512维3 ×3卷积层,然后在每个特征点上生成K个锚框,使用含有4K个卷积核的分支预测候选框位置,使用含有K个卷积核的分支预测候选框类别概率,附加候选框为对掩模M进行阈值分割后提取出的所有连通区域的最小外接矩形;
步骤2.7:将步骤2.5得到的特征图P′和步骤2.6得到的目标候选框输入集成感知网络的第四个子网络——融入局部结构信息的检测头,该检测头首先在特征图P′上根据目标候选框位置进行ROI Align,然后输入骨干网的第5层和全局平均池化层得到深度特征,同时,将目标候选框位置映射至原始图像得到候选图像块,计算每个候选图像块的局部结构信息,包括几何特征、纹理特征和对比度特征,计算几何特征时首先将原始图像进行OSTU阈值分割,然后计算连通域个数、最大连通区域的矩形度R、长宽比A、紧凑度C得到3维几何特征,公式如下:
R=Area/Rectangle_Area (3)
Figure BDA0003544464870000041
C=L×L/Area (5)
其中,Area为最大连通区域面积,Rectangle_Area为最大连通区域最小外接矩形的面积,w 和h分别为最大连通区域最小外接矩形的宽和长,L为最大连通区域的周长;
纹理特征为基于灰度共生矩阵的4个方向的6类特征,得到4×6=24维纹理特征,4个方向θ分别为0,
Figure BDA0003544464870000042
6类特征分别为对比度、差异性、同质性、熵、相关性和角二阶矩;
对比度特征有1维,对比度特征的计算除了需要候选框图像块T,还需要候选图像块T周围的“O型”背景区域B,背景区域B的尺寸为候选框图像块T的2倍,将候选图像块T和背景区域B中的像素都按照降序排列得到像素集合IT和IB,该对比度特征的计算公式如下:
Figure BDA0003544464870000043
其中,k为超参数,w和h分别为背景区域B的宽和高,IT(i)和IB(i)分别表示像素集合IT和IB中的第i个像素,N和M分别表示候选图像块T和背景区域B中的像素总数量,MT为候选图像块T中前K个最大像素的平均值,mT为候选图像块T中所有像素的平均值,MB为背景区域B 中前K个最大像素的平均值,mB为背景区域B中所有像素的平均值,RILT和RILB为中间变量,ε为一个趋近于0的极小数,最终输出的W即为对比度特征;
上述计算得到每个图像块的3维几何特征、24维纹理特征、1维对比度特征共28维局部结构信息,以监督学习的方式使用该28维局部结构信息作为标签训练集成感知网络,使集成感知网络在仅有候选图像块的情况下使用卷积层自主快速预测局部结构信息,该预测过程以ROI Align得到的感兴趣区域特征图为输入,经过5层3×3卷积和1层全局平均池化后得到预测的局部结构信息;
将预测的局部结构信息归一化后与将深度特征按通道堆叠后得到多源集成信息,将多源集成信息输入并联的目标框位置回归分支、目标框概率预测分支,得到目标框的位置和类别概率,其中目标框位置的回归公式为:
Figure BDA0003544464870000051
其中,(x,y)为目标框的中心点坐标,w和h分别代表目标框的宽和长,x,xa,x′分别为目标框、锚框、真实框的中心x轴坐标,y,ya,y′分别代表目标框、锚框、真实框的中心y轴坐标,w,wa,w′分别代表目标框、锚框、真实框的宽,h,ha,h′分别代表目标框、锚框、真实框的宽;
步骤2.8:根据步骤2.5中上下文注意力网络和步骤2.7中融入局部结构信息的检测头的输出计算损失函数.具体为:
Figure BDA0003544464870000052
其中N表示候选框总个数,tn和t′n分别代表目标的真实类别和预测类别,t′n只能取0或 1,t′n取1表示前景,取0表示背景,pn代表经由softmax函数计算得到的舰船类别的概率分布,u′nj和unj分别为预测框和真实框的位置回归向量,
Figure BDA0003544464870000053
分别代表掩模M1在(i,j)像素处的真实标签和预测值,
Figure BDA0003544464870000054
分别代表掩模M2在(i,j)像素处的真实标签和预测值,F 表示局部结构信息集合,f′nj和fnj分别为局部结构信息的预测值和真实值,超参数λi(i∈[1,4])为权重系数,Lcls和Latt均为softmax交叉熵函数,Lreg为smooth L1函数;
步骤2.9:判断当前训练次数是否达到预设值,若未达到,则使用反向传播算法,更新网络参数后返回步骤2.3,若达到,则网络训练完毕,跳至步骤3。
上述技术方案中,所述步骤3的具体步骤如下:
步骤3.1:选取测试集中的遥感图像输入步骤2得到的训练完毕的集成感知网络,得到检测框的位置与类别概率;
步骤3.2:对步骤3.1得到的检测框进行非极大值抑制操作去除冗余框后得到最终检测结果。
综上所述,由于采用了上述技术方案,本发明的有益效果是:
1.本发明是端到端的检测网络,将待检测图像输入即可直接得到检测框的位置和得分,中间无需任何额外的人工调参或计算步骤,适合海量图像下舰船自动检测的应用场景;
2.本发明将局部结构信息作为目标先验融入深度神经网络,使视觉特征建模方法与深度学习方法优势联合、缺点互补,实现对舰船目标的集成感知,局部结构信息的引入改善了具有黑盒属性的神经网络缺少目标先验知识的缺点,可以有效去除与舰船十分相似的虚警,同时,发挥深度神经网络的独特优势,检测速度快,并且在复杂场景下具有高检测准确性和鲁棒性,此外,本发明采用监督学习的方式使网络自行预测候选区域的局部结构信息,相比直接计算候选区域的局部结构信息有大幅速度提升;
3.本发明设计了双向特征融合网络,将高层特征图和低层特征图折中融合,该网络输出的融合特征图在保持了较高分辨率的同时具有丰富的语义信息,避免了在多次池化后得到的具有丰富语义的高层特征图中小型目标的信息损失,有效提升对小型舰船的检测准确率和召回率,融合过程中的通道注意力模块的加入也使网络可以自适应增强重要通道的权重,减少融合特征中的冗余信息,此外,感受野扩张模块可以进一步丰富融合特征图中的信息层次,可以大大减少海岛、建筑等近岸虚警;
4.本发明提出了上下文注意力网络,打破了传统深度神经网络只关注目标而不关注目标周边信息的局限性,使用监督学习得到的空间注意力掩模有效增强目标及目标周边的信息、抑制背景杂波,大大提升了复杂场景下的检测鲁棒性。
附图说明
为了更清楚地说明本发明实施例的技术方案,本发明将通过例子并参照附图的方式说明,其中:
图1一种融入局部结构信息的集成感知红外成像舰船检测方法的流程图;
图2本发明网络的整体结构图;
图3本发明实施例一随机选取的训练集图像;
图4双向特征融合网络的网络结构图;
图5上下文注意力网络的网络结构图;
图6本发明实施例一训练集图像的掩模真实值;
图7本发明实施例一的随机选取的若干待检测的测试集图像;
图8本发明实施例一的随机选取的若干待检测图像的最终检测结果。
具体实施方式
下面结合图1至图8对本发明作详细说明,本发明不限于如下所述的实施例。
一种融入局部结构信息的集成感知红外成像舰船检测方法的流程图如图1所示,具体包括如下步骤:
步骤1:准备红外遥感舰船数据并进行预处理和数据集划分,得到训练集和测试集;
步骤1.1:收集LANDSAT8卫星的遥感数据,并将遥感数据的波段4、波段5、波段7 融合为近红外成像图像,在将收集到的红外遥感数据进行辐射定标、FLAASH大气校正的预处理工作,本实施例共收集1284张红外遥感图像,每张图像的分辨率为500×500;
步骤1.2:将步骤1.1得到的数据集按照7∶3的比例随机划分为训练集和测试集,得到含有899张图像的训练集和含有385张图像的测试集,将训练集中的舰船目标使用4参数元组(xc,yc,w,h)进行轴向框标注,其中xc为轴向框中心点x轴坐标、yc为轴向框中心点y轴坐标,w为轴向框的宽,h为轴向框的高;
步骤2:将训练集输入集成感知网络进行迭代训练,该集成感知网络的整体框架如图2 所示;
步骤2.1:对集成感知网络的第一个子网络双向特征融合网络中的骨干网部分使用在 ImageNet上预训练的骨干网进行参数初始化,本实施例使用的骨干网为ResNet101,选取均值为0、标准差为0.001的截断正态分布对集成感知网络中所有回归过程的参数进行初始化,选取均值为0、标准差为0.01的截断正态分布对集成感知网络中其余所有参数进行初始化:
步骤2.2:冻结骨干网ResNet101的最底层Block1参数,使其在训练中保持初始值,因为底层参数的普适性较强,冻结底层参数可以加快训练收敛;
步骤2.3:随机挑选步骤1.2得到的训练集中的图像进行在线数据增广,主要手段包括:水平翻转、垂直翻转、随机角度旋转、添加随机参数高斯噪声、随机参数gamma校正,数据增广可以使小样本数据集中的图像数量增加,进一步减少过拟合风险;
步骤2.4:将步骤2.3得到的如图3所示的增广后图像输入集成感知网络,该网络的第一个子网络为双向特征融合网络,用于提取骨干特征,由骨干网、双向特征融合模块和感受野扩张模块组成,具体构架为:双向特征融合网络首先使用骨干网的前4层提取模块提取图像的多尺度特征,得到分辨率分别为原图的1/22,1/42,1/82,1/162的4个特征图Ci(i∈[1,4]) ,高层特征图语义信息丰富而分辨率低,低层特征图分辨率高二语义信息微弱,因此需要进行特征融合工作使特征图在保持较高分辨率的同时有较强的语义信息,本方法用双向特征融合模块将C2,C3,C4融合,得到与C3尺寸相同的融合特征图F,具体融合公式如下:
F=Conv1×1[UpSample(C4)]+CA(C3)+CA{Conv1×1[DownSample(C2)]} (1)
其中,CA为通道注意力模块,本实施例使用的CA为CBAM模块中的通道注意力模块,UpSample为2倍双线性差值上采样,DownSample为2倍双线性差值降采样,Conv1×1为 512维1×1卷积核;
随后融合特征图F进一步输入一个基于空洞卷积的感受野扩张模块,该模块可以扩大特征图的感受野,增强对小目标的识别能力和辨别虚警的能力,该模块的表达式如下:
Figure BDA0003544464870000081
其中,Atous_Conv1为3×3×512×256的空洞率为2的空洞卷积核,Atous_Conv2为3 ×3×128×128的空洞率为4的空洞卷积核,Atous_Conv3为3×3×128×128的空洞率为8的空洞卷积核,Conv1×1为128维1×1卷积核,
Figure BDA0003544464870000082
表示通道堆叠操作,P为最终输出的感受野扩张后的特征图;
步骤2.5:将步骤2.4得到的特征图P输入集成感知网络的第二个子网络——上下文注意力网络,该上下文注意力网络的结构如图5所示,以监督学习的方式计算出两个空间注意力掩模M1与M2,训练掩模M1和M2的真实值MASK1和MASK2都为前景为1、背景为0的二值化图像,二者的区别为MASK1直接将训练集标注框内的区域填充为1、其余区域填充为0,而MASK2将训练集标注框放大一倍后的区域填充为1、其余区域填充为0,以图3为例得到的掩膜真实值MASK1和MASK2如图6所示,上下文注意力网络的具体结构为:将特征图P输入4层256维3×3的卷积层,后接2个独立的2维3×3卷积层,再使用softmax操作得到网络学习出的M1与M2,M1与M2中的值的取值范围在[0,1]区间,M1与M2加权相加得到最终学习到的上下文注意力掩模M,本例的加权方案为权重各为0.5,上下文注意力掩模M与特征图P中的元素对应位置相乘得到目标增强、目标周边局部信息增强、背景抑制后的特征图P′;
步骤2.6:将步骤2.5得到的特征图P′和上下文注意力掩模M输入集成感知网络的第三个子网络——Mask-RPN网络,该Mask-RPN网络提取的目标候选框由两部分组成:基础候选框和附加候选框,其中基础候选框来源于RPN网络,RPN网络首先将特征图P′输入512维3 ×3卷积层,然后在每个特征点上生成K个锚框,使用含有4K个卷积核的分支预测候选框位置,使用含有K个卷积核的分支预测候选框类别概率,本例中RPN的锚框的尺寸设置为{32,64,128,256},长宽比设置为
Figure BDA0003544464870000091
因此本例中的K为4×7=28,附加候选框为对掩模M进行阈值分割后提取出的所有连通区域的最小外接矩形;
步骤2.7:将步骤2.5得到的特征图P′和步骤2.6得到的目标候选框输入集成感知网络的第四个子网络——融入局部结构信息的检测头,该检测头首先在特征图P′上根据目标候选框位置进行ROI Align,然后输入ResNet101的第5层和全局平均池化层得到深度特征,同时,将目标候选框位置映射至原始图像得到候选图像块,计算每个候选图像块的局部结构信息,包括几何特征、纹理特征和对比度特征,计算几何特征时首先将原始图像进行OSTU阈值分割,然后计算连通域个数、最大连通区域的矩形度R、长宽比A、紧凑度C得到3维几何特征,公式如下:
R=Area/Rectangle_Area (3)
Figure BDA0003544464870000092
C=L×L/Area (5)
其中,Area为最大连通区域面积,Rectangle_Area为最大连通区域最小外接矩形的面积,w和h分别为最大连通区域最小外接矩形的宽和长,L为最大连通区域的周长;
纹理特征为基于灰度共生矩阵的4个方向的6类特征,,得到4×6=24维纹理特征,4个方向θ分别为0,
Figure BDA0003544464870000093
6类特征分别为对比度、差异性、同质性、熵、相关性和角二阶矩;
对比度特征有1维,对比度特征的计算除了需要候选框图像块T,还需要候选图像块T 周围的“O型”背景区域B,背景区域B的尺寸为候选框图像块T的2倍,将候选图像块T和背景区域B中的像素都按照降序排列得到像素集合IT和IB,该对比度特征的计算公式如下:
Figure BDA0003544464870000094
其中,k为超参数,本实施例选取的k=10,w和h分别为背景区域B的宽和高,IT(i)和IB(i) 分别表示像素集合IT和IB中的第i个像素,N和M分别表示候选图像块T和背景区域B中的像素总数量,MT为候选图像块T中前K个最大像素的平均值,mT为候选图像块T中所有像素的平均值,MB为背景区域B中前K个最大像素的平均值,mB为背景区域B中所有像素的平均值,RILT和RILB为中间变量,ε为一个趋近于0的极小数,最终输出的W即为对比度特征;
上述计算得到每个图像块的3维几何特征、24维纹理特征、1维对比度特征共28维局部结构信息,以监督学习的方式使用该28维局部结构信息作为标签训练集成感知网络,使集成感知网络在仅有候选图像块的情况下使用卷积层自主快速预测局部结构信息,该预测过程以ROI Align得到的感兴趣区域特征图为输入,经过5层3×3卷积和1层全局平均池化后得到预测的局部结构信息;
将预测的局部结构信息归一化后与将深度特征按通道堆叠后得到多源集成信息,将多源集成信息输入并联的目标框位置回归分支、目标框概率预测分支,得到目标框的位置和类别概率,其中目标框位置的回归公式为:
Figure BDA0003544464870000101
宽和长,x,xa,x′分别为目标框、锚框、真实框的中心x轴坐标,y,ya,y′分别代表目标框、锚框、真实框的中心y轴坐标,w,wa,w′分别代表目标框、锚框、真实框的宽,h,ha,h′分别代表目标框、锚框、真实框的宽;
步骤2.8:根据步骤2.5中上下文注意力网络和步骤2.7中融入局部结构信息的检测头的输出计算损失函数,具体为:
Figure BDA0003544464870000102
其中N表示候选框总个数,tn和t′n分别代表目标的真实类别和预测类别,t′n只能取0或 1,t′n取1表示前景,取0表示背景,pn代表经由softmax函数计算得到的舰船类别的概率分布,u′nj和unj分别为预测框和真实框的位置回归向量,
Figure BDA0003544464870000103
分别代表掩模M1在(i,j)像素处的真实标签和预测值,
Figure BDA0003544464870000104
分别代表掩模M2在(i,j)像素处的真实标签和预测值,F 表示局部结构信息集合,f′nj和fnj分别为局部结构信息的预测值和真实值,超参数λi(i∈[1,4])为权重系数,Lcls和Latt均为softmax交叉熵函数,Lreg为smooth L1函数;
步骤2.9:判断当前训练次数是否达到预设值,本例将训练次数预设为60000,若未达到,则使用反向传播算法更新网络参数后返回步骤2.3,本实施例使用的反向传播算法为动量法,动量参数为0.0005,初始学习率为0.001,在训练次数为20000和40000时学习率衰减十倍;若达到预设训练次数,则网络训练完毕,跳至步骤3;
步骤3:将测试集的图像输入训练完毕的集成感知网络得到预测框位置及其概率,经过非极大值抑制操作去除冗余框后得到最终检测结果;
步骤3.1:选取测试集中的遥感图像输入步骤2得到的训练完毕的集成感知网络,得到检测框的位置与类别概率,本实施例中随机选取的若干测试样本如图7所示;
步骤3.2:对步骤3.1得到的检测框进行非极大值抑制操作去除冗余框后得到最终检测结果,本实施例使用的非极大值抑制操作的阈值为0.2,图7中的样本的最终检测结果如图 8所示;
本发明在获取遥感图像数据集后,将训练集使用翻转、添加噪声、gamma校正手段进行在线数据增广后输入集成感知网络,计算每一次训练迭代过程中的损失函数并进行网络参数的反向传播至训练过程的结束;最后,将测试集输入训练完毕的集成感知网络得到预测框位置及类别概率,经过非极大值抑制操作去除冗余框后得到最终检测结果,本发明针对红外成像舰船检测任务中图像低质、背景复杂、目标尺寸小、虚警干扰严重等问题,提出了一种融入局部结构信息的集成感知红外成像舰船检测方法,融合深度特征和一系列精准设计的局部结构信息进行舰船目标的集成感知,同时也提出了若干高效的网络部件,在实现了极高的检测速度的同时,大大提升了复杂海洋环境下红外舰船检测的准确性和鲁棒性,有效减少了虚警,降低了小目标漏检率。
以上所述,仅为本发明的优选实施方式,但本发明的保护范围并不局限于此,任何熟悉本领域的技术人员在本发明所揭露的技术范围内,可不经过创造性劳动想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求书所限定的保护范围为淮。

Claims (4)

1.一种融入局部结构信息的集成感知红外成像舰船检测方法,其特征在于,包括如下步骤:
步骤1:准备红外遥感舰船数据并进行预处理和数据集划分,得到训练集和测试集;
步骤2:将训练集输入集成感知网络进行迭代训练,该集成感知网络的工作流程为:将原始图像输入双向特征融合网络提取骨干特征,将骨干特征输入上下文注意力网络得到空间注意力掩膜以进行骨干特征的增强,将注意力掩膜和增强后的骨干特征输入Mask-RPN提取候选框,将候选框输入融入局部结构信息的检测头进行目标框位置回归和目标框概率预测;
步骤3:将测试集的图像输入训练完毕的集成感知网络得到预测框位置及其概率,经过非极大值抑制操作去除冗余框后得到最终检测结果。
2.根据权利要求1所述的一种融入局部结构信息的集成感知红外成像舰船检测方法,其特征在于,所述步骤1的具体步骤如下:
步骤1.1:将准备的红外遥感数据进行辐射定标、大气校正的预处理工作,得到预处理的红外遥感数据的数据集;
步骤1.2:将步骤1.1得到的数据集按照7∶3的比例随机划分为训练集和测试集,将训练集中的舰船目标使用4参数元组(xc,yc,w,h)进行轴向框标注,其中xc为轴向框中心点x轴坐标、yc为轴向框中心点y轴坐标,w为轴向框的宽,h为轴向框的高。
3.根据权利要求1所述的一种融入局部结构信息的集成感知红外成像舰船检测方法,其特征在于,所述步骤2具体如下:
步骤2.1:对集成感知网络的第一个子网络双向特征融合网络中的骨干网部分使用在ImageNet上预训练的骨干网进行参数初始化,集成感知网络其余参数使用截断正态分布进行随机初始化;
步骤2.2:冻结骨干网的最底层参数,使其在训练中保持初始值;
步骤2.3:随机挑选步骤1.2得到的训练集中的图像进行在线数据增广,手段包括:水平翻转、垂直翻转、随机角度旋转、添加随机参数高斯噪声、随机参数gamma校正;
步骤2.4:将步骤2.3得到的增广后图像输入集成感知网络,该网络的第一个子网络为双向特征融合网络,用于提取骨干特征,由骨干网、双向特征融合模块和感受野扩张模块组成,具体构架为:双向特征融合网络首先使用骨干网的前4层提取图像的多尺度特征,得到分辨率分别为原图的1/22,1/42,1/82,1/162的4个特征图Ci(i∈[1,4]),然后用双向特征融合模块将C2,C3,C4融合,得到与C3尺寸相同的融合特征图F,具体融合公式如下:
F=Conv1×1[UpSample(C4)]+CA(C3)+CA{Conv1×1[DownSample(C2)]} (1)
其中,CA为通道注意力模块,UpSample为2倍双线性差值上采样,DownSample为2倍双线性差值降采样,Conv1×1为512维1×1卷积核;
随后融合特征图F进一步输入基于空洞卷积的感受野扩张模块,该模块的表达式如下:
Figure FDA0003544464860000021
其中,Atous_Conv1为3×3×512×256的空洞率为2的空洞卷积核,Atous_Conv2为3×3×128×128的空洞率为4的空洞卷积核,Atous_Conv3为3×3×128×128的空洞率为8的空洞卷积核,Conv1×1为128维1×1卷积核,
Figure FDA0003544464860000022
表示通道堆叠操作,P为最终输出的感受野扩张后的特征图;
步骤2.5:将步骤2.4得到的特征图P输入集成感知网络的第二个子网络——上下文注意力网络,该上下文注意力网络以监督学习的方式计算出两个空间注意力掩模M1与M2,训练掩模M1和M2的真实值MASK1和MASK2都为前景为1、背景为0的二值化图像,二者的区别为MASK1直接将训练集标注框内的区域填充为1、其余区域填充为0,而MASK2将训练集标注框放大一倍后的区域填充为1、其余区域填充为0,上下文注意力网络的具体结构为:将特征图P输入4层256维3×3的卷积层,后接2个独立的2维3×3卷积层,再使用softmax操作得到网络学习出的M1与M2,M1与M2中的值的取值范围在[0,1]区间,M1与M2加权相加得到最终学习到的上下文注意力掩模M,上下文注意力掩模M与特征图P中的元素对应位置相乘得到目标增强、目标周边局部信息增强、背景抑制后的特征图P′;
步骤2.6:将步骤2.5得到的特征图P′和上下文注意力掩模M输入集成感知网络的第三个子网络——Mask-RPN网络,该Mask-RPN网络提取的目标候选框由两部分组成:基础候选框和附加候选框,其中基础候选框来源于RPN网络,RPN网络首先将特征图P′输入512维3×3卷积层,然后在每个特征点上生成K个锚框,使用含有4K个卷积核的分支预测候选框位置,使用含有K个卷积核的分支预测候选框类别概率,附加候选框为对掩模M进行阈值分割后提取出的所有连通区域的最小外接矩形;
步骤2.7:将步骤2.5得到的特征图P′和步骤2.6得到的目标候选框输入集成感知网络的第四个子网络——融入局部结构信息的检测头,该检测头首先在特征图P′上根据目标候选框位置进行ROI Align,然后输入骨干网的第5层和全局平均池化层得到深度特征,同时,将目标候选框位置映射至原始图像得到候选图像块,计算每个候选图像块的局部结构信息,包括几何特征、纹理特征和对比度特征,计算几何特征时首先将原始图像进行OSTU阈值分割,然后计算连通域个数、最大连通区域的矩形度R、长宽比A、紧凑度C得到3维几何特征,公式如下:
R=Area/Rectangle_Area (3)
Figure FDA0003544464860000031
C=L×L/Area (5)
其中,Area为最大连通区域面积,Rectangle_Area为最大连通区域最小外接矩形的面积,w和h分别为最大连通区域最小外接矩形的宽和长,L为最大连通区域的周长;
纹理特征为基于灰度共生矩阵的4个方向的6类特征,得到4×6=24维纹理特征,4个方向θ分别为0,
Figure FDA0003544464860000032
6类特征分别为对比度、差异性、同质性、熵、相关性和角二阶矩;
对比度特征有1维,对比度特征的计算除了需要候选框图像块T,还需要候选图像块T周围的“O型”背景区域B,背景区域B的尺寸为候选框图像块T的2倍,将候选图像块T和背景区域B中的像素都按照降序排列得到像素集合IT和IB,该对比度特征的计算公式如下:
Figure FDA0003544464860000033
其中,k为超参数,w和h分别为背景区域B的宽和高,IT(i)和IB(i)分别表示像素集合IT和IB中的第i个像素,N和M分别表示候选图像块T和背景区域B中的像素总数量,MT为候选图像块T中前K个最大像素的平均值,mT为候选图像块T中所有像素的平均值,MB为背景区域B中前K个最大像素的平均值,mB为背景区域B中所有像素的平均值,RILT和RILB为中间变量,ε为一个趋近于0的极小数,最终输出的W即为对比度特征;
上述计算得到每个图像块的3维几何特征、24维纹理特征、1维对比度特征共28维局部结构信息,以监督学习的方式使用该28维局部结构信息作为标签训练集成感知网络,使集成感知网络在仅有候选图像块的情况下使用卷积层自主快速预测局部结构信息,该预测过程以ROI Align得到的感兴趣区域特征图为输入,经过5层3×3卷积和1层全局平均池化后得到预测的局部结构信息;
将预测的局部结构信息归一化后与将深度特征按通道堆叠后得到多源集成信息,将多源集成信息输入并联的目标框位置回归分支、目标框概率预测分支,得到目标框的位置和类别概率,其中目标框位置的回归公式为:
Figure FDA0003544464860000041
其中,(x,y)为目标框的中心点坐标,w和h分别代表目标框的宽和长,x,xa,x′分别为目标框、锚框、真实框的中心x轴坐标,y,ya,y′分别代表目标框、锚框、真实框的中心y轴坐标,w,wa,w′分别代表目标框、锚框、真实框的宽,h,ha,h′分别代表目标框、锚框、真实框的宽;
步骤2.8:根据步骤2.5中上下文注意力网络和步骤2.7中融入局部结构信息的检测头的输出计算损失函数,具体为:
Figure FDA0003544464860000042
其中N表示候选框总个数,tn和t′n分别代表目标的真实类别和预测类别,t′n只能取0或1,t′n取1表示前景,取0表示背景,pn代表经由softmax函数计算得到的舰船类别的概率分布,u′nj和unj分别为预测框和真实框的位置回归向量,
Figure FDA0003544464860000043
分别代表掩模M1在(i,j)像素处的真实标签和预测值,
Figure FDA0003544464860000044
分别代表掩模M2在(i,j)像素处的真实标签和预测值,F表示局部结构信息集合,f′nj和fnj分别为局部结构信息的预测值和真实值,超参数λi(i∈[1,4])为权重系数,Lcls和Latt均为softmax交叉熵函数,Lreg为smooth L1函数;
步骤2.9:判断当前训练次数是否达到预设值,若未达到,则使用反向传播算法,更新网络参数后返回步骤2.3,若达到,则网络训练完毕,跳至步骤3。
4.根据权利要求1所述的一种融入局部结构信息的集成感知红外成像舰船检测方法,其特征在于,所述步骤3的具体步骤如下:
步骤3.1:选取测试集中的遥感图像输入步骤2得到的训练完毕的集成感知网络,得到检测框的位置与类别概率;
步骤3.2:对步骤3.1得到的检测框进行非极大值抑制操作去除冗余框后得到最终检测结果。
CN202210254933.8A 2022-03-14 2022-03-14 一种融入局部结构信息的集成感知红外成像舰船检测方法 Active CN114612769B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210254933.8A CN114612769B (zh) 2022-03-14 2022-03-14 一种融入局部结构信息的集成感知红外成像舰船检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210254933.8A CN114612769B (zh) 2022-03-14 2022-03-14 一种融入局部结构信息的集成感知红外成像舰船检测方法

Publications (2)

Publication Number Publication Date
CN114612769A true CN114612769A (zh) 2022-06-10
CN114612769B CN114612769B (zh) 2023-05-26

Family

ID=81863204

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210254933.8A Active CN114612769B (zh) 2022-03-14 2022-03-14 一种融入局部结构信息的集成感知红外成像舰船检测方法

Country Status (1)

Country Link
CN (1) CN114612769B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115100428A (zh) * 2022-07-01 2022-09-23 天津大学 一种利用上下文感知的目标检测方法
CN115471782A (zh) * 2022-09-22 2022-12-13 中国人民解放军国防科技大学 一种面向无人艇的红外舰船目标检测方法及装置
CN117132870A (zh) * 2023-10-25 2023-11-28 西南石油大学 一种CenterNet与混合注意力相融合的机翼结冰检测方法
CN117409192A (zh) * 2023-12-14 2024-01-16 武汉大学 一种基于数据增强的红外小目标检测方法及装置
CN117765378A (zh) * 2024-02-22 2024-03-26 成都信息工程大学 多尺度特征融合的复杂环境下违禁物品检测方法和装置

Citations (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019144575A1 (zh) * 2018-01-24 2019-08-01 中山大学 一种快速行人检测方法及装置
CN111563473A (zh) * 2020-05-18 2020-08-21 电子科技大学 基于密集特征融合和像素级注意力的遥感舰船识别方法
CN111723748A (zh) * 2020-06-22 2020-09-29 电子科技大学 一种红外遥感图像舰船检测方法
CN112507777A (zh) * 2020-10-10 2021-03-16 厦门大学 一种基于深度学习的光学遥感图像舰船检测与分割方法
CN112505065A (zh) * 2020-12-28 2021-03-16 上海工程技术大学 一种实现室内无人机对大部件表面缺陷进行检测的方法
CN112560671A (zh) * 2020-12-15 2021-03-26 哈尔滨工程大学 基于旋转卷积神经网络的船舶检测方法
CN112613472A (zh) * 2020-12-31 2021-04-06 上海交通大学 一种基于深度搜索匹配的行人检测方法及系统
CN112766274A (zh) * 2021-02-01 2021-05-07 长沙市盛唐科技有限公司 一种基于Mask RCNN算法的水尺图像水位自动读数方法及系统
WO2021097442A1 (en) * 2019-11-14 2021-05-20 Qualcomm Incorporated Guided training of machine learning models with convolution layer feature data fusion
CN112926533A (zh) * 2021-04-01 2021-06-08 北京理工大学重庆创新中心 基于双向特征融合的光学遥感图像地物分类方法及系统
US20210174149A1 (en) * 2018-11-20 2021-06-10 Xidian University Feature fusion and dense connection-based method for infrared plane object detection
CN113011288A (zh) * 2021-03-02 2021-06-22 中北大学 一种基于Mask RCNN算法的遥感建筑物检测方法
WO2021139069A1 (zh) * 2020-01-09 2021-07-15 南京信息工程大学 自适应注意力指导机制的一般性目标检测方法
WO2021146890A1 (en) * 2020-01-21 2021-07-29 Beijing Didi Infinity Technology And Development Co., Ltd. Systems and methods for object detection in image using detection model
CN113255434A (zh) * 2021-04-08 2021-08-13 淮阴工学院 一种融合果实特征与深度卷积神经网络的苹果识别方法
CN113378813A (zh) * 2021-05-28 2021-09-10 陕西大智慧医疗科技股份有限公司 基于注意力平衡特征金字塔的建模、目标检测方法及装置
CN113392849A (zh) * 2021-06-30 2021-09-14 哈尔滨理工大学 一种基于r-cnn的复杂路面裂缝识别方法
CN113673384A (zh) * 2021-08-05 2021-11-19 辽宁师范大学 Lm滤波器组引导纹理特征自主学习的甲骨文字检测方法
CN113705342A (zh) * 2021-07-16 2021-11-26 国家石油天然气管网集团有限公司 一种基于人体上下文注意力机制的人脸检测方法
CN113705331A (zh) * 2021-07-08 2021-11-26 电子科技大学 一种基于四元特征金字塔网络的sar船只检测方法
CN113705321A (zh) * 2021-06-04 2021-11-26 北京市燃气集团有限责任公司 基于Faster-Rcnn的双向多尺度特征融合目标检测方法及装置
WO2021254205A1 (zh) * 2020-06-17 2021-12-23 苏宁易购集团股份有限公司 一种目标检测方法及装置
WO2022012239A1 (en) * 2020-07-16 2022-01-20 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Action recognition method and related device, storage medium
CN113989662A (zh) * 2021-10-18 2022-01-28 中国电子科技集团公司第五十二研究所 一种基于自监督机制的遥感图像细粒度目标识别方法
CN114140398A (zh) * 2021-11-15 2022-03-04 上海大学 一种利用无缺陷图像的少样本缺陷检测方法

Patent Citations (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019144575A1 (zh) * 2018-01-24 2019-08-01 中山大学 一种快速行人检测方法及装置
US20210174149A1 (en) * 2018-11-20 2021-06-10 Xidian University Feature fusion and dense connection-based method for infrared plane object detection
WO2021097442A1 (en) * 2019-11-14 2021-05-20 Qualcomm Incorporated Guided training of machine learning models with convolution layer feature data fusion
WO2021139069A1 (zh) * 2020-01-09 2021-07-15 南京信息工程大学 自适应注意力指导机制的一般性目标检测方法
WO2021146890A1 (en) * 2020-01-21 2021-07-29 Beijing Didi Infinity Technology And Development Co., Ltd. Systems and methods for object detection in image using detection model
CN111563473A (zh) * 2020-05-18 2020-08-21 电子科技大学 基于密集特征融合和像素级注意力的遥感舰船识别方法
WO2021254205A1 (zh) * 2020-06-17 2021-12-23 苏宁易购集团股份有限公司 一种目标检测方法及装置
CN111723748A (zh) * 2020-06-22 2020-09-29 电子科技大学 一种红外遥感图像舰船检测方法
WO2022012239A1 (en) * 2020-07-16 2022-01-20 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Action recognition method and related device, storage medium
CN112507777A (zh) * 2020-10-10 2021-03-16 厦门大学 一种基于深度学习的光学遥感图像舰船检测与分割方法
CN112560671A (zh) * 2020-12-15 2021-03-26 哈尔滨工程大学 基于旋转卷积神经网络的船舶检测方法
CN112505065A (zh) * 2020-12-28 2021-03-16 上海工程技术大学 一种实现室内无人机对大部件表面缺陷进行检测的方法
CN112613472A (zh) * 2020-12-31 2021-04-06 上海交通大学 一种基于深度搜索匹配的行人检测方法及系统
CN112766274A (zh) * 2021-02-01 2021-05-07 长沙市盛唐科技有限公司 一种基于Mask RCNN算法的水尺图像水位自动读数方法及系统
CN113011288A (zh) * 2021-03-02 2021-06-22 中北大学 一种基于Mask RCNN算法的遥感建筑物检测方法
CN112926533A (zh) * 2021-04-01 2021-06-08 北京理工大学重庆创新中心 基于双向特征融合的光学遥感图像地物分类方法及系统
CN113255434A (zh) * 2021-04-08 2021-08-13 淮阴工学院 一种融合果实特征与深度卷积神经网络的苹果识别方法
CN113378813A (zh) * 2021-05-28 2021-09-10 陕西大智慧医疗科技股份有限公司 基于注意力平衡特征金字塔的建模、目标检测方法及装置
CN113705321A (zh) * 2021-06-04 2021-11-26 北京市燃气集团有限责任公司 基于Faster-Rcnn的双向多尺度特征融合目标检测方法及装置
CN113392849A (zh) * 2021-06-30 2021-09-14 哈尔滨理工大学 一种基于r-cnn的复杂路面裂缝识别方法
CN113705331A (zh) * 2021-07-08 2021-11-26 电子科技大学 一种基于四元特征金字塔网络的sar船只检测方法
CN113705342A (zh) * 2021-07-16 2021-11-26 国家石油天然气管网集团有限公司 一种基于人体上下文注意力机制的人脸检测方法
CN113673384A (zh) * 2021-08-05 2021-11-19 辽宁师范大学 Lm滤波器组引导纹理特征自主学习的甲骨文字检测方法
CN113989662A (zh) * 2021-10-18 2022-01-28 中国电子科技集团公司第五十二研究所 一种基于自监督机制的遥感图像细粒度目标识别方法
CN114140398A (zh) * 2021-11-15 2022-03-04 上海大学 一种利用无缺陷图像的少样本缺陷检测方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
T.ZHANG等: ""Quad-FPN:A novel quad feature pyramid network for SAR ship detection"" *
TIANFANG ZHANG等: ""AGPCNet:Attention-Guided Pyramid Context Networks for Infrared Small Target Detection"" *
YAQI HAN等: ""Fine-Grained Recognition for Oriented Ship Against Complex Scenes in Optical Remote Sensing Images"" *
宫剑等: ""红外偏振图像的舰船目标检测"" *
张涛等: ""基于关键点的遥感图像舰船目标检测"" *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115100428A (zh) * 2022-07-01 2022-09-23 天津大学 一种利用上下文感知的目标检测方法
CN115471782A (zh) * 2022-09-22 2022-12-13 中国人民解放军国防科技大学 一种面向无人艇的红外舰船目标检测方法及装置
CN115471782B (zh) * 2022-09-22 2023-06-16 中国人民解放军国防科技大学 一种面向无人艇的红外舰船目标检测方法及装置
CN117132870A (zh) * 2023-10-25 2023-11-28 西南石油大学 一种CenterNet与混合注意力相融合的机翼结冰检测方法
CN117132870B (zh) * 2023-10-25 2024-01-26 西南石油大学 一种CenterNet与混合注意力相融合的机翼结冰检测方法
CN117409192A (zh) * 2023-12-14 2024-01-16 武汉大学 一种基于数据增强的红外小目标检测方法及装置
CN117409192B (zh) * 2023-12-14 2024-03-08 武汉大学 一种基于数据增强的红外小目标检测方法及装置
CN117765378A (zh) * 2024-02-22 2024-03-26 成都信息工程大学 多尺度特征融合的复杂环境下违禁物品检测方法和装置
CN117765378B (zh) * 2024-02-22 2024-04-26 成都信息工程大学 多尺度特征融合的复杂环境下违禁物品检测方法和装置

Also Published As

Publication number Publication date
CN114612769B (zh) 2023-05-26

Similar Documents

Publication Publication Date Title
CN114202696B (zh) 基于上下文视觉的sar目标检测方法、装置和存储介质
CN109934200B (zh) 一种基于改进M-Net的RGB彩色遥感图像云检测方法及系统
CN114612769B (zh) 一种融入局部结构信息的集成感知红外成像舰船检测方法
CN110348376B (zh) 一种基于神经网络的行人实时检测方法
CN108961235B (zh) 一种基于YOLOv3网络和粒子滤波算法的缺陷绝缘子识别方法
CN111415316B (zh) 基于生成对抗网络的缺陷数据合成方法
CN111738112B (zh) 基于深度神经网络和自注意力机制的遥感船舶图像目标检测方法
CN111797712B (zh) 基于多尺度特征融合网络的遥感影像云与云阴影检测方法
CN111898633B (zh) 一种基于高光谱图像的海上舰船目标检测方法
CN111753677B (zh) 基于特征金字塔结构的多角度遥感船舶图像目标检测方法
CN111079739B (zh) 一种多尺度注意力特征检测方法
CN114565860B (zh) 一种多维度增强学习合成孔径雷达图像目标检测方法
Fang et al. GAN-based Siamese framework for landslide inventory mapping using bi-temporal optical remote sensing images
CN112487912B (zh) 基于改进YOLOv3的任意方向舰船检测方法
CN113610905B (zh) 基于子图像匹配的深度学习遥感图像配准方法及应用
CN113408594A (zh) 一种基于注意力网络尺度特征融合的遥感场景分类方法
CN115359366A (zh) 基于参数优化的遥感图像目标检测方法
CN116363526B (zh) MROCNet模型构建与多源遥感影像变化检测方法及系统
CN109977968A (zh) 一种深度学习分类后比较的sar变化检测方法
CN115019274A (zh) 一种融合追踪与检索算法的路面病害识别方法
CN116935332A (zh) 一种基于动态视频的渔船目标检测与跟踪方法
CN114463624A (zh) 一种应用于城市管理监督的违章建筑物检测方法及装置
CN112560907A (zh) 基于混合域注意力的有限像素红外无人机目标检测方法
CN110135239A (zh) 一种光学遥感影像港口舰船目标的识别方法
CN114926794B (zh) 一种高效的轻量化sar船舶目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant