CN116310780A - 基于轮廓建模的光学遥感图像任意方向船只目标检测方法 - Google Patents

基于轮廓建模的光学遥感图像任意方向船只目标检测方法 Download PDF

Info

Publication number
CN116310780A
CN116310780A CN202211457551.1A CN202211457551A CN116310780A CN 116310780 A CN116310780 A CN 116310780A CN 202211457551 A CN202211457551 A CN 202211457551A CN 116310780 A CN116310780 A CN 116310780A
Authority
CN
China
Prior art keywords
scale
loss function
ship
contour
remote sensing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211457551.1A
Other languages
English (en)
Inventor
庄胤
刘钰群
张桐
陈禾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Original Assignee
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT filed Critical Beijing Institute of Technology BIT
Priority to CN202211457551.1A priority Critical patent/CN116310780A/zh
Publication of CN116310780A publication Critical patent/CN116310780A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/52Scale-space analysis, e.g. wavelet analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于轮廓建模的光学遥感图像任意方向船只目标检测方法。本发明利用新提出的傅里叶轮廓建模策略,通过回归傅里叶轮廓描述系数,避免了从旋转检测框中解耦几个独立的特征参数进行特征回归,从而有效解决了角度周期性以及长短边交换造成回归负优化问题;对比已有技术,本发明能够很好地对高分辨率光学遥感图像中的任意方向船只目标进行检测,在面对旋转船只目标方向任意、尺度变化、密集分布等复杂条件时也取得了良好效果,解决了角度周期性以及长短边交换造成的回归问题,并且可以降低角度回归不准确造成的虚警率。

Description

基于轮廓建模的光学遥感图像任意方向船只目标检测方法
技术领域
本发明涉及光学遥感图像处理和目标检测技术领域,具体涉及一种基于轮廓建模的光学遥感图像任意方向船只目标检测方法。
背景技术
近年来,随着遥感技术的迅猛发展,多种卫星传感器的对地观测技术不断完善,遥感数据具备了高效率、多尺度、大容量以及细节丰富等特征,光学遥感图像目标检测成为了研究热点。早期的目标检测以传统图像处理方法为基础,通过手工设计的特征对目标进行描述,如:Haar-like,LBP和SIFT。由于卷积神经网络具有较强的自动特征提取能力以及表征能力,因此,在目标检测任务中得到了广泛应用,显著提升了目标检测能力和稳定性。
在任意方向的船只目标检测领域,基于卷积神经网络的旋转目标检测方法可以分为三类:基于角度、基于顶点坐标以及基于向量描述的方法。其中,基于角度的任意方向目标描述方式采用中心点坐标、长宽以及旋转角度五个独立参数来进行旋转目标的描述;基于顶点坐标的任意方向目标描述方式通常采用四个顶点坐标,即八参数法来完成目标的描述;基于向量的任意方向目标描述方式采用在笛卡尔坐标系下相互垂直的向量进行旋转目标描述。然而,由于角度固有的周期性以及长短边交换等因素,会带来直接回归角度困难的问题。而基于顶点坐标和向量的描述方式需要回归的独立参数过多,收敛速度慢,检测率低。综上,现有的任意方向目标描述方法仍存在角度信息回归表征不准确的问题,从而影响光学遥感任意方向船只目标检测性能,因此,亟需开展高精度任意方向目标表征方法研究。
发明内容
有鉴于此,本发明提供了一种基于轮廓建模的高分辨光学遥感图像任意方向船只目标检测方法,设计了一种等角度采样的傅里叶轮廓建模方法,以用于无锚框的任意方向船只目标检测。该方法首先利用轮廓固有的角度周期在极坐标系中建立统一描述方法,并完成基于轮廓的等角度间隔采样,随后对采样点二维周期性分布函数进行傅里叶变换,完成任意方向船只目标轮廓描述并用于模型参数回归。此外,通过建立几何损失函数促进模型的训练,使模型有效的捕获船只目标方向信息。本发明可以实现高效、高精度的高分辨率光学遥感图像任意方向船只目标检测,并可以在低资源条件的约束下提升船只目标检测的平均精确度。
本发明的基于轮廓建模的光学遥感图像任意方向船只目标检测方法,包括:
步骤一,对光学遥感图像进行多尺度特征提取,得到多尺度特征图;
步骤二,对多尺度特征图进行分类和回归分析;其中,所述回归分析是通过预测傅里叶轮廓信息参数完成回归分析,所述傅里叶轮廓信息参数包括目标中心点位置信息、尺度因子和形状因子;其中,尺度因子为:以目标中心位置为极点进行等角度采样,采样点为等角度间隔的射线与船只轮廓交点,采样点与极点的距离的最大值即为尺度因子;形状因子为:利用所述尺度因子,对采样点与极点之间的距离进行归一化,得到归一化后的采样点,建立归一化后采样点的分布函数,对所述分布函数做傅里叶变换,得到的高频特征、低频特征以及零频特征即为形状因子;
步骤三,对步骤二预测的傅里叶轮廓信息参数进行解码,得到船只目标检测结果。
较优的,所述步骤一还包括:对多尺度特征图进行特征融合,得到融合后的多尺度特征图;采用融合后的多尺度特征图执行后续步骤。
较优的,特征融合采用FPN、PANet、NAS-FPN或CFPN方法。
较优的,通过对各尺度特征图C3~Cn进行1×1的卷积和跳接部分,产生对应的特征金字塔P3~Pn,对Pn进行步进为2的卷积操作得到Pn+1;P3~Pn+1为融合后的多尺度特征图。
较优的,所述步骤一中,采用ResNet-18骨干网络进行多尺度特征提取。
较优的,所述步骤二回归分析时,利用内在几何信息损失函数进行监督学习;所述内在几何信息损失函数为分类损失函数、定位损失函数以及轮廓损失函数的加权和。
较优的,所述内在几何信息损失函数L为:
Figure BDA0003953702040000031
其中,Npos、Nneg分别为预测为正的轮廓点数与预测为负的轮廓点数;
Figure BDA0003953702040000032
为分类损失函数,/>
Figure BDA0003953702040000033
分别为预测为在船只目标区域内的概率以及其标注真值;
Figure BDA0003953702040000034
为定位损失函数,/>
Figure BDA0003953702040000035
分别为预测的第i个位置因子以及其标注真值;Lcont(r(θi),r*i))为轮廓损失函数,r(θi),r*i)分别为第i个形状因子和尺度因子的连接值以及其标注真值。
较优的,所述步骤三具体为:
S1,将步骤二预测的形状因子进行傅里叶逆变换,得到预测的船只目标的归一化一维距离分布;
S2,基于尺度因子,对S1距离分布进行去归一化;
S3,将去归一化的距离分布转换到笛卡尔坐标系下,获得船只目标的坐标点。
有益效果:
(1)本发明利用新提出的傅里叶轮廓建模策略,通过回归傅里叶轮廓描述系数,避免了从旋转检测框中解耦几个独立的特征参数进行特征回归,从而有效解决了角度周期性以及长短边交换造成回归负优化问题;对比已有技术,本发明能够很好地对高分辨率光学遥感图像中的任意方向船只目标进行检测,在面对旋转船只目标方向任意、尺度变化、密集分布等复杂条件时也取得了良好效果,解决了角度周期性以及长短边交换造成的回归问题,并且可以降低角度回归不准确造成的虚警率。
(2)本发明使用较为轻量化的骨干网络,实现了速度与精度权衡的旋转船只目标高性能检测,并在不同IoU,如0.5IoU、0.7IoU以及0.9IoU下均能取得具有竞争力的检测结果,具有较好的实际应用价值。
(3)本发明采用自上而下的特征融合策略,对多尺度特征图进行浅层特征和深层特征的融合,使得网络学习到旋转船只目标的有效多尺度信息,消除船只目标尺度跨度大的影响,进一步提高检测效率。
(4)本发明能够显著提高光学遥感图像任意方向的船只目标的检测效果。特别是针对方向多样性且长宽比巨大的船只目标,且在环境较为复杂,船只目标密集分布等复杂条件时也能取到良好的检测效果,在提高检测率的基础上,提升了船只描述的精确程度。
附图说明
图1为本发明的傅里叶轮廓信息参数示意。
图2为本发明检测方法流程图。
图3为解码示意。
图4为逆傅里叶变换归一化损失函数计算示意图。
具体实施方式
下面结合附图并举实施例,对本发明进行详细描述。
本发明提供了一种基于轮廓建模的光学遥感图像任意方向船只目标检测方法,提高卷积神经网络高分辨光学遥感图像任意方向船只目标的检测精度和速度。本方法首先利用轮廓固有的角度周期性在极坐标系中等角度间隔采样,随后利用傅里叶变换将采样点与中心点的射线长度转换为二维周期性分布,并映射到傅里叶域,接着通过网络对其傅里叶系数、中心点坐标以及尺度因子进行学习,最后通过逆傅里叶变换,将预测系数映射回空间中任意方向的目标轮廓,从而有效地描述了旋转船只目标提高了目标的检测率。
如图1所示,本发明使用傅里叶轮廓建模策略,完成旋转船只目标的整体描述,其中,本发明轮廓信息参数具体包括:
(1)确定目标中心点:针对船只目标检测过程定位困难的问题,计算船只目标标注坐标的横坐标(x0,x1,x2,...,xN)与纵坐标(y0,y1,y2,...,yN)的均值,即船只目标的中心点
Figure BDA0003953702040000051
从而得到船只目标的位置信息。
(2)等角度采样:由于船只目标具有大长宽比以及旋转目标具有角度周期性,采用Top-down的建模思想以船只目标中心点为极点,等间隔顺时针采样,获得轮廓采样信息,采样点为等角度间隔的射线与船只轮廓交点,即角度为(θ0,θ1,θ2,...,θn,...,θN),其中
Figure BDA0003953702040000052
对应的轮廓采样点一维周期分布为从极点出发的射线与轮廓相交的距离分布,即(R0,R1,R2,...,Rn,...,RN)。
(3)确定尺度因子:由于船只目标具有多尺度的特点,将尺度信息进行因果信息解耦,计算得距离分布最大值Rmax=max(R0,R1,R2,...,Rn,...,RN),即船只目标的尺度因子。
(4)空域信息向二维周期性分布映射:根据利用尺度因子完成一维周期分布归一化,
Figure BDA0003953702040000053
建立轮廓归一化采样点的分布函数/>
Figure BDA0003953702040000054
Figure BDA0003953702040000055
(5)确定形状因子:船只轮廓的采样点数与轮廓描述的精确程度难以平衡,于是将二维周期性分布曲线做傅里叶变换将分布函数转到傅里叶域,得到的傅里叶系数为:
Figure BDA0003953702040000056
由于高频信号包含的是整体的轮廓信息,低频信号包含的是轮廓的细节信息,于是选取2K+1个频率进行特征描述,其中包括K个高频特征,K个低频特征以及一个零频特征。
本发明利用新提出的傅里叶轮廓建模策略,通过回归傅里叶轮廓描述系数,避免了从旋转检测框中解耦几个独立的特征参数进行特征回归,从而有效解决了角度周期性以及长短边交换造成回归负优化问题。
具体检测流程图如图2所示,具体包括:
步骤1,对输入的高分辨光学遥感图像进行多尺度特征提取,得到多尺度特征图。
本步骤中,可采用ResNet、ResNeXt、DenseNet、HourglassNet等方法实现多尺度特征提取。本实施例采用ResNet-18骨干网络,该网络训练速度较快,节省计算资源,防止模型过拟合,具有较强的泛化能力,特征提取较为不充分,更加凸显建模的有效性。输入的高分辨光学遥感图像经过ResNet-18骨干网络的多尺度特征提取后,产生多尺度特征图:C3,C4,C5。
步骤2,对多尺度特征图进行特征融合,得到融合后的多尺度金字塔特征图;
考虑到船只目标尺度跨度很大,为了适应这种变化,进一步提高检测效率,对步骤1的多尺度特征图中的深浅网络特征进行融合,深层网络得到高级语义特征,具有更多的不变性特征,便于网络分类,浅层网络则具有更多的等变性特征,具有丰富的目标和背景之间的关系特征,便于目标定位回归。
本步骤中,特征融合可采用FPN、PANet、NAS-FPN、CFPN等方法。本实施例采用FPN,具体为使用1×1卷积过滤器将C5进行通道深度降维,应用一个3×3卷积得到P5,对C5通道降维后的结果进行步进为2的上采样,并与C4经过1×1卷积过滤器后的结果进行相加,相加结果经过一个3×3卷积得到P4,接着对C4通道降维后的结果进行步进为2的上采样,与C3经过1×1卷积过滤器后的结果进行相加,相加结果经过一个3×3卷积得到P3,最后对P5进行步进为2的上采样得到P6。
步骤3,对步骤2的各层特征图P3、P4、P5、P6分别送入分类预测网络、位置因子回归网络、形状尺度因子回归网络得到分类预测结果、位置因子预测结果与形状尺度因子预测结果;
其中,分类预测网络由四组卷积模块和一个3×3,通道数为2的卷积操作组成,卷积模块包括一个3×3的卷积操作,一个组归一化(Group Normalization)以及一个激活函数ReLU,得到2个预测的概率分布图,即分类预测结果;位置因子回归网络由四组卷积模块和一个3×3,通道数为2的卷积操作组成,卷积模块包括一个3×3的卷积操作,一个组归一化(Group Normalization)以及一个激活函数ReLU,得到通道数为2的位置因子预测结果;形状尺度因子回归网络由四组卷积模块和一个3×3,通道数为2K+3的卷积操作组成,其中K为人为设定的傅里叶级数,用于描述目标轮廓,本发明K=16,其卷积模块包括一个3×3的卷积操作,一个组归一化(Group Normalization)以及一个激活函数ReLU,得到通道数为2K+3的形状尺度因子预测结果;
步骤4,利用损失函数修正目标的位置因子、形状因子以及尺度因子,本发明提出了内在几何信息损失函数,利用其监督网络学习旋转船只目标的潜在信息。其中,内在几何信息损失函数的计算方式,分为如下四个子步骤:
S401,分类损失函数Lcls:Pi由softmax函数产生的概率值,表明预测为在船只目标区域内的概率值,
Figure BDA0003953702040000071
是标注的真值,损失函数为SmoothL1:
Figure BDA0003953702040000072
S402,定位损失函数Lloc:Ci是回归得到的中心点坐标,即代表船只目标的位置信息,
Figure BDA0003953702040000073
是标注的真值中心点,损失函数为SmoothL1:
Figure BDA0003953702040000074
S403,轮廓损失函数:将预测的形状因子通过逆傅里叶变换转到时域中:
Figure BDA0003953702040000075
其中:r(θn)为预测的船只目标的归一化一维距离分布,ck为预测的傅里叶系数。
将由真值计算得到的形状因子通过逆傅里叶变换转到时域中:
Figure BDA0003953702040000081
如图4,在极坐标下进行损失函数的计算,
Figure BDA0003953702040000082
是标注的归一化一维距离分布的形状因子和位置因子的连接值,损失函数为SmoothL1:
Figure BDA0003953702040000083
S304,内在几何信息损失函数:将分类损失函数,定位损失函数以及轮廓损失函数进行加权求和:
Figure BDA0003953702040000084
其中,Npos、Nneg分别为预测为正的轮廓点数与预测为负的轮廓点数;
Figure BDA0003953702040000085
为分类损失函数,/>
Figure BDA0003953702040000086
分别为预测为在船只目标区域内的概率以及其标注真值;
Figure BDA0003953702040000087
为定位损失函数,/>
Figure BDA0003953702040000088
分别为预测的第i个位置因子以及其标注真值;Lcont(r(θi),r*i))为轮廓损失函数,r(θi),r*i)分别为第i个形状因子和尺度因子的连接值以及其标注真值。
步骤5、对步骤3得到的位置因子、尺度因子和形状因子预测结果进行解码操作,得到船只目标检测的结果。
如图3所示,对网络预测的信息进行解码操作,分为三个子步骤:
S5.1,将网络预测的形状因子进行傅里叶逆变换:
Figure BDA0003953702040000089
S5.2,对傅里叶逆变换后的形状因子进行去归一化,即乘相应的尺度因子:
Rn=rn×Rmax
S5.3,将极坐标下的坐标转换到笛卡尔坐标系下,获得船只目标的坐标点:
xn=Rn×cosθn+xcenter
yn=Rn×sinθn+ycenter
综上所述,以上仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种基于轮廓建模的光学遥感图像任意方向船只目标检测方法,其特征在于,包括:
步骤一,对光学遥感图像进行多尺度特征提取,得到多尺度特征图;
步骤二,对多尺度特征图进行分类和回归分析;其中,所述回归分析是通过预测傅里叶轮廓信息参数完成回归分析,所述傅里叶轮廓信息参数包括目标中心点位置信息、尺度因子和形状因子;其中,尺度因子为:以目标中心位置为极点进行等角度采样,采样点为等角度间隔的射线与船只轮廓交点,采样点与极点的距离的最大值即为尺度因子;形状因子为:利用所述尺度因子,对采样点与极点之间的距离进行归一化,得到归一化后的采样点,建立归一化后采样点的分布函数,对所述分布函数做傅里叶变换,得到的高频特征、低频特征以及零频特征即为形状因子;
步骤三,对步骤二预测的傅里叶轮廓信息参数进行解码,得到船只目标检测结果。
2.如权利要求1所述的方法,其特征在于,所述步骤一还包括:对多尺度特征图进行特征融合,得到融合后的多尺度特征图;采用融合后的多尺度特征图执行后续步骤。
3.如权利要求2所述的方法,其特征在于,特征融合采用FPN、PANet、NAS-FPN或CFPN方法。
4.如权利要求3所述的方法,其特征在于,特征融合具体为:通过对各尺度特征图C3~Cn进行1×1的卷积和跳接部分,产生对应的特征金字塔P3~Pn,对Pn进行步进为2的卷积操作得到Pn+1;P3~Pn+1为融合后的多尺度特征图。
5.如权利要求1~4任一所述的方法,其特征在于,所述步骤一中,采用ResNet-18骨干网络进行多尺度特征提取。
6.如权利要求1所述的方法,其特征在于,所述步骤二回归分析时,利用内在几何信息损失函数进行监督学习;所述内在几何信息损失函数为分类损失函数、定位损失函数以及轮廓损失函数的加权和。
7.如权利要求6所述的方法,其特征在于,所述内在几何信息损失函数L为:
Figure FDA0003953702030000021
其中,Npos、Nneg分别为预测为正的轮廓点数与预测为负的轮廓点数;
Figure FDA0003953702030000022
为分类损失函数,Pi,/>
Figure FDA0003953702030000023
分别为预测为在船只目标区域内的概率以及其标注真值;/>
Figure FDA0003953702030000024
为定位损失函数,Ci,/>
Figure FDA0003953702030000025
分别为预测的第i个位置因子以及其标注真值;Lcont(r(θi),r*i))为轮廓损失函数,r(θi),r*i)分别为第i个形状因子和尺度因子的连接值以及其标注真值。
8.如权利要求1所述的方法,其特征在于,所述步骤三具体为:
S1,将步骤二预测的形状因子进行傅里叶逆变换,得到预测的船只目标的归一化一维距离分布;
S2,基于尺度因子,对S1距离分布进行去归一化;
S3,将去归一化的距离分布转换到笛卡尔坐标系下,获得船只目标的坐标点。
CN202211457551.1A 2022-11-21 2022-11-21 基于轮廓建模的光学遥感图像任意方向船只目标检测方法 Pending CN116310780A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211457551.1A CN116310780A (zh) 2022-11-21 2022-11-21 基于轮廓建模的光学遥感图像任意方向船只目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211457551.1A CN116310780A (zh) 2022-11-21 2022-11-21 基于轮廓建模的光学遥感图像任意方向船只目标检测方法

Publications (1)

Publication Number Publication Date
CN116310780A true CN116310780A (zh) 2023-06-23

Family

ID=86834685

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211457551.1A Pending CN116310780A (zh) 2022-11-21 2022-11-21 基于轮廓建模的光学遥感图像任意方向船只目标检测方法

Country Status (1)

Country Link
CN (1) CN116310780A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117876711A (zh) * 2024-03-12 2024-04-12 金锐同创(北京)科技股份有限公司 基于图像处理的图像目标检测方法、装置、设备及介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117876711A (zh) * 2024-03-12 2024-04-12 金锐同创(北京)科技股份有限公司 基于图像处理的图像目标检测方法、装置、设备及介质

Similar Documents

Publication Publication Date Title
CN111091105A (zh) 基于新的边框回归损失函数的遥感图像目标检测方法
CN111310861A (zh) 一种基于深度神经网络的车牌识别和定位方法
CN110728658A (zh) 一种基于深度学习的高分辨率遥感影像弱目标检测方法
CN112488210A (zh) 一种基于图卷积神经网络的三维点云自动分类方法
CN108960421B (zh) 改进基于bp神经网络的水面无人艇航速在线预报方法
CN107992818B (zh) 一种光学遥感图像海面船只目标的检测方法
Wang et al. Ship detection based on fused features and rebuilt YOLOv3 networks in optical remote-sensing images
Wang et al. A center location algorithm for tropical cyclone in satellite infrared images
CN112487900B (zh) 一种基于特征融合的sar图像舰船目标检测方法
CN113888461A (zh) 基于深度学习的小五金件缺陷检测方法、系统及设备
CN112784757B (zh) 海上sar舰船目标显著性检测与识别方法
CN115937659A (zh) 基于Mask-RCNN的室内复杂环境下多目标检测方法
CN116310780A (zh) 基于轮廓建模的光学遥感图像任意方向船只目标检测方法
CN115220007A (zh) 一种针对姿态识别的雷达点云数据增强方法
CN117689995A (zh) 一种基于单目图像的未知航天器层级检测方法
CN113064133A (zh) 一种基于时频域深度网络的海面小目标特征检测方法
CN116953702A (zh) 基于演绎范式的旋转目标检测方法及装置
Xu et al. Ship images detection and classification based on convolutional neural network with multiple feature regions
CN116664826A (zh) 一种小样本点云语义分割方法
Han et al. Accurate and robust vanishing point detection method in unstructured road scenes
xi Wang et al. Detection of MMW radar target based on doppler characteristics and deep learning
Song et al. Fast detection of multi-direction remote sensing ship object based on scale space pyramid
Wang et al. An Improved Object Detection Method for Underwater Sonar Image Based on PP-YOLOv2
CN113158806A (zh) 一种基于OTD_Loglogistic的SAR数据海洋目标检测方法
Lan et al. Spatial-Transformer and Cross-Scale Fusion Network (STCS-Net) for Small Object Detection in Remote Sensing Images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination