CN111476167B - 一种基于“学生-t”分布辅助的一阶段方向遥感图像目标检测方法 - Google Patents

一种基于“学生-t”分布辅助的一阶段方向遥感图像目标检测方法 Download PDF

Info

Publication number
CN111476167B
CN111476167B CN202010268979.6A CN202010268979A CN111476167B CN 111476167 B CN111476167 B CN 111476167B CN 202010268979 A CN202010268979 A CN 202010268979A CN 111476167 B CN111476167 B CN 111476167B
Authority
CN
China
Prior art keywords
distribution
student
feature
remote sensing
regression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010268979.6A
Other languages
English (en)
Other versions
CN111476167A (zh
Inventor
武迪
宋华文
冯鹏铭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Zhongke Qianxun Technology Co ltd
Original Assignee
Beijing Zhongke Qianxun Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Zhongke Qianxun Technology Co ltd filed Critical Beijing Zhongke Qianxun Technology Co ltd
Priority to CN202010268979.6A priority Critical patent/CN111476167B/zh
Publication of CN111476167A publication Critical patent/CN111476167A/zh
Application granted granted Critical
Publication of CN111476167B publication Critical patent/CN111476167B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Remote Sensing (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Astronomy & Astrophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于学生‑T分布辅助的一阶段方向遥感图像目标检测方法,通过用基于水平边框的几何方法来解决任意方向边框的问题,包括以下步骤:S1:对遥感图像进行基于水平边框的几何转换方法进行转换;S2:提取遥感图像特征;S3:对从卷积神经网络(Convolutional Neural Network,CNN)、特征金字塔网络结构(Feature Pyramid Network,FPN)得到的特征图分别进行回归与分类;S4:结果优化并输出:采用“学生‑T”分布作为联合分布,合成分类分支和回归分支的结果,对基于“学生‑T”分布的一阶段方向检测模型进行优化,并输出目标检测结果。实现了更精确的遥感图像目标检测。

Description

一种基于“学生-T”分布辅助的一阶段方向遥感图像目标检测 方法
技术领域
本发明涉及卫星遥感信息智能处理领域,特别涉及多光谱遥感数据、卷积神经网络(Convolutional Neural Networks,CNN)的遥感图像的目标检测技术,具体是一种基于“学生-T”分布辅助的一阶段方向遥感图像目标检测方法。
背景技术
目标检测的研究主要应用于遥感图像数据的目标检测以及确定其类别,但遥感图像背景的复杂度和目标的多样性极大地提高了目标检测的难度,特别是分布小并且密集的目标。遥感图像通常采用鸟瞰图拍摄,这意味着物体始终是任意定向的,由此导致物体很难用水平边框所描述。这个问题通常可以用定向目标检测来解决,定向目标检测是为目标设定一个有方向的边框。近期,方向目标的检测可以分为一阶段检测和二阶段检测两种。一阶段检测最近提出了全卷积一阶目标检测器(Fully Convolutional One-Stage ObjectDetection,FCOS),通过预测像素与其对应边界框中心(即“中心”分支)的偏离来检测边界框,能够提供与基于锚的检测器类似的召回率。二阶段检测通常用旋转锚来确定特定目标的图像内容,而在非最大值上计算联合(Intersection Over Union,IoU)上的旋转交叉点抑制(Non-maxima Suppression,NMS),这会导致结果很难区分与训练。
目前关于一阶段和二阶段的目标检测器都比较多,但是不论是一阶检测器还是二阶检测器都没有注意遥感目标的特殊刚度和鸟瞰特性,其轮廓几乎没有变化。如中国发明专利“基于卷积神经网络的遥感图像目标检测方法”(CN201811480380.8)公开了一种基于卷积神经网络的遥感图像目标检测方法,构建由目标检测分支网络和显著性重建分支网络组成的双分支卷积神经网络,通过截断型VGG与目标检测分支网络共同完成目标的定位与分类,改善CNN在遥感图像复杂场景中的特征提取性能,提升目标检测的精度。该专利只是在特征提取过程中增强目标区域的特征,采用的是传统的深度学习模型完成目标检测功能。
再如中国发明专利“一种基于深度学习的遥感图像目标检测方法”(CN201910667981.8)公开了一种基于深度学习的遥感图像目标检测方法,该方法通过获取待检测的遥感图像,利用预设的多尺度特征提取网络,利用预设的多尺度信息融合网络,将各个图像尺度对应的候选框标记图像进行融合,得到预设图像尺度的检测结果图。通过上述方法,能够有效提高遥感图像目标检测的准确度。该专利只是利用多尺度预处理的方法对检测结果进行精度的提高,从而完成目标检测功能,同样采用的也是传统的深度学习模型完成目标检测功能。
通过国内外专利和文献检索,未见结合基于“学生-T”分布的一阶段遥感图像目标检测方法的报道。
发明内容
本发明所要解决的技术问题是提供一种基于“学生-T”分布辅助的一阶段方向遥感图像目标检测方法,以解决现有技术中存在的缺陷。
本发明解决上述技术问题的技术方案如下:
一种基于“学生-T”分布辅助的一阶段方向遥感图像目标检测方法,通过用基于水平边框的几何转换方法来解决任意方向边框的问题,然后执行以下步骤:
S1:对遥感图像进行基于水平边框的几何转换方法进行转换;
S2:提取遥感图像特征;
S3:对从卷积神经网络(Convolutional Neural Network,CNN)、特征金字塔网络结构(Feature Pyramid Network,FPN)得到的特征图分别进行回归与分类;
S4:结果优化并输出:采用“学生-T”分布作为联合分布,合成分类分支和回归分支的结果,对基于“学生-T”分布的一阶段方向检测模型进行优化,并输出目标检测结果。
进一步的,步骤S1中所述的基于水平边框的几何转换方法,用周围的水平参数和转换参数一起描述目标的方向边框,首先当给出方向边框的真值时,把方向边框的真值用转换参数h和w转换到周围的水平边框,水平边框很容易回归,在空间上,用一个4D向量(l,t,r,b)对特征地图上的每个空间位置进行回归;4D向量描述从水平边框的四个侧面到位置的相对偏移。
进一步的,所述的提取遥感图像特征包括:1)用CNN作为神经网络的主干来提取基于水平边框的几何转换得到的输入图像的特征,然后采用FPN,主要用作在不同层次的特征图上检测不同大小的目标;2)定义Ci为主干网络的特征图,Pi为特征等级,用于从特征金字塔网络获得的用于最终预测的特征等级;从以上主干网络卷积神经网络和特征金字塔网络,网络的最后一层,叫“头”,表示从不同等级的特征图,在不同特征等级中共享。
进一步的,步骤S3中所述的对从CNN、FPN得到的特征图分别进行回归与分类:
1)首先对从CNN、FPN得到的特征图分别进行回归与分类。四个卷积层被加在CNN、FPN网络得到的特征图之后,分别为分类分支和回归分支;
2)在分类分支,使用高斯核根据关键点的位置来映射它们的分布,分类的次热图可以表述为:
其中,是Fi上由输入图像中最接近地面真值边界框中心的点投影的位置,设定/>是网络在第i层的特征图的尺寸,W*H表示图片的大小,C表示类别的数量,/>表示实数集,位置P=(x,y)是特征图Fi上的每个关键点,σp是目标尺寸适应的标准偏差。
3)在回归分支,采用6D向量t=(l*,t*,r*,b*,w*,h*)回归一个位置,t*表示t回归的参数,类似的,t*,r*,b*,w*,h*分别表示t,r,b,w,h的回归参数,该参数表示尺寸信息的参数直接回归到每个特征级别;th=(l*,t*,r*,b*)是从水平边框的四条边到位置的距离;给定4D向量(x0,y0,x1,y1)作为水平边框的左上角和右下角点,如果关键点(x,y)与边界框相关联,则该关键点的训练回归目标可以表示为:
l*=x-x0,t*=y-y0
r*=x1-x,b*=y1-y
计算所有特征级别上每个位置的(l*,t*,r*,b*),然后如果某个位置满足判别式:
max(l*,t*,r*,b*)>mi or min(l*,t*,r*,b*)<mi-1
其中,mi是特征等级i需要回归的最大距离;
4)为了合成分类分支和回归分支,采用“学生-T”分布作为联合分布,根据“学生-T”分布的贝叶斯统计量将所有关键点分割到热图上,该统计量可通过高斯分布和逆伽玛分布的积分计算,对于每一个关键点p=(x,y),可表述为:
其中,v是自由角度的数量,是分类的子热图,/>是回归的子热图。Γ表示伽玛函数。
进一步的,步骤S4中所述的对基于“学生-T”分布的一阶段方向检测模型进行优化,首先在由步骤S3得到的基于“学生-T”联合分布结果建立的检测模型进行优化,Lreg回归损失是计算从IoU预测的水平边框和真值的损失可以表示为:
其中IoUHBB表示预测值与水平边框真值之间的IoU,L1表示L1损失函数;方向向量tr=(w*,h*),tr是逆伽玛分布预测的结果,可表示为:
其中γ表示形状参数,δ表示尺度参数;
然后计算Lcls分类损失,Lcls可计算作为焦点损失:
其中,α和β是焦点损失(Focal Loss)的超参数,N是图像的关键点数量;
整体的训练损失函数L计算了特征图Fi的所有位置:
其中,Npos表示正样本的数量,λ=1是Lreg的平衡权重,表示指标函数,如果c*>0,设置为1,否则为0。
本发明的有益效果是:基于学生-T分布辅助的一阶段方向的遥感图像目标检测方法,充分利用了遥感影像目标的特殊刚度和鸟瞰特性,并采用基于深度学习的CNN、FPN模型及高斯分布和逆伽玛分布,实现了更精确的遥感图像目标检测。
附图说明
图1为本发明中方向边框转换成水平边框的示意图;
图2为本发明中基于水平边框的向量示意图;
图3为本发明中网络结构示意图。
具体实施方式
以下结合附图对本发明的原理和特征进行描述,所举实例只用于解释本发明,并非用于限定本发明的范围。
本发明的技术解决方案是:一种基于“学生-T”分布辅助的一阶段方向的遥感图像目标检测方法用基于几何方法的常规水平检测来解决方向检测的问题,这种基于几何方法的常规水平检测可以作为水平和旋转参数之间的联合分布模型。然后用CNN、特征金字塔网络结构(Feature Pyramid Network,FPN)模型提取输入图像的特征。在网络模型之后加四层卷积网络对CNN、FPN得到的特征图分别进行回归与分类。采用“学生-T”分布作为联合分布,合成分类分支和回归分支的结果。最后,对基于“学生-T”分布的一阶段方向检测模型进行优化,并输出目标检测结果。
具体工作原理为:
首先通过带方向参数回归的水平边框检测的几何方法来解决目标任意方向边框的问题,当给出方向边框的真值时,把方向边框的真值用转换参数h和w转换到周围的水平边框;用CNN作为卷积神经网络的主干来提取输入图像的特征,然后采用FPN结构,用作在不同层次的特征图上检测不同大小的目标。然后四个卷积层被加在CNN和FPN结构之后,对从CNN、FPN得到的特征图分别进行回归与分类。在分类分支,使用高斯核根据关键点的位置来映射它们的分布,得到特征图Fi的每个位置的分类分数Px,y;在回归分支,采用6D向量t=(l*,t*,r*,b*,w*,h*)回归每一个位置,l*表示l回归的参数,类似的,t*,r*,b*,w*,h*分别表示t,r,b,w,h的回归参数,得到特征图Fi的每个位置的回归预测tx,y。最后,对基于“学生-T”分布的一阶段方向检测模型进行优化,得出最终的目标检测结果。
下面,将结合附图对本发明的具体工作步骤进行详细描述。
本发明所述的一种基于“学生-T”分布辅助的一阶段方向的遥感图像目标检测方法把方向边框转换成水平边框的示意图。用几何转换的方式把方向边框转换成水平边框,h和w分别为转换参数,其一阶段方向目标检测方法主要包括以下流程:
S1:基于水平边框的几何转换方法。用周围的水平参数和转换参数一起描述目标的方向边框。
首先当给出方向边框的真值时,把方向边框的真值用转换参数h和w转换到周围的水平边框,水平边框很容易回归。在空间上,如图2所示,用一个4D向量(l,t,r,b)对特征地图上的每个空间位置进行回归,4D向量描述从水平边框的四个侧面到位置的相对偏移。
S2:提取遥感图像特征。用CNN作为主干网络来提取S1得到的输入图像的特征,然后采用FPN,主要用作在不同层次的特征图上检测不同大小的目标。定义Ci为主干网络的特征图,Pi为特征等级,用于从特征金字塔网络获得的用于最终预测的特征等级。从以上主干网络卷积神经网络和特征金字塔网络,网络的最后一层,叫“头”,表示从不同等级的特征图,在不同特征等级中共享。
S3:对从CNN、FPN得到的特征图分别进行回归与分类。如图3所示,四个卷积层被加在S2得到的特征图之后,分别为分类分支和回归分支。在分类分支,使用高斯核根据关键点的位置来映射它们的分布,分类的次热图可以表述为:
其中,是Fi上由输入图像中最接近地面真值边界框中心的点投影的位置,设定/>是网络在第i层的特征图的尺寸,W*H表示图片的大小,C表示类别的数量,/>表示实数集,P=(x,y)是特征图Fi上的每个关键点,(x,y)是点P的位置坐标,σp是目标尺寸适应的标准偏差。
在回归分支,采用6D向量t=(l*,t*,r*,b*,w*,h*)回归一个位置,t*表示t回归的参数,类似的,t*,r*,b*,w*,h*分别表示t,r,b,w,h的回归参数,该参数表示尺寸信息的参数直接回归到每个特征级别。th=(l*,t*,r*,b*)是从水平边框的四条边到位置的距离。给定4D向量(x0,y0,x1,y1)作为水平边框的左上角和右下角点,如果关键点(x,y)与边界框相关联,则该关键点的训练回归目标可以表示为:
l*=x-x0,t*=y-y0
r*=x1-x,b*=y1-y
计算所有特征级别上每个位置的(l*,t*,r*,b*),然后如果某个位置满足判别式:
max(l*,t*,r*,b*)>mi or min(l*,t*,r*,b*)<mi-1
其中,mi是特征等级i需要回归的最大距离。
为了合成分类分支和回归分支,采用“学生-T”分布作为联合分布,根据“学生-T”分布的贝叶斯统计量将所有关键点分割到热图上,该统计量可通过高斯分布和逆伽玛分布的积分计算,对于每一个关键点p=(x,y),可表述为:
其中,v是自由角度的数量,是分类的子热图,/>是回归的子热图。Γ表示伽玛函数。
到目前为止,检测框架已经建立,并且可以按照给定的过程实现预测。
S4:对基于“学生-T”的一阶段方向检测模型进行优化。对由S3得到的“学生-T”联合分布结果建立的检测模型进行优化,Lreg回归损失是计算从IoU预测的水平边框和真值的损失可以表示为:
其中IoUHBB表示预测值与水平边框真值之间的IoU,L1表示L1损失函数。方向向量tr=(w*,h*),tr是逆伽玛分布预测的结果,可表示为:
其中γ表示形状参数,δ表示尺度参数。
然后计算Lcls分类损失,Lcls可计算作为焦点损失:
其中,α和β是焦点损失(Focal Loss)的超参数,N是图像的关键点数量。
整体的训练损失函数L计算了特征图Fi的所有位置:
其中,Npos表示正样本的数量,λ=1是Lreg的平衡权重,表示指标函数,如果c*>0,设置为1,否则为0.
本发明与现有技术相比具有如下优点:
1.通过带有几何转换的常规水平检测方法,可以解决翻转角度通常在分开的分支预测,导致很难和目标的位置或者目标的其他特性相联系的问题,从而形成水平和旋转参数之间的联合分布模型。
2.针对于一阶段检测和二阶段检测都没有考虑遥感图像的特殊刚度和鸟瞰特性,相比于传统的一阶段方向检测器,本方法结合一阶段检测的方向检测构架,能更好的利用遥感图像的鸟瞰特性,从而实现更精准的图像检测。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (4)

1.一种基于“学生-T”分布辅助的一阶段方向遥感图像目标检测方法,其特征在于,包括以下步骤:
S1:对遥感图像使用基于水平边框的几何转换方法进行转换;其中,所述的基于水平边框的几何转换方法,用周围的水平参数和转换参数一起描述目标的方向边框,首先当给出方向边框的真值时,把方向边框的真值用转换参数h和w转换到周围的水平边框,水平边框很容易回归,在空间上,用一个4D向量(l,t,r,b)对特征地图上的每个空间位置进行回归;4D向量描述从水平边框的四个侧面到位置的相对偏移;
S2:提取遥感图像特征;
S3:对从卷积神经网络CNN、特征金字塔网络结构FPN得到的特征图分别进行回归与分类;
S4:结果优化并输出:采用“学生-T”分布作为联合分布,合成分类分支和回归分支的结果,对基于“学生-T”分布的一阶段方向检测模型进行优化,并输出目标检测结果。
2.根据权利要求1所述的一种基于“学生-T”分布辅助的一阶段方向遥感图像目标检测方法,其特征在于:所述的提取遥感图像特征包括:1)用CNN作为神经网络的主干来提取基于水平边框的几何转换得到的输入图像的特征,然后采用FPN,主要用作在不同层次的特征图上检测不同大小的目标;2)定义Ci为主干网络的特征图,Pi为特征等级,用于从特征金字塔网络获得的用于最终预测的特征等级;从以上主干网络卷积神经网络和特征金字塔网络,网络的最后一层,叫“头”,表示从不同等级的特征图,在不同特征等级中共享。
3.根据权利要求2所述的一种基于“学生-T”分布辅助的一阶段方向遥感图像目标检测方法,其特征在于:步骤S3中所述的对从CNN、FPN得到的特征图分别进行回归与分类:
1)首先对从CNN、FPN得到的特征图分别进行回归与分类;四个卷积层被加在CNN、FPN网络得到的特征图之后,分别为分类分支和回归分支;
2)在分类分支,使用高斯核根据关键点的位置来映射它们的分布,分类的次热图可以表述为:
其中,是Fi上由输入图像中最接近地面真值边界框中心的点投影的位置,设定是网络在第i层的特征图的尺寸,W*H表示图片的大小,C表示类别的数量,/>表示实数集,位置P=(x,y)是特征图Fi上的每个关键点,σp是目标尺寸适应的标准偏差;
3)在回归分支,采用6D向量t=(l*,t*,r*,b*,w*,h*)回归一个位置,t*表示t回归的参数,类似的,t*,r*,b*,w*,h*分别表示t,r,b,w,h的回归参数,该参数表示尺寸信息的参数直接回归到每个特征级别;th=(l*,t*,r*,b*)是从水平边框的四条边到位置的距离;给定4D向量(x0,y0,x1,y1)作为水平边框的左上角和右下角点,如果关键点(x,y)与边界框相关联,则该关键点的训练回归目标可以表示为:
l*=x-x0,t*=y-y0
r*=x1-x,b*=y1-y
计算所有特征级别上每个位置的(l*,t*,r*,b*),然后如果某个位置满足判别式:
max(l*,t*,r*,b*)>mi or min(l*,t*,r*,b*)<mi-1
其中,mi是特征等级i需要回归的最大距离;
4)为了合成分类分支和回归分支,采用“学生-T”分布作为联合分布,根据“学生-T”分布的贝叶斯统计量将所有关键点分割到热图上,该统计量可通过高斯分布和逆伽玛分布的积分计算,对于每一个关键点p=(x,y),可表述为:
其中,v是自由角度的数量,是分类的子热图,/>是回归的子热图,Γ表示伽玛函数。
4.根据权利要求3所述的一种基于“学生-T”分布辅助的一阶段方向遥感图像目标检测方法,其特征在于:
步骤S4中所述的对基于“学生-T”分布的一阶段方向检测模型进行优化,首先在由步骤S3得到的基于“学生-T”联合分布结果建立的检测模型进行优化,Lreg回归损失是计算从IoU预测的水平边框和真值的损失可以表示为:
其中IoUHBB表示预测值与水平边框真值之间的IoU,L1表示L1损失函数;方向向量tr=(w*,h*),tr是逆伽玛分布预测的结果,可表示为:
其中γ表示形状参数,δ表示尺度参数;
然后计算Lcls分类损失,Lcls可计算作为焦点损失:
其中,α和β是焦点损失(Focal Loss)的超参数,N是图像的关键点数量;
整体的训练损失函数L计算了特征图Fi的所有位置:
其中,Npos表示正样本的数量,λ=1是Lreg的平衡权重,Ψc*>0表示指标函数,如果c*>0,设置为1,否则为0。
CN202010268979.6A 2020-04-09 2020-04-09 一种基于“学生-t”分布辅助的一阶段方向遥感图像目标检测方法 Active CN111476167B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010268979.6A CN111476167B (zh) 2020-04-09 2020-04-09 一种基于“学生-t”分布辅助的一阶段方向遥感图像目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010268979.6A CN111476167B (zh) 2020-04-09 2020-04-09 一种基于“学生-t”分布辅助的一阶段方向遥感图像目标检测方法

Publications (2)

Publication Number Publication Date
CN111476167A CN111476167A (zh) 2020-07-31
CN111476167B true CN111476167B (zh) 2024-03-22

Family

ID=71750162

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010268979.6A Active CN111476167B (zh) 2020-04-09 2020-04-09 一种基于“学生-t”分布辅助的一阶段方向遥感图像目标检测方法

Country Status (1)

Country Link
CN (1) CN111476167B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112364906A (zh) * 2020-11-03 2021-02-12 北京工商大学 一种基于ExtremeNet融合双阶段的图像目标检测方法
CN113177503A (zh) * 2021-05-13 2021-07-27 中国人民解放军陆军炮兵防空兵学院 基于yolov5的任意朝向目标十二参数检测方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106022307A (zh) * 2016-06-08 2016-10-12 中国科学院自动化研究所 基于船只旋转矩形空间的遥感图像船只检测方法
CN107423760A (zh) * 2017-07-21 2017-12-01 西安电子科技大学 基于预分割和回归的深度学习目标检测方法
CN108764462A (zh) * 2018-05-29 2018-11-06 成都视观天下科技有限公司 一种基于知识蒸馏的卷积神经网络优化方法
WO2018214195A1 (zh) * 2017-05-25 2018-11-29 中国矿业大学 一种基于卷积神经网络的遥感图像桥梁检测方法
CN109800629A (zh) * 2018-12-05 2019-05-24 天津大学 一种基于卷积神经网络的遥感图像目标检测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106022307A (zh) * 2016-06-08 2016-10-12 中国科学院自动化研究所 基于船只旋转矩形空间的遥感图像船只检测方法
WO2018214195A1 (zh) * 2017-05-25 2018-11-29 中国矿业大学 一种基于卷积神经网络的遥感图像桥梁检测方法
CN107423760A (zh) * 2017-07-21 2017-12-01 西安电子科技大学 基于预分割和回归的深度学习目标检测方法
CN108764462A (zh) * 2018-05-29 2018-11-06 成都视观天下科技有限公司 一种基于知识蒸馏的卷积神经网络优化方法
CN109800629A (zh) * 2018-12-05 2019-05-24 天津大学 一种基于卷积神经网络的遥感图像目标检测方法

Also Published As

Publication number Publication date
CN111476167A (zh) 2020-07-31

Similar Documents

Publication Publication Date Title
CN113065558B (zh) 一种结合注意力机制的轻量级小目标检测方法
Wang et al. Learning center probability map for detecting objects in aerial images
WO2020244653A1 (zh) 物体识别方法及装置
CN109800689B (zh) 一种基于时空特征融合学习的目标跟踪方法
CN112084869B (zh) 一种基于紧致四边形表示的建筑物目标检测方法
CN107481315A (zh) 一种基于Harris‑SIFT‑BRIEF算法的单目视觉三维环境重建方法
CN114332385A (zh) 一种基于三维虚拟地理场景的单目相机目标检测与空间定位方法
CN111476167B (zh) 一种基于“学生-t”分布辅助的一阶段方向遥感图像目标检测方法
CN110827320B (zh) 基于时序预测的目标跟踪方法和装置
CN106600613B (zh) 基于嵌入式gpu的改进lbp红外目标检测方法
Sun et al. Wheat head counting in the wild by an augmented feature pyramid networks-based convolutional neural network
CN113033315A (zh) 一种稀土开采高分影像识别与定位方法
Wang et al. MCF3D: Multi-stage complementary fusion for multi-sensor 3D object detection
CN116612468A (zh) 基于多模态融合与深度注意力机制的三维目标检测方法
CN114764856A (zh) 图像语义分割方法和图像语义分割装置
Cheng et al. C 2-YOLO: Rotating Object Detection Network for Remote Sensing Images with Complex Backgrounds
Engels et al. 3d object detection from lidar data using distance dependent feature extraction
Gu et al. Radar-enhanced image fusion-based object detection for autonomous driving
CN110826575A (zh) 一种基于机器学习的水下目标识别方法
CN116682105A (zh) 一种毫米波雷达和视觉特征注意力融合的目标检测方法
CN115410089A (zh) 自适应局部上下文嵌入的光学遥感小尺度目标检测方法
CN113379738A (zh) 一种基于图像的疫木检测与定位方法及系统
Han et al. GardenMap: Static point cloud mapping for Garden environment
CN113963265A (zh) 一种复杂遥感陆地环境小样本小目标快速检测识别方法
CN117523428B (zh) 基于飞行器平台的地面目标检测方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant