CN113284185A - 用于遥感目标检测的旋转目标检测方法 - Google Patents

用于遥感目标检测的旋转目标检测方法 Download PDF

Info

Publication number
CN113284185A
CN113284185A CN202110666805.XA CN202110666805A CN113284185A CN 113284185 A CN113284185 A CN 113284185A CN 202110666805 A CN202110666805 A CN 202110666805A CN 113284185 A CN113284185 A CN 113284185A
Authority
CN
China
Prior art keywords
target
remote sensing
length
frame
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110666805.XA
Other languages
English (en)
Other versions
CN113284185B (zh
Inventor
张军
黄若飞
李妍
石陆魁
张洋
李思敏
刘月
吴朋莉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
HEBEI SOFTWARE TECHNOLOGY Co.,Ltd.
Original Assignee
Hebei University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hebei University of Technology filed Critical Hebei University of Technology
Priority to CN202110666805.XA priority Critical patent/CN113284185B/zh
Publication of CN113284185A publication Critical patent/CN113284185A/zh
Application granted granted Critical
Publication of CN113284185B publication Critical patent/CN113284185B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明为一种用于遥感目标检测的旋转目标检测方法,该方法包括:第一步、获取遥感图像,得到遥感图像中目标外接矩形的位置信息,并对遥感图像进行归一化处理;第二步、利用深度学习网络进行目标检测,输出预测结果,预测结果为目标外接矩形的分类和位置信息;第三步、对预测结果进行解码,根据目标外接矩形的位置信息得到旋转目标。本发明提出了一种用于检测旋转目标的新回归方式,将旋转目标对应的倾斜矩形框的最小外接正矩形当作正框标注,通过检测正框和以其中心为圆心的圆与正框的交点与正框顶点之间的距离,得到旋转目标的倾斜矩形框标注,比起传统的检测角度信息,精度高。

Description

用于遥感目标检测的旋转目标检测方法
技术领域
本发明属于遥感目标检测技术领域,具体是一种用于遥感目标检测的旋转目标检测方法,可用于遥感领域的船舰检测、车辆检测、飞机检测等。
背景技术
目标检测在遥感领域是一个基础又热门的研究分支,主要内容是识别图像中物体的类别和位置,被广泛应用于军事领域、交通控制、机场监控、近海岸船舰检测等场合。由于遥感图像都是航拍或者卫星拍摄,因此图像中物体并不是沿水平或垂直方向规整排列,而是呈任意方向排列,即物体在图像中与水平或竖直方向呈一定夹角排布。
近几年,目标检测技术发展速度很快,比较有代表性方法的是二阶段的FasterRcnn、一阶段的SSD或YOLO系列,还有基于Anchor Free方法的,例如CornerNet、CenterNet等,这些方法都是基于的HBB检测方式实现,得到的目标框具有很多冗余信息,且不能获得物体的倾斜方向,并且都是基于自然场景下的任务提出的,而遥感图像尺寸较大,属于高空俯视拍摄,目标密集,目标在图像中呈不同角度的倾斜排布,因此采用传统的图像检测方式结果不准确,效果并不理想。
随着遥感技术不断发展,OBB标注的目标检测方法被提出,更适用于遥感目标检测,常用的有五参数回归法和八参数回归法,五参数回归法通过回归预测(x,y,w,h,θ)这五个参数,θ是指矩形的旋转角度,由于卷积神经网络提取的特征都是水平或垂直信息,不容易提取角度信息,因此θ不容易预测。八参数回归法包含(x1,y1,x2,y2,x3,y3,x4,y4)这八个自由度,即目标四个顶点的横、纵坐标,需要预测的自由度太多,且精度较低;而且这四个顶点并不能准确预测,因此这四个顶点形成的不一定是矩形,可能是平行四边形或者其他四边形,由于标签是矩形,导致IOU值偏低,预测结果不准确。
发明内容
针对现有技术的不足,本发明拟解决的技术问题是,提出一种用于遥感目标检测的旋转目标检测方法。
本发明解决所述技术问题采用的技术方案是:
一种用于遥感目标检测的旋转目标检测方法,其特征在于,该方法包括如下步骤:
第一步、获取遥感图像,得到遥感图像中目标外接矩形的位置信息,并对遥感图像进行归一化处理;
第二步、利用深度学习网络进行目标检测,输出预测结果,预测结果为目标的类别和位置信息(x,y,w,h,r,sign);令旋转目标对应的矩形EFGH的四个顶点分别位于目标外接矩形ABCD的边AD、AB、BC和CD上,则r表示线段AF与边AB之比,即r=AF/AB,r∈(0,1);sign表示线段ED的长度,若线段ED的长度大于h/2,则sign的预测值为1;若线段ED的长度小于h/2,则sign的预测值为0;
第三步、对预测结果进行解码,根据目标外接矩形的位置信息得到旋转目标;
目标外接矩形ABCD的边AB的长度为w,边BC的长度为h;令边AF的长度为a,a=wr,则边FB的长度为w-a;线段BG的长度为X,则线段AE的长度为h-X;
根据三角形AEF与三角形BFG相似,得FB/AE=BG/AF,有式(8);
Figure BDA0003117743020000021
式(8)经过变形得到式(9):
Figure BDA0003117743020000022
Figure BDA0003117743020000023
当sign的预测值为1时,
Figure BDA0003117743020000024
Figure BDA0003117743020000025
sign的预测值为0时,
Figure BDA0003117743020000026
已知目标外接矩形ABCD中心点的坐标(x,y),得到A点坐标(x-w/2,y-h/2),B点坐标(x+w/2,y-h/2),C点坐标(x+w/2,y+h/2),D点坐标(x-w/2,y+h/2),F点坐标(x-w/2+a,y-h/2),G点坐标(x+w/2,y-h/2+X),H点坐标(x+w/2-a,y+h/2),E点坐标((x-w/2,y+h/2-X),矩形EFGH即为旋转目标。
在深度学习网络训练过程中,采用式(5)计算分类损失:
Lcls(p,u)=-logpu (5)
式(5)中,p为预测框通过softmax函数计算得到的分类概率,u表示预测框对应目标的真实类别标签;
利用式(6)计算回归损失;
Figure BDA0003117743020000027
式(6)中,ti=[tx,ty,tw,th,tr],
Figure BDA0003117743020000028
tx=(x-xa)/wa,ty=(y-ya)/ha,tw=log(w/wa),th=log(h/ha),tr=log(r/wa),
Figure BDA0003117743020000029
Figure BDA00031177430200000210
x,xa,x*分别表示预测框、锚框和真实框的横坐标,wa表示锚框的宽度,y,w,h,r同理;
利用式(7)计算sign损失:
Lsign(s,s*)=-[s*log(s)+(1-s*)log(1-s)] (7)
其中,s为将候选框预测为真实框的概率,s*为真实标签。
第一步中,利用遥感图像中旋转目标的OBB标注得到目标外接矩形的位置信息,目标外接矩形的长和宽分别与遥感图像的长和宽平行。
深度学习网络以ResNet101网络作为主干网络,利用ResNet101网络对归一化后的遥感图像进行特征提取;将ResNet101网络最后三层的输出结果输入到FPN中进行特征融合,FPN输出三个不同尺度大小的特征图;将三个特征图分别输入到RPN网络中生成候选框,将FPN输出的特征图和该特征图对应的候选框输入到RoI Pooling层,根据候选框从特征图上生成特征向量;将特征向量经过两个并行的全连接层进行分类预测和回归预测,得到分类信息和位置信息。
与现有技术相比,本发明的优点和有益效果是:
1.本发明预测的位置信息包含(w,h,x,y,r,sign)这六个参数,不仅回归原有的正框信息,还回归r和sign;通过r和sign来求出旋转目标对应的矩形,r表示线段长度比例,sign表示二分类信息,克服了传统的五参数回归法预测θ较困难的问题,预测精度明显提高,相比于八参数回归法在精度不下降的同时减少了参数量,增加了检测速度。
2.本发明提出了一种用于检测旋转目标的新回归方式,通过目标原有的标注信息和少量旋转信息来生成倾斜矩形框,倾斜矩形框即为旋转目标标注,将这个倾斜矩形框的最小外接正矩形当作正框标注,接着通过检测正框和以其中心为圆心的圆与正框的交点F与正框顶点A之间的距离,得到旋转目标的倾斜矩形框标注,预测简单精确。
附图说明
图1为本发明的整体流程图;
图2为本发明的旋转目标EFGH与目标外接矩形ABCD的位置关系示意图;
图3为圆心位于目标外接矩形ABCD中心时,对应两个倾斜矩形的位置示意图;
图4为本发明的深度学习网络的结构示意图;
图5为运用本发明方法对DOTA数据集进行检测的效果图;
图6为运用本发明方法对SSDD+数据集进行检测的效果图。
具体实施方式
下面结合附图和具体实现方式对本发明的技术方案进行详细说明,并不以此限定本申请的保护范围。
本发明为一种用于遥感目标检测的旋转目标检测方法(简称方法,参见图1-6),包括如下步骤:
第一步、获取遥感图像,得到遥感图像中目标外接矩形的位置信息,并对遥感图像进行归一化处理;
获取带OBB(oriented bounding boxes)标注的遥感数据集,例如DOTA、HRSC2016、SSDD+等遥感数据集;如图2所示,矩形EFGH为旋转目标,遥感图像的OBB标注为矩形EFGH的位置信息,根据OBB标注信息求取矩形EFGH四个顶点的坐标,根据这四个顶点坐标得到目标外接矩形ABCD的位置信息(x,y,w,h),其中(x,y)表示目标外接矩形中心点在原图中的坐标,(w,h)表示目标外接矩形的宽度和高度,目标外接矩形ABCD的长和宽分别与遥感图像的长和宽平行;对遥感图像进行数据格式处理,将遥感图像转换为RGB255格式;将转换格式后的遥感图像的颜色进行归一化处理;
第二步、利用深度学习网络进行目标检测,输出预测结果,预测结果为目标的类别信息和位置信息(x,y,w,h,r,sign);
深度学习网络以ResNet101网络作为主干网络,利用ResNet101网络对归一化后的遥感图像进行特征提取;将ResNet101网络最后三层的输出结果输入到FPN中进行特征融合,FPN输出三个不同尺度大小的特征图;
深度学习的主干网络有很多,例如VGG、ResNet、MovibleNet、squeezeNet等,本实施例选择普遍适应性更好的ResNet101进行特征提取;利用特征金字塔FPN进行特征融合可以使得提取的信息更适应多尺度大小的图像,鲁棒性更强;
将三个特征图分别输入到RPN网络中,在每个特征图上生成多个锚框,RPN网络用于得到候选区域,并对候选区域进行非极大值抑制,利用式(1)计算每个候选框的回归损失和分类损失,初步确定候选框的位置和大小,分类损失用于区分前景与背景,回归损失用于微调候选框位置;每个特征图都经过此操作得到候选框;
Figure BDA0003117743020000041
式(1)中分类损失
Figure BDA0003117743020000042
回归损失
Figure BDA0003117743020000043
分别满足式(2)和(3):
Figure BDA0003117743020000044
Figure BDA0003117743020000045
其中,pi表示第i个候选框预测为真实框的概率;
Figure BDA0003117743020000046
为候选框的真实标签,正样本时取1,负样本时取0;ti表示第i个候选框的预测值,ti=[tx,ty,tw,th,];
Figure BDA0003117743020000047
表示第i个候选框的真实值,
Figure BDA0003117743020000048
Ncls表示最小输入样本容量中所含样本的数量;Nreg表示候选框的个数;λ表示权重平衡系数;
式(3)中,
Figure BDA0003117743020000049
函数定义为:
Figure BDA00031177430200000410
将FPN输出的特征图和该特征图对应的候选框输入到RoI Pooling层,根据候选框从特征图上生成特征向量;将特征向量经过两个并行的全连接层进行分类预测和回归预测,得到分类信息和位置信息;回归预测包含(x,y,w,h,r,sign)这六个参数,令旋转目标对应的矩形EFGH的四个顶点分别位于目标外接矩形ABCD的边AD、AB、BC和CD上,则r表示线段AF与边AB之比,即r=AF/AB;sign表示线段ED的长度,通过sign可以得到目标外接矩形ABCD对应的唯一旋转目标,即矩形EFGH;如图3所示,得到r后即可得到与目标外接矩形ABCD相交的矩形EFGH的外接圆的半径,而对于一个这个外接圆而言,能够确定两个倾斜的矩形EFGH和E’F’G’H’,矩形EFGH和E’F’G’H’分别与目标外接矩形ABCD的边AD相交于点E和E’,其中线段ED的长度大于h/2,线段E’D的长度小于h/2,因此用sign表示线段ED的长度,若线段ED的长度大于h/2,则sign取1,目标外接矩形ABCD对应的唯一旋转目标为矩形EFGH;若线段ED的长度小于h/2,则sign取0,目标外接矩形ABCD对应的唯一旋转目标为矩形E’F’G’H’;
对于r的预测,在第二个全连接层连接一个sigmoid函数,将r的预测值映射到0~1之间,其物理含义为线段AF与AB的比例;对于sign的预测,也是在第二个全连接层后面接一个sigmoid函数,得到sign的预测值,若线段ED的长度大于h/2,则sign的预测值为1;若线段ED的长度小于h/2,则sign的预测值为0;
在训练过程中,采用式(5)计算分类损失:
Lcls(p,u)=-logpu (5)
式(5)中,p为预测框通过softmax函数计算得到的分类概率,u表示预测框对应目标的真实类别标签;
利用式(6)计算回归损失;
Figure BDA0003117743020000051
式(6)中,ti=[tx,ty,tw,th,tr],
Figure BDA0003117743020000052
tx=(x-xa)/wa,ty=(y-ya)/ha,tw=log(w/wa),th=log(h/ha),tr=log(r/wa),
Figure BDA0003117743020000053
Figure BDA0003117743020000054
x,xa,x*分别表示预测框、锚框和真实框的横坐标,wa表示锚框的宽度,y,w,h,r同理;
利用式(7)计算sign损失:
Lsign(s,s*)=-[s*log(s)+(1-s*)log(1-s)] (7)
其中,s为将候选框预测为真实框的概率,s*为真实标签;
第三步、对预测结果进行解码,根据目标外接矩形的位置信息得到旋转目标;
第二步输出的预测结果为(x,y,w,h,r,sign),如图2所示,目标外接矩形ABCD的边AB的长度为w,边BC的长度为h;令边AF的长度为a,a=wr,则边FB的长度为w-a;设线段BG的长度为X,则线段AE的长度为h-X;
根据三角形AEF与三角形BFG相似,得FB/AE=BG/AF,得到式(8);
Figure BDA0003117743020000055
式(8)经过变形得到式(9):
Figure BDA0003117743020000056
其中,
Figure BDA0003117743020000057
当sign的预测值为1时,
Figure BDA0003117743020000061
sign的预测值为0时,
Figure BDA0003117743020000062
已知目标外接矩形ABCD中心点的坐标(x,y),则A点坐标为(x-w/2,y-h/2),B点坐标(x+w/2,y-h/2),C点坐标(x+w/2,y+h/2),D点坐标(x-w/2,y+h/2),F点坐标(x-w/2+a,y-h/2),G点坐标(x+w/2,y-h/2+X),H点坐标(x+w/2-a,y+h/2),E点坐标((x-w/2,y+h/2-X),矩形EFGH即为旋转目标,完成旋转目标检测。
图5、6为利用本发明方法对DOTA数据集、SSDD+数据集进行检测的效果图,图中白色线框即为检测得到的旋转目标。
以上是本发明的实施方式,对于本技术领域的普通技术人员而讲,很容易想到很多改进和变形,这些改进和变形也在本发明的修改范围。本发明未述及之处适用于现有技术。

Claims (4)

1.一种用于遥感目标检测的旋转目标检测方法,其特征在于,该方法包括如下步骤:
第一步、获取遥感图像,得到遥感图像中目标外接矩形的位置信息(x,y,w,h),并对遥感图像进行归一化处理;
第二步、利用深度学习网络进行目标检测,输出预测结果,预测结果为目标的类别和位置信息(x,y,w,h,r,sign);令旋转目标对应的矩形EFGH的四个顶点分别位于目标外接矩形ABCD的边AD、AB、BC和CD上,则r表示线段AF与边AB之比,r∈(0,1);sign表示线段ED的长度,若线段ED的长度大于h/2,则sign的预测值为1;若线段ED的长度小于h/2,则sign的预测值为0;
第三步、对预测结果进行解码,根据目标外接矩形的位置信息得到旋转目标;
目标外接矩形ABCD的边AB的长度为w,边BC的长度为h;令边AF的长度为a,a=wr,则边FB的长度为w-a;线段BG的长度为X,则线段AE的长度为h-X;
根据三角形AEF与三角形BFG相似,得FB/AE=BG/AF,有式(8):
Figure FDA0003117743010000011
式(8)经过变形得到式(9):
Figure FDA0003117743010000012
Figure FDA0003117743010000013
当sign的预测值为1时,
Figure FDA0003117743010000014
Figure FDA0003117743010000015
sign的预测值为0时,
Figure FDA0003117743010000016
已知目标外接矩形ABCD中心点的坐标(x,y),得到A点坐标(x-w/2,y-h/2),B点坐标(x+w/2,y-h/2),C点坐标(x+w/2,y+h/2),D点坐标(x-w/2,y+h/2),F点坐标(x-w/2+a,y-h/2),G点坐标(x+w/2,y-h/2+X),H点坐标(x+w/2-a,y+h/2),E点坐标((x-w/2,y+h/2-X),矩形EFGH即为旋转目标。
2.根据权利要求1所述的用于遥感目标检测的旋转目标检测方法,其特征在于,在深度学习网络训练过程中,采用式(5)计算分类损失:
Lcls(p,u)=-log pu (5)
式(5)中,p为预测框通过softmax函数计算得到的分类概率,u表示预测框对应目标的真实类别标签;
利用式(6)计算回归损失;
Figure FDA0003117743010000017
式(6)中,ti=[tx,ty,tw,th,tr],
Figure FDA0003117743010000018
tx=(x-xa)/wa,ty=(y-ya)/ha,tw=log(w/wa),th=log(h/ha),tr=log(r/wa),
Figure FDA0003117743010000021
Figure FDA0003117743010000022
x,xa,x*分别表示预测框、锚框和真实框的横坐标,wa表示锚框的宽度,y,w,h,r同理;
利用式(7)计算sign损失:
Lsign(s,s*)=-[s*log(s)+(1-s*)log(1-s)] (7)
其中,s为将候选框预测为真实框的概率,s*为真实标签。
3.根据权利要求1所述的用于遥感目标检测的旋转目标检测方法,其特征在于,第一步中,利用遥感图像中旋转目标的OBB标注得到目标外接矩形的位置信息,目标外接矩形的长和宽分别与遥感图像的长和宽平行。
4.根据权利要求1所述的用于遥感目标检测的旋转目标检测方法,其特征在于,深度学习网络以ResNet101网络作为主干网络,利用ResNet101网络对归一化后的遥感图像进行特征提取;将ResNet101网络最后三层的输出结果输入到FPN中进行特征融合,FPN输出三个不同尺度大小的特征图;将三个特征图分别输入到RPN网络中生成候选框,将FPN输出的特征图和该特征图对应的候选框输入到RoI Pooling层,根据候选框从特征图上生成特征向量;将特征向量经过两个并行的全连接层进行分类预测和回归预测,得到分类信息和位置信息。
CN202110666805.XA 2021-06-16 2021-06-16 用于遥感目标检测的旋转目标检测方法 Active CN113284185B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110666805.XA CN113284185B (zh) 2021-06-16 2021-06-16 用于遥感目标检测的旋转目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110666805.XA CN113284185B (zh) 2021-06-16 2021-06-16 用于遥感目标检测的旋转目标检测方法

Publications (2)

Publication Number Publication Date
CN113284185A true CN113284185A (zh) 2021-08-20
CN113284185B CN113284185B (zh) 2022-03-15

Family

ID=77284907

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110666805.XA Active CN113284185B (zh) 2021-06-16 2021-06-16 用于遥感目标检测的旋转目标检测方法

Country Status (1)

Country Link
CN (1) CN113284185B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113591810A (zh) * 2021-09-28 2021-11-02 湖南大学 基于边界紧约束网络的车辆目标位姿检测方法、装置及存储介质
CN116403122A (zh) * 2023-04-14 2023-07-07 北京卫星信息工程研究所 无锚框定向目标检测方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110223302A (zh) * 2019-05-08 2019-09-10 华中科技大学 一种基于旋转区域提取的舰船多目标检测方法
CN110298298A (zh) * 2019-06-26 2019-10-01 北京市商汤科技开发有限公司 目标检测及目标检测网络的训练方法、装置及设备
CN111860336A (zh) * 2020-07-21 2020-10-30 西北工业大学 基于位置感知的高分辨遥感图像倾斜船舶目标检测方法
CN112395975A (zh) * 2020-11-17 2021-02-23 南京泓图人工智能技术研究院有限公司 一种基于旋转区域生成网络的遥感图像目标检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110223302A (zh) * 2019-05-08 2019-09-10 华中科技大学 一种基于旋转区域提取的舰船多目标检测方法
CN110298298A (zh) * 2019-06-26 2019-10-01 北京市商汤科技开发有限公司 目标检测及目标检测网络的训练方法、装置及设备
CN111860336A (zh) * 2020-07-21 2020-10-30 西北工业大学 基于位置感知的高分辨遥感图像倾斜船舶目标检测方法
CN112395975A (zh) * 2020-11-17 2021-02-23 南京泓图人工智能技术研究院有限公司 一种基于旋转区域生成网络的遥感图像目标检测方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
SHIQI CHEN 等: "Geospatial Object Detection in Remote Sensing Imagery Based on Multiscale Single-Shot Detector with Activated Semantics", 《REMOTE SENSING》 *
SHIQI CHEN 等: "R2FA-Det: Delving into High-Quality Rotatable Boxes for Ship Detection in SAR Images", 《REMOTE SENSING》 *
XUE YANG 等: "Automatic Ship Detection in Remote Sensing Images from Google Earth of Complex Scenes Based on Multiscale Rotation Dense Feature Pyramid Networks", 《REMOTE SENSING》 *
张军 等: "基于多尺度特征融合的土地利用分类算法", 《计算机工程与设计》 *
戴媛 等: "基于改进旋转区域生成网络的遥感图像目标检测", 《光学学报》 *
朱煜 等: "基于旋转框精细定位的遥感目标检测方法研究", 《自动化学报》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113591810A (zh) * 2021-09-28 2021-11-02 湖南大学 基于边界紧约束网络的车辆目标位姿检测方法、装置及存储介质
CN113591810B (zh) * 2021-09-28 2021-12-07 湖南大学 基于边界紧约束网络的车辆目标位姿检测方法、装置及存储介质
CN116403122A (zh) * 2023-04-14 2023-07-07 北京卫星信息工程研究所 无锚框定向目标检测方法
CN116403122B (zh) * 2023-04-14 2023-12-19 北京卫星信息工程研究所 无锚框定向目标检测方法

Also Published As

Publication number Publication date
CN113284185B (zh) 2022-03-15

Similar Documents

Publication Publication Date Title
US20210215481A1 (en) Method for measuring antenna downtilt angle based on multi-scale deep semantic segmentation network
CN110021033B (zh) 一种基于金字塔孪生网络的目标跟踪方法
Zhang et al. Multi-scale adversarial network for vehicle detection in UAV imagery
CN108427924A (zh) 一种基于旋转敏感特征的文本回归检测方法
CN111814827B (zh) 基于yolo的关键点目标检测方法
CN111914795A (zh) 一种航拍图像中旋转目标检测方法
CN113284185B (zh) 用于遥感目标检测的旋转目标检测方法
CN111738112A (zh) 基于深度神经网络和自注意力机制的遥感船舶图像目标检测方法
CN109145747A (zh) 一种水面全景图像语义分割方法
CN110163271A (zh) 一种基于球面投影网格和球面卷积的全景影像目标检测方法
CN114373009B (zh) 基于高分辨率遥感影像的建筑物阴影测高智能化计算方法
CN113033315A (zh) 一种稀土开采高分影像识别与定位方法
CN113095316B (zh) 基于多级融合和角点偏移的图像旋转目标检测方法
CN112232240A (zh) 一种基于优化交并比函数的道路抛洒物检测与识别方法
Zhu et al. Arbitrary-oriented ship detection based on retinanet for remote sensing images
CN113902035A (zh) 一种全方向、任意位数字的水表读数检测与识别方法
CN112926426A (zh) 基于监控视频的船舶识别方法、系统、设备及存储介质
CN113255555A (zh) 中国交通标志牌识别方法、系统、处理设备及存储介质
CN116246096A (zh) 一种基于前景强化知识蒸馏的点云3d目标检测方法
CN115393635A (zh) 一种基于超像素分割以及数据增强的红外小目标检测方法
CN114283326A (zh) 一种结合局部感知和高阶特征重构的水下目标重识别方法
CN116681983B (zh) 一种基于深度学习的狭长目标检测方法
CN112508848B (zh) 一种基于深度学习多任务端到端的遥感图像船舶旋转目标检测方法
Omar et al. Aerial dataset integration for vehicle detection based on YOLOv4
CN116630808A (zh) 基于遥感图像特征提取的旋转舰船检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20230222

Address after: Room 102, Zone B, Software Building, Jinshi Industrial Park, No. 368, Xinshi North Road, Shijiazhuang, Hebei 050091

Patentee after: HEBEI SOFTWARE TECHNOLOGY Co.,Ltd.

Address before: 300130 No. 8, Hebei University of Technology, Tianjin, Hongqiao No. 330

Patentee before: Hebei University of Technology

TR01 Transfer of patent right