CN113284185A - 用于遥感目标检测的旋转目标检测方法 - Google Patents
用于遥感目标检测的旋转目标检测方法 Download PDFInfo
- Publication number
- CN113284185A CN113284185A CN202110666805.XA CN202110666805A CN113284185A CN 113284185 A CN113284185 A CN 113284185A CN 202110666805 A CN202110666805 A CN 202110666805A CN 113284185 A CN113284185 A CN 113284185A
- Authority
- CN
- China
- Prior art keywords
- target
- remote sensing
- length
- frame
- coordinates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 37
- 238000000034 method Methods 0.000 claims abstract description 21
- 238000013135 deep learning Methods 0.000 claims abstract description 11
- 238000012545 processing Methods 0.000 claims abstract description 6
- 238000010606 normalization Methods 0.000 claims abstract description 5
- PCTMTFRHKVHKIS-BMFZQQSSSA-N (1s,3r,4e,6e,8e,10e,12e,14e,16e,18s,19r,20r,21s,25r,27r,30r,31r,33s,35r,37s,38r)-3-[(2r,3s,4s,5s,6r)-4-amino-3,5-dihydroxy-6-methyloxan-2-yl]oxy-19,25,27,30,31,33,35,37-octahydroxy-18,20,21-trimethyl-23-oxo-22,39-dioxabicyclo[33.3.1]nonatriaconta-4,6,8,10 Chemical compound C1C=C2C[C@@H](OS(O)(=O)=O)CC[C@]2(C)[C@@H]2[C@@H]1[C@@H]1CC[C@H]([C@H](C)CCCC(C)C)[C@@]1(C)CC2.O[C@H]1[C@@H](N)[C@H](O)[C@@H](C)O[C@H]1O[C@H]1/C=C/C=C/C=C/C=C/C=C/C=C/C=C/[C@H](C)[C@@H](O)[C@@H](C)[C@H](C)OC(=O)C[C@H](O)C[C@H](O)CC[C@@H](O)[C@H](O)C[C@H](O)C[C@](O)(C[C@H](O)[C@H]2C(O)=O)O[C@H]2C1 PCTMTFRHKVHKIS-BMFZQQSSSA-N 0.000 claims description 18
- 230000006870 function Effects 0.000 claims description 6
- 239000013598 vector Substances 0.000 claims description 6
- 230000004927 fusion Effects 0.000 claims description 4
- 238000011176 pooling Methods 0.000 claims description 3
- 238000012549 training Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 2
- 239000000203 mixture Substances 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 6
- WDLRUFUQRNWCPK-UHFFFAOYSA-N Tetraxetan Chemical compound OC(=O)CN1CCN(CC(O)=O)CCN(CC(O)=O)CCN(CC(O)=O)CC1 WDLRUFUQRNWCPK-UHFFFAOYSA-N 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000002401 inhibitory effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000011541 reaction mixture Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明为一种用于遥感目标检测的旋转目标检测方法,该方法包括:第一步、获取遥感图像,得到遥感图像中目标外接矩形的位置信息,并对遥感图像进行归一化处理;第二步、利用深度学习网络进行目标检测,输出预测结果,预测结果为目标外接矩形的分类和位置信息;第三步、对预测结果进行解码,根据目标外接矩形的位置信息得到旋转目标。本发明提出了一种用于检测旋转目标的新回归方式,将旋转目标对应的倾斜矩形框的最小外接正矩形当作正框标注,通过检测正框和以其中心为圆心的圆与正框的交点与正框顶点之间的距离,得到旋转目标的倾斜矩形框标注,比起传统的检测角度信息,精度高。
Description
技术领域
本发明属于遥感目标检测技术领域,具体是一种用于遥感目标检测的旋转目标检测方法,可用于遥感领域的船舰检测、车辆检测、飞机检测等。
背景技术
目标检测在遥感领域是一个基础又热门的研究分支,主要内容是识别图像中物体的类别和位置,被广泛应用于军事领域、交通控制、机场监控、近海岸船舰检测等场合。由于遥感图像都是航拍或者卫星拍摄,因此图像中物体并不是沿水平或垂直方向规整排列,而是呈任意方向排列,即物体在图像中与水平或竖直方向呈一定夹角排布。
近几年,目标检测技术发展速度很快,比较有代表性方法的是二阶段的FasterRcnn、一阶段的SSD或YOLO系列,还有基于Anchor Free方法的,例如CornerNet、CenterNet等,这些方法都是基于的HBB检测方式实现,得到的目标框具有很多冗余信息,且不能获得物体的倾斜方向,并且都是基于自然场景下的任务提出的,而遥感图像尺寸较大,属于高空俯视拍摄,目标密集,目标在图像中呈不同角度的倾斜排布,因此采用传统的图像检测方式结果不准确,效果并不理想。
随着遥感技术不断发展,OBB标注的目标检测方法被提出,更适用于遥感目标检测,常用的有五参数回归法和八参数回归法,五参数回归法通过回归预测(x,y,w,h,θ)这五个参数,θ是指矩形的旋转角度,由于卷积神经网络提取的特征都是水平或垂直信息,不容易提取角度信息,因此θ不容易预测。八参数回归法包含(x1,y1,x2,y2,x3,y3,x4,y4)这八个自由度,即目标四个顶点的横、纵坐标,需要预测的自由度太多,且精度较低;而且这四个顶点并不能准确预测,因此这四个顶点形成的不一定是矩形,可能是平行四边形或者其他四边形,由于标签是矩形,导致IOU值偏低,预测结果不准确。
发明内容
针对现有技术的不足,本发明拟解决的技术问题是,提出一种用于遥感目标检测的旋转目标检测方法。
本发明解决所述技术问题采用的技术方案是:
一种用于遥感目标检测的旋转目标检测方法,其特征在于,该方法包括如下步骤:
第一步、获取遥感图像,得到遥感图像中目标外接矩形的位置信息,并对遥感图像进行归一化处理;
第二步、利用深度学习网络进行目标检测,输出预测结果,预测结果为目标的类别和位置信息(x,y,w,h,r,sign);令旋转目标对应的矩形EFGH的四个顶点分别位于目标外接矩形ABCD的边AD、AB、BC和CD上,则r表示线段AF与边AB之比,即r=AF/AB,r∈(0,1);sign表示线段ED的长度,若线段ED的长度大于h/2,则sign的预测值为1;若线段ED的长度小于h/2,则sign的预测值为0;
第三步、对预测结果进行解码,根据目标外接矩形的位置信息得到旋转目标;
目标外接矩形ABCD的边AB的长度为w,边BC的长度为h;令边AF的长度为a,a=wr,则边FB的长度为w-a;线段BG的长度为X,则线段AE的长度为h-X;
根据三角形AEF与三角形BFG相似,得FB/AE=BG/AF,有式(8);
式(8)经过变形得到式(9):
已知目标外接矩形ABCD中心点的坐标(x,y),得到A点坐标(x-w/2,y-h/2),B点坐标(x+w/2,y-h/2),C点坐标(x+w/2,y+h/2),D点坐标(x-w/2,y+h/2),F点坐标(x-w/2+a,y-h/2),G点坐标(x+w/2,y-h/2+X),H点坐标(x+w/2-a,y+h/2),E点坐标((x-w/2,y+h/2-X),矩形EFGH即为旋转目标。
在深度学习网络训练过程中,采用式(5)计算分类损失:
Lcls(p,u)=-logpu (5)
式(5)中,p为预测框通过softmax函数计算得到的分类概率,u表示预测框对应目标的真实类别标签;
利用式(6)计算回归损失;
式(6)中,ti=[tx,ty,tw,th,tr],tx=(x-xa)/wa,ty=(y-ya)/ha,tw=log(w/wa),th=log(h/ha),tr=log(r/wa), x,xa,x*分别表示预测框、锚框和真实框的横坐标,wa表示锚框的宽度,y,w,h,r同理;
利用式(7)计算sign损失:
Lsign(s,s*)=-[s*log(s)+(1-s*)log(1-s)] (7)
其中,s为将候选框预测为真实框的概率,s*为真实标签。
第一步中,利用遥感图像中旋转目标的OBB标注得到目标外接矩形的位置信息,目标外接矩形的长和宽分别与遥感图像的长和宽平行。
深度学习网络以ResNet101网络作为主干网络,利用ResNet101网络对归一化后的遥感图像进行特征提取;将ResNet101网络最后三层的输出结果输入到FPN中进行特征融合,FPN输出三个不同尺度大小的特征图;将三个特征图分别输入到RPN网络中生成候选框,将FPN输出的特征图和该特征图对应的候选框输入到RoI Pooling层,根据候选框从特征图上生成特征向量;将特征向量经过两个并行的全连接层进行分类预测和回归预测,得到分类信息和位置信息。
与现有技术相比,本发明的优点和有益效果是:
1.本发明预测的位置信息包含(w,h,x,y,r,sign)这六个参数,不仅回归原有的正框信息,还回归r和sign;通过r和sign来求出旋转目标对应的矩形,r表示线段长度比例,sign表示二分类信息,克服了传统的五参数回归法预测θ较困难的问题,预测精度明显提高,相比于八参数回归法在精度不下降的同时减少了参数量,增加了检测速度。
2.本发明提出了一种用于检测旋转目标的新回归方式,通过目标原有的标注信息和少量旋转信息来生成倾斜矩形框,倾斜矩形框即为旋转目标标注,将这个倾斜矩形框的最小外接正矩形当作正框标注,接着通过检测正框和以其中心为圆心的圆与正框的交点F与正框顶点A之间的距离,得到旋转目标的倾斜矩形框标注,预测简单精确。
附图说明
图1为本发明的整体流程图;
图2为本发明的旋转目标EFGH与目标外接矩形ABCD的位置关系示意图;
图3为圆心位于目标外接矩形ABCD中心时,对应两个倾斜矩形的位置示意图;
图4为本发明的深度学习网络的结构示意图;
图5为运用本发明方法对DOTA数据集进行检测的效果图;
图6为运用本发明方法对SSDD+数据集进行检测的效果图。
具体实施方式
下面结合附图和具体实现方式对本发明的技术方案进行详细说明,并不以此限定本申请的保护范围。
本发明为一种用于遥感目标检测的旋转目标检测方法(简称方法,参见图1-6),包括如下步骤:
第一步、获取遥感图像,得到遥感图像中目标外接矩形的位置信息,并对遥感图像进行归一化处理;
获取带OBB(oriented bounding boxes)标注的遥感数据集,例如DOTA、HRSC2016、SSDD+等遥感数据集;如图2所示,矩形EFGH为旋转目标,遥感图像的OBB标注为矩形EFGH的位置信息,根据OBB标注信息求取矩形EFGH四个顶点的坐标,根据这四个顶点坐标得到目标外接矩形ABCD的位置信息(x,y,w,h),其中(x,y)表示目标外接矩形中心点在原图中的坐标,(w,h)表示目标外接矩形的宽度和高度,目标外接矩形ABCD的长和宽分别与遥感图像的长和宽平行;对遥感图像进行数据格式处理,将遥感图像转换为RGB255格式;将转换格式后的遥感图像的颜色进行归一化处理;
第二步、利用深度学习网络进行目标检测,输出预测结果,预测结果为目标的类别信息和位置信息(x,y,w,h,r,sign);
深度学习网络以ResNet101网络作为主干网络,利用ResNet101网络对归一化后的遥感图像进行特征提取;将ResNet101网络最后三层的输出结果输入到FPN中进行特征融合,FPN输出三个不同尺度大小的特征图;
深度学习的主干网络有很多,例如VGG、ResNet、MovibleNet、squeezeNet等,本实施例选择普遍适应性更好的ResNet101进行特征提取;利用特征金字塔FPN进行特征融合可以使得提取的信息更适应多尺度大小的图像,鲁棒性更强;
将三个特征图分别输入到RPN网络中,在每个特征图上生成多个锚框,RPN网络用于得到候选区域,并对候选区域进行非极大值抑制,利用式(1)计算每个候选框的回归损失和分类损失,初步确定候选框的位置和大小,分类损失用于区分前景与背景,回归损失用于微调候选框位置;每个特征图都经过此操作得到候选框;
其中,pi表示第i个候选框预测为真实框的概率;为候选框的真实标签,正样本时取1,负样本时取0;ti表示第i个候选框的预测值,ti=[tx,ty,tw,th,];表示第i个候选框的真实值,Ncls表示最小输入样本容量中所含样本的数量;Nreg表示候选框的个数;λ表示权重平衡系数;
将FPN输出的特征图和该特征图对应的候选框输入到RoI Pooling层,根据候选框从特征图上生成特征向量;将特征向量经过两个并行的全连接层进行分类预测和回归预测,得到分类信息和位置信息;回归预测包含(x,y,w,h,r,sign)这六个参数,令旋转目标对应的矩形EFGH的四个顶点分别位于目标外接矩形ABCD的边AD、AB、BC和CD上,则r表示线段AF与边AB之比,即r=AF/AB;sign表示线段ED的长度,通过sign可以得到目标外接矩形ABCD对应的唯一旋转目标,即矩形EFGH;如图3所示,得到r后即可得到与目标外接矩形ABCD相交的矩形EFGH的外接圆的半径,而对于一个这个外接圆而言,能够确定两个倾斜的矩形EFGH和E’F’G’H’,矩形EFGH和E’F’G’H’分别与目标外接矩形ABCD的边AD相交于点E和E’,其中线段ED的长度大于h/2,线段E’D的长度小于h/2,因此用sign表示线段ED的长度,若线段ED的长度大于h/2,则sign取1,目标外接矩形ABCD对应的唯一旋转目标为矩形EFGH;若线段ED的长度小于h/2,则sign取0,目标外接矩形ABCD对应的唯一旋转目标为矩形E’F’G’H’;
对于r的预测,在第二个全连接层连接一个sigmoid函数,将r的预测值映射到0~1之间,其物理含义为线段AF与AB的比例;对于sign的预测,也是在第二个全连接层后面接一个sigmoid函数,得到sign的预测值,若线段ED的长度大于h/2,则sign的预测值为1;若线段ED的长度小于h/2,则sign的预测值为0;
在训练过程中,采用式(5)计算分类损失:
Lcls(p,u)=-logpu (5)
式(5)中,p为预测框通过softmax函数计算得到的分类概率,u表示预测框对应目标的真实类别标签;
利用式(6)计算回归损失;
式(6)中,ti=[tx,ty,tw,th,tr],tx=(x-xa)/wa,ty=(y-ya)/ha,tw=log(w/wa),th=log(h/ha),tr=log(r/wa), x,xa,x*分别表示预测框、锚框和真实框的横坐标,wa表示锚框的宽度,y,w,h,r同理;
利用式(7)计算sign损失:
Lsign(s,s*)=-[s*log(s)+(1-s*)log(1-s)] (7)
其中,s为将候选框预测为真实框的概率,s*为真实标签;
第三步、对预测结果进行解码,根据目标外接矩形的位置信息得到旋转目标;
第二步输出的预测结果为(x,y,w,h,r,sign),如图2所示,目标外接矩形ABCD的边AB的长度为w,边BC的长度为h;令边AF的长度为a,a=wr,则边FB的长度为w-a;设线段BG的长度为X,则线段AE的长度为h-X;
根据三角形AEF与三角形BFG相似,得FB/AE=BG/AF,得到式(8);
式(8)经过变形得到式(9):
已知目标外接矩形ABCD中心点的坐标(x,y),则A点坐标为(x-w/2,y-h/2),B点坐标(x+w/2,y-h/2),C点坐标(x+w/2,y+h/2),D点坐标(x-w/2,y+h/2),F点坐标(x-w/2+a,y-h/2),G点坐标(x+w/2,y-h/2+X),H点坐标(x+w/2-a,y+h/2),E点坐标((x-w/2,y+h/2-X),矩形EFGH即为旋转目标,完成旋转目标检测。
图5、6为利用本发明方法对DOTA数据集、SSDD+数据集进行检测的效果图,图中白色线框即为检测得到的旋转目标。
以上是本发明的实施方式,对于本技术领域的普通技术人员而讲,很容易想到很多改进和变形,这些改进和变形也在本发明的修改范围。本发明未述及之处适用于现有技术。
Claims (4)
1.一种用于遥感目标检测的旋转目标检测方法,其特征在于,该方法包括如下步骤:
第一步、获取遥感图像,得到遥感图像中目标外接矩形的位置信息(x,y,w,h),并对遥感图像进行归一化处理;
第二步、利用深度学习网络进行目标检测,输出预测结果,预测结果为目标的类别和位置信息(x,y,w,h,r,sign);令旋转目标对应的矩形EFGH的四个顶点分别位于目标外接矩形ABCD的边AD、AB、BC和CD上,则r表示线段AF与边AB之比,r∈(0,1);sign表示线段ED的长度,若线段ED的长度大于h/2,则sign的预测值为1;若线段ED的长度小于h/2,则sign的预测值为0;
第三步、对预测结果进行解码,根据目标外接矩形的位置信息得到旋转目标;
目标外接矩形ABCD的边AB的长度为w,边BC的长度为h;令边AF的长度为a,a=wr,则边FB的长度为w-a;线段BG的长度为X,则线段AE的长度为h-X;
根据三角形AEF与三角形BFG相似,得FB/AE=BG/AF,有式(8):
式(8)经过变形得到式(9):
已知目标外接矩形ABCD中心点的坐标(x,y),得到A点坐标(x-w/2,y-h/2),B点坐标(x+w/2,y-h/2),C点坐标(x+w/2,y+h/2),D点坐标(x-w/2,y+h/2),F点坐标(x-w/2+a,y-h/2),G点坐标(x+w/2,y-h/2+X),H点坐标(x+w/2-a,y+h/2),E点坐标((x-w/2,y+h/2-X),矩形EFGH即为旋转目标。
2.根据权利要求1所述的用于遥感目标检测的旋转目标检测方法,其特征在于,在深度学习网络训练过程中,采用式(5)计算分类损失:
Lcls(p,u)=-log pu (5)
式(5)中,p为预测框通过softmax函数计算得到的分类概率,u表示预测框对应目标的真实类别标签;
利用式(6)计算回归损失;
式(6)中,ti=[tx,ty,tw,th,tr],tx=(x-xa)/wa,ty=(y-ya)/ha,tw=log(w/wa),th=log(h/ha),tr=log(r/wa), x,xa,x*分别表示预测框、锚框和真实框的横坐标,wa表示锚框的宽度,y,w,h,r同理;
利用式(7)计算sign损失:
Lsign(s,s*)=-[s*log(s)+(1-s*)log(1-s)] (7)
其中,s为将候选框预测为真实框的概率,s*为真实标签。
3.根据权利要求1所述的用于遥感目标检测的旋转目标检测方法,其特征在于,第一步中,利用遥感图像中旋转目标的OBB标注得到目标外接矩形的位置信息,目标外接矩形的长和宽分别与遥感图像的长和宽平行。
4.根据权利要求1所述的用于遥感目标检测的旋转目标检测方法,其特征在于,深度学习网络以ResNet101网络作为主干网络,利用ResNet101网络对归一化后的遥感图像进行特征提取;将ResNet101网络最后三层的输出结果输入到FPN中进行特征融合,FPN输出三个不同尺度大小的特征图;将三个特征图分别输入到RPN网络中生成候选框,将FPN输出的特征图和该特征图对应的候选框输入到RoI Pooling层,根据候选框从特征图上生成特征向量;将特征向量经过两个并行的全连接层进行分类预测和回归预测,得到分类信息和位置信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110666805.XA CN113284185B (zh) | 2021-06-16 | 2021-06-16 | 用于遥感目标检测的旋转目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110666805.XA CN113284185B (zh) | 2021-06-16 | 2021-06-16 | 用于遥感目标检测的旋转目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113284185A true CN113284185A (zh) | 2021-08-20 |
CN113284185B CN113284185B (zh) | 2022-03-15 |
Family
ID=77284907
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110666805.XA Active CN113284185B (zh) | 2021-06-16 | 2021-06-16 | 用于遥感目标检测的旋转目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113284185B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113591810A (zh) * | 2021-09-28 | 2021-11-02 | 湖南大学 | 基于边界紧约束网络的车辆目标位姿检测方法、装置及存储介质 |
CN116403122A (zh) * | 2023-04-14 | 2023-07-07 | 北京卫星信息工程研究所 | 无锚框定向目标检测方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110223302A (zh) * | 2019-05-08 | 2019-09-10 | 华中科技大学 | 一种基于旋转区域提取的舰船多目标检测方法 |
CN110298298A (zh) * | 2019-06-26 | 2019-10-01 | 北京市商汤科技开发有限公司 | 目标检测及目标检测网络的训练方法、装置及设备 |
CN111860336A (zh) * | 2020-07-21 | 2020-10-30 | 西北工业大学 | 基于位置感知的高分辨遥感图像倾斜船舶目标检测方法 |
CN112395975A (zh) * | 2020-11-17 | 2021-02-23 | 南京泓图人工智能技术研究院有限公司 | 一种基于旋转区域生成网络的遥感图像目标检测方法 |
-
2021
- 2021-06-16 CN CN202110666805.XA patent/CN113284185B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110223302A (zh) * | 2019-05-08 | 2019-09-10 | 华中科技大学 | 一种基于旋转区域提取的舰船多目标检测方法 |
CN110298298A (zh) * | 2019-06-26 | 2019-10-01 | 北京市商汤科技开发有限公司 | 目标检测及目标检测网络的训练方法、装置及设备 |
CN111860336A (zh) * | 2020-07-21 | 2020-10-30 | 西北工业大学 | 基于位置感知的高分辨遥感图像倾斜船舶目标检测方法 |
CN112395975A (zh) * | 2020-11-17 | 2021-02-23 | 南京泓图人工智能技术研究院有限公司 | 一种基于旋转区域生成网络的遥感图像目标检测方法 |
Non-Patent Citations (6)
Title |
---|
SHIQI CHEN 等: "Geospatial Object Detection in Remote Sensing Imagery Based on Multiscale Single-Shot Detector with Activated Semantics", 《REMOTE SENSING》 * |
SHIQI CHEN 等: "R2FA-Det: Delving into High-Quality Rotatable Boxes for Ship Detection in SAR Images", 《REMOTE SENSING》 * |
XUE YANG 等: "Automatic Ship Detection in Remote Sensing Images from Google Earth of Complex Scenes Based on Multiscale Rotation Dense Feature Pyramid Networks", 《REMOTE SENSING》 * |
张军 等: "基于多尺度特征融合的土地利用分类算法", 《计算机工程与设计》 * |
戴媛 等: "基于改进旋转区域生成网络的遥感图像目标检测", 《光学学报》 * |
朱煜 等: "基于旋转框精细定位的遥感目标检测方法研究", 《自动化学报》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113591810A (zh) * | 2021-09-28 | 2021-11-02 | 湖南大学 | 基于边界紧约束网络的车辆目标位姿检测方法、装置及存储介质 |
CN113591810B (zh) * | 2021-09-28 | 2021-12-07 | 湖南大学 | 基于边界紧约束网络的车辆目标位姿检测方法、装置及存储介质 |
CN116403122A (zh) * | 2023-04-14 | 2023-07-07 | 北京卫星信息工程研究所 | 无锚框定向目标检测方法 |
CN116403122B (zh) * | 2023-04-14 | 2023-12-19 | 北京卫星信息工程研究所 | 无锚框定向目标检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113284185B (zh) | 2022-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210215481A1 (en) | Method for measuring antenna downtilt angle based on multi-scale deep semantic segmentation network | |
CN110021033B (zh) | 一种基于金字塔孪生网络的目标跟踪方法 | |
Zhang et al. | Multi-scale adversarial network for vehicle detection in UAV imagery | |
CN108427924A (zh) | 一种基于旋转敏感特征的文本回归检测方法 | |
CN111814827B (zh) | 基于yolo的关键点目标检测方法 | |
CN111914795A (zh) | 一种航拍图像中旋转目标检测方法 | |
CN113284185B (zh) | 用于遥感目标检测的旋转目标检测方法 | |
CN111738112A (zh) | 基于深度神经网络和自注意力机制的遥感船舶图像目标检测方法 | |
CN109145747A (zh) | 一种水面全景图像语义分割方法 | |
CN110163271A (zh) | 一种基于球面投影网格和球面卷积的全景影像目标检测方法 | |
CN114373009B (zh) | 基于高分辨率遥感影像的建筑物阴影测高智能化计算方法 | |
CN113033315A (zh) | 一种稀土开采高分影像识别与定位方法 | |
CN113095316B (zh) | 基于多级融合和角点偏移的图像旋转目标检测方法 | |
CN112232240A (zh) | 一种基于优化交并比函数的道路抛洒物检测与识别方法 | |
Zhu et al. | Arbitrary-oriented ship detection based on retinanet for remote sensing images | |
CN113902035A (zh) | 一种全方向、任意位数字的水表读数检测与识别方法 | |
CN112926426A (zh) | 基于监控视频的船舶识别方法、系统、设备及存储介质 | |
CN113255555A (zh) | 中国交通标志牌识别方法、系统、处理设备及存储介质 | |
CN116246096A (zh) | 一种基于前景强化知识蒸馏的点云3d目标检测方法 | |
CN115393635A (zh) | 一种基于超像素分割以及数据增强的红外小目标检测方法 | |
CN114283326A (zh) | 一种结合局部感知和高阶特征重构的水下目标重识别方法 | |
CN116681983B (zh) | 一种基于深度学习的狭长目标检测方法 | |
CN112508848B (zh) | 一种基于深度学习多任务端到端的遥感图像船舶旋转目标检测方法 | |
Omar et al. | Aerial dataset integration for vehicle detection based on YOLOv4 | |
CN116630808A (zh) | 基于遥感图像特征提取的旋转舰船检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20230222 Address after: Room 102, Zone B, Software Building, Jinshi Industrial Park, No. 368, Xinshi North Road, Shijiazhuang, Hebei 050091 Patentee after: HEBEI SOFTWARE TECHNOLOGY Co.,Ltd. Address before: 300130 No. 8, Hebei University of Technology, Tianjin, Hongqiao No. 330 Patentee before: Hebei University of Technology |
|
TR01 | Transfer of patent right |