CN112464704A - 一种基于特征融合与旋转目标检测器的遥感图像识别方法 - Google Patents
一种基于特征融合与旋转目标检测器的遥感图像识别方法 Download PDFInfo
- Publication number
- CN112464704A CN112464704A CN202011083850.4A CN202011083850A CN112464704A CN 112464704 A CN112464704 A CN 112464704A CN 202011083850 A CN202011083850 A CN 202011083850A CN 112464704 A CN112464704 A CN 112464704A
- Authority
- CN
- China
- Prior art keywords
- fusion
- feature
- network
- target
- remote sensing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 69
- 238000000034 method Methods 0.000 title claims abstract description 26
- 238000010586 diagram Methods 0.000 claims description 34
- 230000006870 function Effects 0.000 claims description 16
- 238000011176 pooling Methods 0.000 claims description 16
- 238000004364 calculation method Methods 0.000 claims description 10
- 230000009467 reduction Effects 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 9
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 4
- 230000002787 reinforcement Effects 0.000 claims description 4
- 238000002372 labelling Methods 0.000 claims description 2
- 238000012805 post-processing Methods 0.000 claims description 2
- OLBCVFGFOZPWHH-UHFFFAOYSA-N propofol Chemical compound CC(C)C1=CC=CC(C(C)C)=C1O OLBCVFGFOZPWHH-UHFFFAOYSA-N 0.000 claims description 2
- 229960004134 propofol Drugs 0.000 claims description 2
- 238000012163 sequencing technique Methods 0.000 claims description 2
- 238000001514 detection method Methods 0.000 abstract description 17
- 238000005457 optimization Methods 0.000 abstract description 5
- 238000000605 extraction Methods 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000007499 fusion processing Methods 0.000 description 2
- 230000001154 acute effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/242—Aligning, centring, orientation detection or correction of the image by image rotation, e.g. by 90 degrees
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Evolutionary Biology (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Astronomy & Astrophysics (AREA)
- Remote Sensing (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于特征优化与旋转目标检测的遥感图像识别方法。将采集到的遥感图像输入到Inception‑Resnet网络进行位置特征的提取,得到五组关键节点特征图,将五组关键节点特征图输入到自动化特征融合网络进行特征信息的自动化融合,得到融合后位置特征图;然后将融合后位置特征图输入RPN网络中得到目标的水平位置,通过水平位置对五组特征图进行裁剪得到裁剪后的特征图,再将裁剪后的特征图输入到旋转目标检测器中,对遥感图像的目标的坐标进行旋转回归,最终得到遥感图像中目标的精确坐标。本发明具有较高的检测效率可有效识别非水平放置且分辨率较小的遥感图像目标,识别精度高,鲁棒性强。
Description
技术领域
本发明涉及卷积神经网络目标检测模型,尤其是涉及小目标、非水平放置的遥感图像目标检测方法。
背景技术
在遥感图像的分析过程中经常需要对拍摄的遥感图像目标进行目标检测和类别划分,由于拍摄角度、拍摄分辨率和焦距等问题,遥感图像目标的分辨率较小难以进行有效检测、且遥感图像目标大多为非水平排列。因此有效地对遥感图像目标进行检测与分类是遥感图像分析的首要前提。
目前的遥感图像目标检测方法主要有SIFT特征匹配算法、基于卷积神经网络的目标检测算法。SIFT通过提供类似的图像使用特征匹配得到概率较高的点位,并计算出最大外接矩形得到遥感图像目标的坐标。该方法检测速度较快,不需要构建模型,但检测准确率较低受光线和图像对比度影响较大;基于卷积神经网络的目标检测算法。该方法采用特征提取的最后输出层作为图像目标的位置特征,并采用RPN进行目标检测得到位置坐标。该方法受光照条件影响比较小,可以比较精确识别水平放置的目标但无法有效检测像素面积较小的目标且非水平目标检测效率较低。
发明内容
针对遥感图像目标携带特征较少,因此在卷积过程很容易丢失重要的语义信息并且在模型训练过程中产生梯度弥散或梯度爆炸等问题。本发明的目的在于设计一种准确高效的特征提取网络专门用于提取遥感图像目标的特征信息,并改进一种含有旋转维度的目标检测器用于检测非水平放置且排列密集的遥感图像目标。
本发明解决其技术问题所采用的技术方案是:
将采集到的遥感图像输入到本发明构建的网络中,首先是Inception-Resnet 网络即初始残差网络进行位置特征的提取,得到五组关键节点特征图,将五组关键节点特征图输入到自动化特征融合网络进行特征信息的自动化融合,得到融合后位置特征图;然后将融合后位置特征图输入RPN网络中得到目标的水平位置,通过水平位置对五组特征图进行裁剪得到裁剪后的特征图,再将裁剪后的特征图输入到旋转目标检测器中,对遥感图像的目标的坐标进行旋转回归,最终得到遥感图像中目标的精确坐标。
所述的目标为遥感图像中的待定位建筑物或者交通工具等。
所述遥感图像具体为无人机或者卫星采集到的图像。
首先将无人机或者卫星采集到的图像输入到Inception-Resnet模块中进行位置特征的提取,在位置特征提取过程中会输出特征提取网络中5个关键节点的特征图。将关键节点的特征图输入到带有强化学习的自动化特征融合网,通过自动化架构搜索找到最佳的特征融合方式,通过该特征融合方式对输出的特征图进行特征优化最终输出优化好的特征图。
将优化好的特征图输入到RPN网络中进行区域候选,再通过感兴趣区域池化ROIPooling得到遥感图像目标水平位置,通过目标的水平位置对特征图进行裁剪处理,将裁剪后的特征图输入到旋转目标检测器中进行倾斜位置坐标的回归。
并建立旋转目标的交并比计算函数RIOU,将交并比计算函数RIOU添加到旋转目标检测器中的检测框回归损失计算过程中以减少损失陡增的情况,最终得到遥感图像目标的精确8维度位置坐标。
所述的Inception-Resnet网络中包括了5个残差网络A模块 (Inception-resnet-A)、1个还原模块A(Reduction-A)、10个残差网络B模块 (Inception-resnet-B)、1个还原模块B(Reduction-B)和5个残差网络C模块 (Inception-resnet-C);选取残差网络A模块(Inception-resnet-A)的第5层卷积层、还原模块A(Reduction-A)的输出层、残差网络B模块(Inception-resnet-B) 的第10层卷积层、还原模块B(Reduction-B)的输出层、残差网络C模块 (Inception-resnet-C)的第5层卷积层作为关键节点,采集获得五个关键节点的输出作为五组关键节点特征图,五组关键节点特征图尺寸归一化后输入自动化搜索网络进行特征融合。
所述的自动化特征融合网络为带有强化学习的自动化特征融合网络,本发明方法将其称为LNASNet,自动化特征融合网络主要由多个融合模块Merge Module构成;按照Inception-Resnet网络中后处理输出的顺序对五组关键节点特征图进行排序:相邻两组关键节点特征图输入到一个融合模块Merge Module处理获得融合后的特征图;先通过四个融合模块Merge Module对五组关键节点特征图的相邻两组分别进行融合处理获得四个第一融合特征图,再通过三个融合模块Merge Module对四个第一融合特征图的相邻两组分别进行融合处理获得三个第二融合特征图,再通过两个融合模块Merge Module对三个第二融合特征图的相邻两组分别进行融合处理获得两个第三融合特征图,再通过一个融合模块Merge Module对两个第三融合特征图分别进行融合处理获得一个第四融合特征图,第四融合特征图作为融合后位置特征图;
每个融合模块Merge Module中,包括了最大池化层、第一卷积层和第二卷积层,在输入的相邻两组特征图中,以Inception-Resnet网络中对应较先处理输出的特征图作为低阶输入特征图,以Inception-Resnet网络中对应较后处理输出的特征图作为高阶输入特征图;高阶输入特征图经最大池化层后的输出和高阶输入特征图自身进行元素相乘操作获得第一中间特征图,第一中间特征图和高阶输入特征图自身进行元素相加操作后获得第二中间特征图,第二中间特征图和低阶输入特征图分别经第一卷积层、第二卷积层处理后再经元素相乘操作获得第三中间特征图,第三中间特征图和和高阶输入特征图自身进行元素相加操作后输出融合后的特征图。
融合模块Merge Module对于不同阶的语义特征图在元素相加的基础上会做一个分支送入一个最大池化中,加入这个最大池化是为了提高感受野的大小以避免遥感图像中较小目标特征在融合过程中丢失。
所述的RPN网络和旋转目标检测器相融合连接,具体拓扑结构包括第三卷积层、四个第四卷积层、第五卷积层、两次通道数转换Reshape、归一化指数函数softmax、区域候选proposal、感兴趣区域池化模块、位置坐标回归和目标类型回归;
融合后位置特征图分别输入到第三卷积层和感兴趣区域池化模块中,第三卷积层的输出分别输入到四个第四卷积层,其中第一个第四卷积层的输出经通道数转换Reshape操作后和第二个第四卷积层的输出一起输入到归一化指数函数softmax,归一化指数函数softmax的输出再依次经通道数转换Reshape、区域候选proposal后输入到感兴趣区域池化模块,感兴趣区域池化模块对输入的融合后位置特征图进行剪裁,剪裁结果分别进行位置坐标的回归、目标类型的回归,获得裁剪后特征图,然后将裁剪后特征图输入到旋转目标检测器中;
第三个第四卷积层的输出经第五卷积层处理后和第四个第四卷积层的输出一起输入到相加层进行像素相加操作获得融合特征图,然后将融合特征图图也输入到旋转目标检测器中;
经旋转目标检测器处理输出最终的带有目标位置坐标和类型的标注图像结果。
所述的旋转目标检测器处理过程中,输出目标位置坐标和类型的预测框,在训练时,预测框和预先已知获得的实际框之间建立以下公式的旋转目标的交并比计算函数RIOU,如下:
其中,λ1与λ2为第一、第二参数变量;IOU′表示求导后的比值IOU,比值 IOU表示预测框和实际框求交集的面积与预测框和实际框求并集的面积的比值,θ表示旋转角度因子。
本发明具有的有益效果是:
(1)在特征融合方面采用自动化搜索特征融合方法,降低了模型冗余,提高了特征提取的效率,降低推断计算量。
(2)在水平目标检测器中加入旋转维度,并设计旋转检测框IoU计算方法。该方法可有效识别倾斜排列的遥感图像目标。
综合而言,本发明具有较高的检测效率可有效识别非水平放置且分辨率较小的遥感图像目标,识别精度高,鲁棒性强。
附图说明
图1为基于特征优化与旋转目标检测的遥感图像识别方法运行流程图;
图2为裁剪后的Inception-Resnet模块;
图3为LNASNet结构图;
图4为Merge Module结构图;
图5为旋转维度示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步说明。
如图1所示,本发明实施例子的具体实现过程和情况如下:
(1)本发明将特征优化自动化架构搜索的搜索空间限制在特征融合阶段,特征提取网络采用Inception-Resnet网络即初始残差网络作为骨干网络。本发明在 Inception-Resnet网络中设置了5个关键节点,分别在残差网络A模块 (Inception-resnet-A)第5层、还原模块A(Reduction-A)输出层、残差网络B 模块(Inception-resnet-B)第层10层、还原模块B(Reduction-B)输出层、还原模块B(Reduction-B)输出层、残差网络C模块(Inception-resnet-C)第层5 层。Inception-Resnet网络如图2所示。本发明选取特征输出层中尺寸最大的一层作为标准的输入尺寸即17×17。其他特征输出层通过1×1反卷积方法将特征图尺寸归一化为17×17大小,将5个关键节点的特征图尺寸归一化以后就可以送入自动化特征融合网络进行特征融合的设计。
自动化搜索网络本发明称之为LNAS,将关键节点的特征图输入到带有强化学习的自动化特征融合网,通过自动化架构搜索找到最佳的特征融合方式,通过该特征融合方式对输出的特征图进行特征优化最终输出优化好的特征图。
(2)在参数的设计上将LNAS的输入维度调整为17×17×10493,以适应5 个关键节点特征图的输入尺寸。同时为了避免自动化特征融合过程中机器进行单纯的高阶和低阶特征相加,引入了Attention注意力机制并将该机制封装为一个独立的模块进行调用在此命名为Merge Module其结构如图4所示,对于不同阶的语义特征图在元素相加的基础上会做一个分支送入一个最大池化中,加入这个最大池化是为了提高感受野的大小以避免遥感图像中较小目标特征在融合过程中丢失。
(3)在设计完成Merge Module模块后将它与(1)中的Inception-Resnet网络相结合,最终的结构如图3所示,最右侧输出为自动化特征融合以后的融合特征图。
(4)将融合以后的特征图输入到区域候选网络中,为在目标检测器中实现检测框旋转回归,本发明在通用损失函数Smooth-L1的基础上添加旋转因子θ与目标的高度h,目标宽度w如图5所示。使用五个参数(x,y,w,h,θ)表示任意方向的长方形,θ的范围限制在[П/2,0]之间为锐角,其旋转边界框公式为(1)。
其中,x,y,w,h,θ表示框的中心坐标,宽度,高度和角度。xa、ya、wa、ha、θa分别表示候选框的中心坐标,宽度,高度和角度,tx、ty、tw、th、tθ分别表示候选框的中心坐标,宽度,高度和角度的偏移量。
任意四边形的IOU计算公式如(2)其中sbox为目标的实际坐标(8维度),dbox 为目标的预测坐标通道数,与sbox相同,interarea为相交区域unionarea为不相交区域,polygon为多边形相交填充函数。
poly1=Polygon(sbox)poly2=Polygon(dbox)
nter_area=poly1∪poly2
union_area=MultiPoint(union_poly)
iou=nter_area/union-area (2)
式中,poly1、poly2分别表示实际目标的位置坐标向量,Polygon()表示预测目标的位置坐标向量,len(poly)表示坐标向量长度,poly表示坐标向量, poly1n、poly2n分别表示对坐标向量取n次幂,n表示两个区域交点的数量, MultiPoint(union_poly)表示计算两个四边形相并区域的面积,nter_area、 union_area、union_pol y分别表示两个四边形相并区域的面积,两四边形相交区域的面积,iou表示两个任意角度四边形的交并比。
在计算IOU以后,对IOU进行求导得到IOU′。由于IOU变化曲线与λ1lnθ-θ和θ-λ2lnθ相似,其中λ1与λ2为两个变量在训练过程中进行回归。损失函数微调RIOU,其计算公式如(3):
多维度损失函数定义如下(4):
式中,t′n表示前景固定值取1,v′nj表示预测偏移向量,vnj表示真实目标向量,N表示目标对象类别,n表示预测目标对象类别,j表示通道数,tn表示对象的标签类别,pn表示类别概率,Lcls()表示损失计算函数,本发明使用 Smooth-L1。
本发明设计的多角度旋转目标检测器,实在区域候选网络基础上构建的,为节约计算成本它与区域候选网络共享特征图,因此Feature Map与(3)中的相同,同时使用区域候选网络输出的预测坐标、预测类别作为多角度旋转检测器的输入,通过增加了焦点损失的Smooth-L1作为损失函数。其中添加1×1卷积以增加特征图的非线性特征增加网络的深度。最终得到8维度的遥感目标位置信息并标注在原图上。
至此完成本发明。
Claims (5)
1.一种基于特征融合与旋转目标检测器的遥感图像识别方法,其特点在于:
将采集到的遥感图像输入到Inception-Resnet网络进行位置特征的提取,得到五组关键节点特征图,将五组关键节点特征图输入到自动化特征融合网络进行特征信息的自动化融合,得到融合后位置特征图;然后将融合后位置特征图输入RPN网络中得到目标的水平位置,通过水平位置对五组特征图进行裁剪得到裁剪后的特征图,再将裁剪后的特征图输入到旋转目标检测器中,对遥感图像的目标的坐标进行旋转回归,最终得到遥感图像中目标的精确坐标。
2.根据权利要求1所述的一种基于特征融合与旋转目标检测器的遥感图像识别方法,其特征在于:
所述的Inception-Resnet网络中主要由5个残差网络A模块、1个还原模块A、10个残差网络B模块、1个还原模块B和5个残差网络C模块构成;选取残差网络A模块的第5层卷积层、还原模块A的输出层、残差网络B模块的第10层卷积层、还原模块B的输出层、残差网络C模块的第5层卷积层作为关键节点,采集获得五个关键节点的输出作为五组关键节点特征图,五组关键节点特征图尺寸归一化后输入自动化搜索网络进行特征融合。
3.根据权利要求1所述的一种基于特征融合与旋转目标检测器的遥感图像识别方法,其特征在于:
所述的自动化特征融合网络为带有强化学习的自动化特征融合网络,自动化特征融合网络主要由多个融合模块Merge Module构成;按照Inception-Resnet网络中后处理输出的顺序对五组关键节点特征图进行排序:相邻两组关键节点特征图输入到一个融合模块Merge Module处理获得融合后的特征图;先通过四个融合模块Merge Module对五组关键节点特征图的相邻两组分别进行融合处理获得四个第一融合特征图,再通过三个融合模块Merge Module对四个第一融合特征图的相邻两组分别进行融合处理获得三个第二融合特征图,再通过两个融合模块Merge Module对三个第二融合特征图的相邻两组分别进行融合处理获得两个第三融合特征图,再通过一个融合模块Merge Module对两个第三融合特征图分别进行融合处理获得一个第四融合特征图,第四融合特征图作为融合后位置特征图;每个融合模块Merge Module中,包括了最大池化层、第一卷积层和第二卷积层,在输入的相邻两组特征图中,以Inception-Resnet网络中对应较先处理输出的特征图作为低阶输入特征图,以Inception-Resnet网络中对应较后处理输出的特征图作为高阶输入特征图;高阶输入特征图经最大池化层后的输出和高阶输入特征图自身进行元素相乘操作获得第一中间特征图,第一中间特征图和高阶输入特征图自身进行元素相加操作后获得第二中间特征图,第二中间特征图和低阶输入特征图分别经第一卷积层、第二卷积层处理后再经元素相乘操作获得第三中间特征图,第三中间特征图和和高阶输入特征图自身进行元素相加操作后输出融合后的特征图。
4.根据权利要求1所述的一种基于特征融合与旋转目标检测器的遥感图像识别方法,其特征在于:
所述的RPN网络和旋转目标检测器相融合连接,具体拓扑结构包括第三卷积层、四个第四卷积层、第五卷积层、两次通道数转换Reshape、归一化指数函数softmax、区域候选proposal、感兴趣区域池化模块、位置坐标回归和目标类型回归;
融合后位置特征图分别输入到第三卷积层和感兴趣区域池化模块中,第三卷积层的输出分别输入到四个第四卷积层,其中第一个第四卷积层的输出经通道数转换Reshape操作后和第二个第四卷积层的输出一起输入到归一化指数函数softmax,归一化指数函数softmax的输出再依次经通道数转换Reshape、区域候选proposal后输入到感兴趣区域池化模块,感兴趣区域池化模块对输入的融合后位置特征图进行剪裁,剪裁结果分别进行位置坐标的回归、目标类型的回归,获得裁剪后特征图,然后将裁剪后特征图输入到旋转目标检测器中;第三个第四卷积层的输出经第五卷积层处理后和第四个第四卷积层的输出一起输入到相加层进行像素相加操作获得融合特征图,然后将融合特征图图也输入到旋转目标检测器中;经旋转目标检测器处理输出最终的带有目标位置坐标和类型的标注图像结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011083850.4A CN112464704B (zh) | 2020-10-12 | 2020-10-12 | 一种基于特征融合与旋转目标检测器的遥感图像识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011083850.4A CN112464704B (zh) | 2020-10-12 | 2020-10-12 | 一种基于特征融合与旋转目标检测器的遥感图像识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112464704A true CN112464704A (zh) | 2021-03-09 |
CN112464704B CN112464704B (zh) | 2023-10-31 |
Family
ID=74833760
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011083850.4A Active CN112464704B (zh) | 2020-10-12 | 2020-10-12 | 一种基于特征融合与旋转目标检测器的遥感图像识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112464704B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113052236A (zh) * | 2021-03-22 | 2021-06-29 | 山西三友和智慧信息技术股份有限公司 | 一种基于NASNet的肺炎图像分类方法 |
CN113095316A (zh) * | 2021-04-15 | 2021-07-09 | 西安电子科技大学 | 基于多级融合和角点偏移的图像旋转目标检测方法 |
CN113298039A (zh) * | 2021-06-21 | 2021-08-24 | 北京观微科技有限公司 | 一种顾及遥感图像旋转目标的目标检测方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019074545A1 (en) * | 2017-10-13 | 2019-04-18 | iHealthScreen Inc. | IMAGE-BASED SCREENING SYSTEM FOR PREDICTING AN INDIVIDUAL TO HAVE THE RISK OF AGE-RELATED MACULAR DEGENERATION (AMD) |
CN110084292A (zh) * | 2019-04-18 | 2019-08-02 | 江南大学 | 基于DenseNet和多尺度特征融合的目标检测方法 |
CN110648334A (zh) * | 2019-09-18 | 2020-01-03 | 中国人民解放军火箭军工程大学 | 一种基于注意力机制的多特征循环卷积显著性目标检测方法 |
EP3605338A1 (en) * | 2018-08-03 | 2020-02-05 | Fujitsu Limited | Apparatus, program, & computer-implemented image processing method for predicting execution performance metrics |
CN111126205A (zh) * | 2019-12-12 | 2020-05-08 | 南京邮电大学 | 一种基于旋转定位网络的光学遥感图像飞机目标检测方法 |
CN111191566A (zh) * | 2019-12-26 | 2020-05-22 | 西北工业大学 | 基于像素分类的光学遥感图像多目标检测方法 |
CN111563473A (zh) * | 2020-05-18 | 2020-08-21 | 电子科技大学 | 基于密集特征融合和像素级注意力的遥感舰船识别方法 |
-
2020
- 2020-10-12 CN CN202011083850.4A patent/CN112464704B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019074545A1 (en) * | 2017-10-13 | 2019-04-18 | iHealthScreen Inc. | IMAGE-BASED SCREENING SYSTEM FOR PREDICTING AN INDIVIDUAL TO HAVE THE RISK OF AGE-RELATED MACULAR DEGENERATION (AMD) |
EP3605338A1 (en) * | 2018-08-03 | 2020-02-05 | Fujitsu Limited | Apparatus, program, & computer-implemented image processing method for predicting execution performance metrics |
CN110084292A (zh) * | 2019-04-18 | 2019-08-02 | 江南大学 | 基于DenseNet和多尺度特征融合的目标检测方法 |
CN110648334A (zh) * | 2019-09-18 | 2020-01-03 | 中国人民解放军火箭军工程大学 | 一种基于注意力机制的多特征循环卷积显著性目标检测方法 |
CN111126205A (zh) * | 2019-12-12 | 2020-05-08 | 南京邮电大学 | 一种基于旋转定位网络的光学遥感图像飞机目标检测方法 |
CN111191566A (zh) * | 2019-12-26 | 2020-05-22 | 西北工业大学 | 基于像素分类的光学遥感图像多目标检测方法 |
CN111563473A (zh) * | 2020-05-18 | 2020-08-21 | 电子科技大学 | 基于密集特征融合和像素级注意力的遥感舰船识别方法 |
Non-Patent Citations (3)
Title |
---|
李梓瑞;王慧琴;胡燕;卢英;: "基于深度学习和最大相关最小冗余的火焰图像检测方法", 激光与光电子学进展, no. 10 * |
邓宏杰: "基于Mask R-CNN 的人脸检测分割的改进研究", 图形图像, no. 27 * |
郎波;张娜;段新新;: "基于融合机制的多模型神经网络人物群体分类模型", 计算机系统应用, no. 08 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113052236A (zh) * | 2021-03-22 | 2021-06-29 | 山西三友和智慧信息技术股份有限公司 | 一种基于NASNet的肺炎图像分类方法 |
CN113095316A (zh) * | 2021-04-15 | 2021-07-09 | 西安电子科技大学 | 基于多级融合和角点偏移的图像旋转目标检测方法 |
CN113095316B (zh) * | 2021-04-15 | 2023-04-07 | 西安电子科技大学 | 基于多级融合和角点偏移的图像旋转目标检测方法 |
CN113298039A (zh) * | 2021-06-21 | 2021-08-24 | 北京观微科技有限公司 | 一种顾及遥感图像旋转目标的目标检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112464704B (zh) | 2023-10-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112884064B (zh) | 一种基于神经网络的目标检测与识别方法 | |
CN112818903B (zh) | 一种基于元学习和协同注意力的小样本遥感图像目标检测方法 | |
CN109902806B (zh) | 基于卷积神经网络的噪声图像目标边界框确定方法 | |
CN112464704B (zh) | 一种基于特征融合与旋转目标检测器的遥感图像识别方法 | |
CN113095152B (zh) | 一种基于回归的车道线检测方法及系统 | |
CN115082674B (zh) | 基于注意力机制的多模态数据融合三维目标检测方法 | |
CN113378686A (zh) | 一种基于目标中心点估计的两阶段遥感目标检测方法 | |
CN111368690A (zh) | 基于深度学习的海浪影响下视频图像船只检测方法及系统 | |
CN115205264A (zh) | 一种基于改进YOLOv4的高分辨率遥感船舶检测方法 | |
CN112184746A (zh) | 一种输电线绝缘子缺陷分析方法 | |
CN109934857B (zh) | 一种基于卷积神经网络与orb特征的回环检测方法 | |
CN111046950B (zh) | 一种图像处理方法、装置、存储介质和电子装置 | |
CN114419413A (zh) | 感受野自适应的变电站绝缘子缺陷检测神经网络构建方法 | |
CN115439458A (zh) | 基于深度图注意力的工业图像缺陷目标检测算法 | |
CN112990065A (zh) | 一种基于优化的YOLOv5模型的车辆分类检测方法 | |
CN113111727A (zh) | 一种基于特征对齐的遥感场景下旋转目标检测方法 | |
CN112766136A (zh) | 一种基于深度学习的空间车位检测方法 | |
CN112633088B (zh) | 一种基于航拍图像中光伏组件识别的电站容量估测方法 | |
CN115272204A (zh) | 一种基于机器视觉的轴承表面划痕检测方法 | |
Farag | A lightweight vehicle detection and tracking technique for advanced driving assistance systems | |
CN116681885A (zh) | 输变电设备红外图像目标识别方法及系统 | |
Hao et al. | A multi-target corner pooling-based neural network for vehicle detection | |
CN116402690A (zh) | 一种基于多头自注意力机制的高分辨率遥感影像中道路提取方法、系统、设备及介质 | |
CN115115917A (zh) | 基于注意力机制和图像特征融合的3d点云目标检测方法 | |
CN114120270A (zh) | 一种基于注意力和采样学习的点云目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |