CN111783523A - 一种遥感影像旋转目标检测方法 - Google Patents
一种遥感影像旋转目标检测方法 Download PDFInfo
- Publication number
- CN111783523A CN111783523A CN202010427245.8A CN202010427245A CN111783523A CN 111783523 A CN111783523 A CN 111783523A CN 202010427245 A CN202010427245 A CN 202010427245A CN 111783523 A CN111783523 A CN 111783523A
- Authority
- CN
- China
- Prior art keywords
- remote sensing
- sensing image
- extracting
- network
- pyramid
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 48
- 238000011176 pooling Methods 0.000 claims abstract description 12
- 238000010586 diagram Methods 0.000 claims abstract description 8
- 238000000034 method Methods 0.000 claims description 27
- 238000004364 calculation method Methods 0.000 abstract description 4
- 230000007246 mechanism Effects 0.000 abstract description 3
- 230000001629 suppression Effects 0.000 abstract description 3
- 238000013135 deep learning Methods 0.000 description 7
- 230000004913 activation Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000008309 brain mechanism Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 235000001968 nicotinic acid Nutrition 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
- G06V10/507—Summing image-intensity values; Histogram projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Astronomy & Astrophysics (AREA)
- Remote Sensing (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种基于全局‑局部注意力机制的遥感影像旋转目标检测方法,包括以下步骤:S1:提取深度特征;S2:提取显著性特征图;S3:构建显著性金字塔;S4:提取包含前景潜在目标且排名靠前的候选区域特征及坐标;S5:生成全局场景语义约束特征,并与来自S4中的特征进行拼接;S6:进行RoIAlign池化操作;S7:生成最终特征图;S8:进行类别预测和五参数表示的包围框坐标的预测;S9:计算类比损失和坐标损失,采用IoU优化非极大值抑制算法的计算结果,显示目标检测结果。本发明可有效降低背景噪声的干扰,提高检测结果的精度,同时可以有效剔除明显的误检测结果,最终获得高精度、合理的类别与旋转包围框结果。
Description
技术领域
本发明涉及一种遥感影像旋转目标检测方法,属于航空图像目标检测技术领域。
背景技术
同时定位和类别识别是航空图像目标检测的基础和难点。随着飞机和卫星数量的增加,有越来越多的航空图像可用。航空图像中的目标检测已成为计算机视觉领域的研究热点之一,在交通控制、机场监控、油库监控、近岸船舶检测、军事目标发现等领域有着广泛的应用。
在目标尺度变化剧烈、背景复杂、目标方向任意、气象环境复杂的情况下,利用场景与目标的语义信息和目标与背景的差异有效准确地检测特定目标是一个重要而紧迫的问题。近年来,深度学习在计算机视觉任务中显示出巨大的优势,在目标检测领域取得了重大进展。
一般来说,航空图像目标检测方法通常采用以下策略:首先确定待检测目标,然后分析目标特征并选择特征描述方法,最后提取特征并进行分类器训练或计算相似距离。众所周知,提取的特征质量对检测结果有着至关重要的影响。设计良好的特征使分类器更容易区分前景和背景,在获取目标类别的同时获得相对准确的边界框。因此,选择一种提取遥感图像特征的方法对航空图像目标检测具有重要意义。各种手动设计的特征被用来描述不同类型的目标,如有向梯度直方图(HOG)、尺度不变特征变换(SIFT)等,这些方法具有良好的性能。然而,手工设计的特性只能针对特定类型的目标,不能应用于所有的目标和场景,且手工制作的特征在大数据背景下难以高效处理遥感图像,因为它们不能同时具有良好的旋转和尺度不变性,在多个光照、尺度、拍摄角度、场景等条件下都不具有鲁棒性。此外,如何平衡计算速度和特征描述精度仍然是许多研究中的难题。
目前,特别是LeNet和AlexNet出现,以深学习算法为代表的人工智能技术在图像处理领域已经取得了很大进步,可从大量的数据中有效提取具有一定平移不变性和旋转不变性的深度特征并用于多种图像处理任务,如有效的目标检测、图像分类、图像生成、场景理解、目标跟踪、目标重识别等。与传统的目标检测和定位方法相比,基于深度学习的方法具有较强的泛化能力和特征表达能力。在目标检测领域,特别是针对卷积神经网络,通过对大脑机制的仿生将大量的卷积层、池化层、激活层等层叠加起来,实现人工神经网络的构建。利用这种神经网络,可以从大量标记数据中学习潜在的有效特征表达。
根据目标包围框的样式,基于深度学习的目标检测算法主要分为两类:基于关键点的目标检测算法和基于四边形的目标检测算法。基于关键点的算法相对较新,通常采用关键点检测技术来避免边界框的预测问题。对于预测四边形包围框的方法,在基于四元数的深度学习范式下,最近的研究集中在提高目标检测网络性能的两个主流分支上。
第一个分支是基于区域的卷积神经网络(R-CNN),也称为两级网络,它使用一个弱分类器从图像中提取可疑的目标区域,然后使用一个训练有素的网络最终确定类别和目标位置。与传统的遍历分块方法不同,这种非端到端方法在进行目标检测时只需要处理提取出的候选区域内的像素,减少了计算量,提高了算法的速度;这种深度学习和非深度学习的结合展现出优秀的性能,但是对具有重叠的候选区域进行特征提取会造成资源浪费,并且非端到端的特性没有完全发挥硬件性能,因此R-CNN具有检测精度高、速度仍可提高特点,更重要的是,由于存在全连通层,R-CNN要求输入的图像数据是固定大小的(227*227)。
为了改进它,SPP-Net在最后一个卷积层的顶部增加了一个空间金字塔层,即感兴趣区域(region of interest,RoI),RoI池化将特征生成固定尺度的特征图,这样就可以处理任意尺寸的输入。此外,SPP-Net从整个图像中提取特征一次,并在检测过程中共享特征,避免R-CNN等重复提取特征的低效。
Fast R-CNN使用一个基于全连接层的小网络来代替SVM进行分类和定位。FasterR-CNN在Fast R-CNN的基础上使用候选区域网络(RPN)代替选择性搜索算法,实现了端到端的目标检测过程。
FPN提出了一种基于区域的特征金字塔网络,该网络充分利用了低分辨率、强语义特征和高分辨率、弱语义特征。通过构建不同尺度目标的特征金字塔,FPN可以从不同的语义层次理解目标,对小目标具有较强的鲁棒性和较好的检测精度。
Cascade R-CNN使用机器学习中常用的级联概念来级联多个神经网络分类器来提高检测性能。
除了基于R-CNN的目标检测框架外,第二个分支为快速的目标检测网络,包括Overfeat、YOLO、YOLOv2、YOLOv3、SSD等。这些算法被称为单级算法,能够实现端到端目标检测,并且由于其简单的网络结构和图像网格化,能够实时实现最先进的检测速度。
与自然图像中的目标检测不同,由于气象条件多样、地面背景复杂、目标朝向和尺度变化剧烈,光学遥感目标检测仍然是一项具有挑战性的任务。常用的基于区域卷积神经网络(R-CNN)的航空图像目标检测方法主要的局限在于在背景复杂的情况下不够鲁棒,不能预测出包围目标的旋转四边形坐标,以及没有充分利用场景与目标之间的语义信息。
发明内容
本发明的目的是提供一种遥感影像旋转目标检测方法,以解决光学遥感目标检测存在的在背景复杂的情况下不够鲁棒,不能预测出包围目标的旋转四边形坐标,以及没有充分利用场景与目标之间的语义信息的问题。
为达到上述目的,本发明采用的技术方案是:一种遥感影像旋转目标检测方法,包括以下步骤:
S1:使用resnet101网络,提取输入的遥感影像的深度特征;
S2:使用区域显著性算法(region contrast,RC),提取输入的遥感影像的显著性特征图;
S3:将S2中提取出的显著性特征图与S1中提取出的深度特征进行融合,构建显著性金字塔(Saliency Feature Pyramid,SFP);
S4:将显著性金字塔特征送入RPN网络,提取包含前景潜在目标且排名靠前的候选区域特征及坐标;
S5:将显著性金字塔最顶层特征图送入基于通道注意力的全局语义约束网络(global attention network,GANet),生成全局场景语义约束特征,并与来自S4中RPN网络提取的候选区域中的特征在通道维度进行拼接;
S6:将来自S5的特征图进行RoIAlign池化操作;
S7:将S6得到的特征图送入连续的两层全连接层,生成最终特征图;
S8:使用S7生成的最终特征图,分别进行类别预测和五参数表示的包围框坐标的预测;
S9:检测时,使用一种角度敏感的IoU算法(angle-sensitive intersection overunion,angle-sensitive IoU),对来自S8的预测结果进行优选,并输出最终的检测结果。
由于上述技术方案的运用,本发明与现有技术相比具有下列优点:
本发明一种遥感影像旋转目标检测方法,通过构建显著性金字塔降低局部区域复杂背景的干扰,使用全局语义约束分支引入场景上下文信息,并通过一种角度敏感的IoU算法获取了更加合理的目标旋转包围框表示,在航空图像目标检测时,可有效降低背景噪声的干扰,提高检测结果的精度,同时可以有效剔除明显的误检测结果,最终获得高精度、合理的类别与旋转包围框结果。
附图说明
附图1为本发明遥感影像旋转目标检测方法的流程示意图;
附图2为本发明目标检测方法中显著性金字塔构建方法流程图;
附图3为本发明遥感影像旋转目标检测方法中全局-局部特征融合流程图;
附图4为本发明遥感影像旋转目标检测方法中旋转包围框坐标说明图;
附图5为本发明遥感影像旋转目标检测方法中resnet101结构示意图。
具体实施方式
实施例:一种遥感影像旋转目标检测方法,其提出一种新的目标检测网络(GLS-Net),在Fast R-CNN网络的基础上,将显著性算法RC与特征金字塔网络相结合、采用基于显著性算法与神经网络构建显著性金字塔,并在显著性金字塔的基础上,提出全局注意力网络分支、使用基于通道注意力机制的全局语义约束网络提取场景深度特征,再在此基础上,提出基于显著性金字塔的局部目标信息与经通道注意力机制优化后的全局语义信息相结合的快速特征融合策略,最后,提出并使用一种角度敏感的IoU算法优化训练时非极大值抑制算法效果,以获得一个更精确的五参数旋转框表示;
具体包括以下步骤:
S1:使用resnet101网络,对输入的BGR波段遥感影像的深度特征进行提取,其中resnet101网络结构如图5所示;
S2:使用区域显著性算法(region contrast,RC)提取输入的遥感影像的显著性特征图,具体包括以下步骤:
S21:用基于图的图像分割方法将输入的遥感影像分割成若干区域,然后根据以下公式,为每个区域建立颜色直方图,对于图像中的每个像素,其显著性定义为:
其中D(Ik,Ii)为像素Ik和像素Ii在L*a*b空间的颜色距离度量,S(Ik)为像素Ik的显著性值;
S22:忽略像素之间的空间关系,具有相同像素值的像素具有相同的显著性值,因此可以得到以下公式:
其中S(cl)为像素Ik的颜色值,n为输入的BGR波段遥感影像(BGR三波段数据、像素值域为[0,255])中所含的颜色总数,fj为cj在遥感影像I中出现的概率,在实际计算时,在每个RGB颜色通道量化为12个颜色等级,因此总共存在123个颜色等级;
S23:图像中和周围物体对比度大的区域会更加容易被注意,且一个像素相邻区域的高对比度更加容易导致该区域引起视觉注意,因此在RC方法中引入区域对比度权重,得到以下公式:
其中ω(ri)为S21分割后得到的区域ri的权值,Dr(·,·)为两个区域的颜色距离度量,两个区域rk,ri的颜色距离为:
其中f(ck,i)为第i个颜色ck,i在第k个区域rk的所有nk种颜色中出现的概率,k={1,2};
S24:计算空间加权区域对比度,在以上三个公式的基础上,增加空间信息,对于任意的区域rk,基于空间加权区域对比度的显著性定义为:
S3:将S2中获取的显著性特征图下采样后,分别与S1中基于resnet101提取的深度特征(C2,C3,C4,C5)融合进行通道维的拼接操作,构建显著性金字塔(Saliency FeaturePyramid,SFP),完成后C2,C3,C4,C5特征的通道维分别加一,如图2所示;
S4:将S2获取的显著性金字塔特征{s2,s3,s4,s5}送入RPN网络,提取包含前景潜在目标且排名靠前的候选区域特征及坐标,其中RPN网络结构如下所示:
输入的遥感影像首先经过一层卷积层,卷积核尺寸为7*7*3,输出维度为96,步长为2,padding为3,激活函数使用relu;
然后通过最大化池化层,池化核大小为3*3,步长为2,padding为1;
进行卷积操作,卷积核为5*5,输入维度为96,输出维度为256,步长为2,padding为2,激活函数为relu;
然后通过最大化池化层,池化核大小为3*3,步长为2,padding为1;
进行卷积操作,卷积核为3*3,输入维度为256,输出维度为384,步长为1,padding为1,激活函数为relu;
进行卷积操作,卷积核为3*3,输入维度为384,输出维度为384,步长为1,padding为1,激活函数为relu;
进行卷积操作,卷积核为3*3,输入维度为256,输出维度为256,步长为1,padding为1,激活函数为relu;
最后分别使用两个卷积输出目标的类别和正矩形左上点和右下点的坐标四参数表示;
S5:将显著性金字塔最顶层特征图送入基于通道注意力的全局语义约束网络(GANet),生成如图3所示的全局场景语义约束特征,其过程描述如下:
MLP(x)=fdecoder(ReLU(fcoder(x))),
Mc(F)为经通道显著性处理后的特征,其中F为来自特征金字塔最顶层的特征,维度为[n,n,256],该特征被分别进行最大化池化和平均池化操作,生成两个维度为[1,1,256]的向量,和分别为矩形的加法和乘法操作,为了降低计算量,将Mc(F)特征通过两层卷积层将通道数从256降至32;
然后在通道维将生成的全局场景语义约束特征与S4中获取的特征进行拼接,生成一个通道维度为289维的特征图;
S6:将来自S5的通道维度为289维的特征图进行RoIAlign池化操作,生成7*7*289维的特征图;
S7:将S6得到的7*7*289维的特征图送入两层全连接网络,生成最终特征图;
S8:使用S7中生成的最终特征图,分别进行类别预测和五参数表示的包围框坐标的预测,获得该目标属于多个类别的概率(一般取最大的概率作为该目标的类别)和旋转包围框的五参数坐标,其中包围框的坐标如图4所示,x轴沿着逆时针旋转,遇到的矩形第一条边为w,因此另一条边h,此时x轴转过的角度记为θ,θ∈[-90,0),那么五参数的坐标表示为(x,y,w,h,θ),其中x,y为矩形中心点的坐标;
S9:检测时,基于S8生成的类别分数和旋转包围框坐标,计算分类损失(交叉熵损失)和坐标损失,加权后进行反向传播优化网络参数,在坐标损失计算时,采用一种角度敏感的IoU来优化非极大值抑制算法的计算结果:
其中,areai和areaj分别表示两个旋转矩形的面积,areainter表示两个矩形相交的面积;
S10:输出目标检测结果。
采用上述遥感影像旋转目标检测方法时,其通过构建显著性金字塔降低局部区域复杂背景的干扰,使用全局语义约束分支引入场景上下文信息,并通过一种角度敏感的IoU算法获取了更加合理的目标旋转包围框表示,在航空图像目标检测时,可有效降低背景噪声的干扰,提高检测结果的精度,同时可以有效剔除明显的误检测结果,如将水面上的船只错误检测为车辆等,最终获得高精度、合理的类别与旋转包围框结果。
上述实施例只为说明本发明的技术构思及特点,其目的在于让熟悉此项技术的人士能够了解本发明的内容并据以实施,并不能以此限制本发明的保护范围。凡根据本发明精神实质所作的等效变化或修饰,都应涵盖在本发明的保护范围之内。
Claims (1)
1.一种遥感影像旋转目标检测方法,其特征在于,包括以下步骤:
S1:使用resnet101网络,提取输入的遥感影像的深度特征;
S2:使用区域显著性算法(region contrast,RC),提取输入的遥感影像的显著性特征图;
S3:将S2中提取出的显著性特征图与S1中提取出的深度特征进行融合,构建显著性金字塔(Saliency Feature Pyramid,SFP);
S4:将显著性金字塔特征送入RPN网络,提取包含前景潜在目标且排名靠前的候选区域特征及坐标;
S5:将显著性金字塔最顶层特征图送入基于通道注意力的全局语义约束网络(globalattention network,GANet),生成全局场景语义约束特征,并与来自S4中RPN网络提取的候选区域中的特征在通道维度进行拼接;
S6:将来自S5的特征图进行RoIAlign池化操作;
S7:将S6得到的特征图送入连续的两层全连接层,生成最终特征图;
S8:使用S7生成的最终特征图,分别进行类别预测和五参数表示的包围框坐标的预测;
S9:检测时,设计并使用一种角度敏感的IoU算法(angle-sensitive intersectionover union,angle-sensitive IoU),对来自S8的预测结果进行优选,并输出最终的检测结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010427245.8A CN111783523B (zh) | 2020-05-19 | 2020-05-19 | 一种遥感影像旋转目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010427245.8A CN111783523B (zh) | 2020-05-19 | 2020-05-19 | 一种遥感影像旋转目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111783523A true CN111783523A (zh) | 2020-10-16 |
CN111783523B CN111783523B (zh) | 2022-10-21 |
Family
ID=72754299
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010427245.8A Active CN111783523B (zh) | 2020-05-19 | 2020-05-19 | 一种遥感影像旋转目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111783523B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112270280A (zh) * | 2020-11-02 | 2021-01-26 | 重庆邮电大学 | 一种基于深度学习的遥感图像中的露天矿场检测方法 |
CN113095201A (zh) * | 2021-04-07 | 2021-07-09 | 西北工业大学 | 基于人脸不同区域间自注意力和不确定性加权多任务学习的au程度估计模型建立方法 |
CN113436148A (zh) * | 2021-06-02 | 2021-09-24 | 范加利 | 一种基于深度学习的舰载机轮廓关键点检测方法及系统 |
CN113505634A (zh) * | 2021-05-24 | 2021-10-15 | 安徽大学 | 一种双流解码跨任务交互网络的光学遥感图像显著目标检测方法 |
CN113780241A (zh) * | 2021-09-29 | 2021-12-10 | 北京航空航天大学 | 一种显著物体检测的加速方法与装置 |
CN114120045A (zh) * | 2022-01-25 | 2022-03-01 | 北京猫猫狗狗科技有限公司 | 一种基于多门控混合专家模型的目标检测方法和装置 |
CN114332633A (zh) * | 2022-03-01 | 2022-04-12 | 北京化工大学 | 雷达图像目标检测识别方法、设备和存储介质 |
CN114663743A (zh) * | 2022-04-20 | 2022-06-24 | 集美大学 | 一种船舶目标重识别方法、终端设备及存储介质 |
CN116403007A (zh) * | 2023-04-12 | 2023-07-07 | 北京卫星信息工程研究所 | 基于目标向量的遥感影像变化检测方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019144575A1 (zh) * | 2018-01-24 | 2019-08-01 | 中山大学 | 一种快速行人检测方法及装置 |
WO2019192397A1 (zh) * | 2018-04-04 | 2019-10-10 | 华中科技大学 | 一种任意形状的场景文本端到端识别方法 |
CN110378308A (zh) * | 2019-07-25 | 2019-10-25 | 电子科技大学 | 改进的基于Faster R-CNN的港口SAR图像近岸舰船检测方法 |
CN111126205A (zh) * | 2019-12-12 | 2020-05-08 | 南京邮电大学 | 一种基于旋转定位网络的光学遥感图像飞机目标检测方法 |
-
2020
- 2020-05-19 CN CN202010427245.8A patent/CN111783523B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019144575A1 (zh) * | 2018-01-24 | 2019-08-01 | 中山大学 | 一种快速行人检测方法及装置 |
WO2019192397A1 (zh) * | 2018-04-04 | 2019-10-10 | 华中科技大学 | 一种任意形状的场景文本端到端识别方法 |
CN110378308A (zh) * | 2019-07-25 | 2019-10-25 | 电子科技大学 | 改进的基于Faster R-CNN的港口SAR图像近岸舰船检测方法 |
CN111126205A (zh) * | 2019-12-12 | 2020-05-08 | 南京邮电大学 | 一种基于旋转定位网络的光学遥感图像飞机目标检测方法 |
Non-Patent Citations (1)
Title |
---|
李策等: "一种高分辨率遥感图像视感知目标检测算法", 《西安交通大学学报》 * |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112270280B (zh) * | 2020-11-02 | 2022-10-14 | 重庆邮电大学 | 一种基于深度学习的遥感图像中的露天矿场检测方法 |
CN112270280A (zh) * | 2020-11-02 | 2021-01-26 | 重庆邮电大学 | 一种基于深度学习的遥感图像中的露天矿场检测方法 |
CN113095201A (zh) * | 2021-04-07 | 2021-07-09 | 西北工业大学 | 基于人脸不同区域间自注意力和不确定性加权多任务学习的au程度估计模型建立方法 |
CN113095201B (zh) * | 2021-04-07 | 2023-08-18 | 西北工业大学 | 基于人脸不同区域间自注意力和不确定性加权多任务学习的au程度估计模型建立方法 |
CN113505634A (zh) * | 2021-05-24 | 2021-10-15 | 安徽大学 | 一种双流解码跨任务交互网络的光学遥感图像显著目标检测方法 |
CN113436148A (zh) * | 2021-06-02 | 2021-09-24 | 范加利 | 一种基于深度学习的舰载机轮廓关键点检测方法及系统 |
CN113780241A (zh) * | 2021-09-29 | 2021-12-10 | 北京航空航天大学 | 一种显著物体检测的加速方法与装置 |
CN113780241B (zh) * | 2021-09-29 | 2024-02-06 | 北京航空航天大学 | 一种显著物体检测的加速方法与装置 |
CN114120045A (zh) * | 2022-01-25 | 2022-03-01 | 北京猫猫狗狗科技有限公司 | 一种基于多门控混合专家模型的目标检测方法和装置 |
CN114120045B (zh) * | 2022-01-25 | 2022-05-31 | 北京猫猫狗狗科技有限公司 | 一种基于多门控混合专家模型的目标检测方法和装置 |
CN114332633A (zh) * | 2022-03-01 | 2022-04-12 | 北京化工大学 | 雷达图像目标检测识别方法、设备和存储介质 |
CN114663743A (zh) * | 2022-04-20 | 2022-06-24 | 集美大学 | 一种船舶目标重识别方法、终端设备及存储介质 |
CN114663743B (zh) * | 2022-04-20 | 2024-08-09 | 集美大学 | 一种船舶目标重识别方法、终端设备及存储介质 |
CN116403007A (zh) * | 2023-04-12 | 2023-07-07 | 北京卫星信息工程研究所 | 基于目标向量的遥感影像变化检测方法 |
CN116403007B (zh) * | 2023-04-12 | 2023-12-19 | 北京卫星信息工程研究所 | 基于目标向量的遥感影像变化检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111783523B (zh) | 2022-10-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111783523B (zh) | 一种遥感影像旋转目标检测方法 | |
Wu et al. | ORSIm detector: A novel object detection framework in optical remote sensing imagery using spatial-frequency channel features | |
Wang et al. | Learning center probability map for detecting objects in aerial images | |
Cheng et al. | FusionNet: Edge aware deep convolutional networks for semantic segmentation of remote sensing harbor images | |
CN109614985B (zh) | 一种基于密集连接特征金字塔网络的目标检测方法 | |
Zhao et al. | Superpixel-based multiple local CNN for panchromatic and multispectral image classification | |
Byeon et al. | Scene labeling with lstm recurrent neural networks | |
Li et al. | Multiscale features supported DeepLabV3+ optimization scheme for accurate water semantic segmentation | |
Han et al. | Methods for small, weak object detection in optical high-resolution remote sensing images: A survey of advances and challenges | |
Costea et al. | Creating roadmaps in aerial images with generative adversarial networks and smoothing-based optimization | |
Alidoost et al. | A CNN-based approach for automatic building detection and recognition of roof types using a single aerial image | |
Zhao et al. | Multi-scale image block-level F-CNN for remote sensing images object detection | |
Sommer et al. | Comprehensive analysis of deep learning-based vehicle detection in aerial images | |
Asokan et al. | Machine learning based image processing techniques for satellite image analysis-a survey | |
Li et al. | ComNet: Combinational neural network for object detection in UAV-borne thermal images | |
CN112733614B (zh) | 一种带有相似尺寸强化识别的害虫图像检测方法 | |
Shen et al. | Biomimetic vision for zoom object detection based on improved vertical grid number YOLO algorithm | |
Han et al. | KCPNet: Knowledge-driven context perception networks for ship detection in infrared imagery | |
CN112686304A (zh) | 一种基于注意力机制以及多尺度特征融合的目标检测方法、设备及存储介质 | |
Ahmed et al. | A real-time efficient object segmentation system based on U-Net using aerial drone images | |
Xing et al. | Traffic sign recognition using guided image filtering | |
CN113177503A (zh) | 基于yolov5的任意朝向目标十二参数检测方法 | |
Sun et al. | IRDCLNet: Instance segmentation of ship images based on interference reduction and dynamic contour learning in foggy scenes | |
Li et al. | Gated auxiliary edge detection task for road extraction with weight-balanced loss | |
Han et al. | Research on remote sensing image target recognition based on deep convolution neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |