CN111126287B - 一种遥感影像密集目标深度学习检测方法 - Google Patents

一种遥感影像密集目标深度学习检测方法 Download PDF

Info

Publication number
CN111126287B
CN111126287B CN201911354909.6A CN201911354909A CN111126287B CN 111126287 B CN111126287 B CN 111126287B CN 201911354909 A CN201911354909 A CN 201911354909A CN 111126287 B CN111126287 B CN 111126287B
Authority
CN
China
Prior art keywords
template
target
density
remote sensing
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911354909.6A
Other languages
English (en)
Other versions
CN111126287A (zh
Inventor
马爱龙
陈鼎元
钟燕飞
郑卓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN201911354909.6A priority Critical patent/CN111126287B/zh
Publication of CN111126287A publication Critical patent/CN111126287A/zh
Application granted granted Critical
Publication of CN111126287B publication Critical patent/CN111126287B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/10Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture
    • Y02A40/25Greenhouse technology, e.g. cooling systems therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Multimedia (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种遥感影像密集目标深度学习检测方法,用于遥感影像密集目标提取。首先,将图像输入到深层的CNN基础网络中以获取特征图;其次,将深度卷积特征输入到密集目标提取框架中,以进行感兴趣区域提取(RPN分支),对象分类和矩形框框回归。对于RPN分支,提出了高密度偏置采样器来挖掘更多具有高密度的样本(难样本)以提高检测性能。在密集目标提取框架之后采用Soft‑NMS来保留更多积极对象。最后,输出精炼的矩形框,以实现对密集物体的数量统计。

Description

一种遥感影像密集目标深度学习检测方法
技术领域
本发明属于高分辨率遥感影像识别领域,特别涉及遥感影像密集目标深度学习检测方法。
背景技术
遥感技术的飞速发展,现在可以提供大量的高分辨率遥感影像。与低分辨率影像相比,高分辨率遥感影像包含更详细的空间信息,不仅带来了机遇,但也给遥感影像的识别带来挑战。基于高分辨率遥感影像技术的识别与分析现已运用于遥感影像目标检测任务中。其中,塑料大棚检测是非常重要的一个研究方向。温室栽培是通过营造微观环境来种植作物,比如:蔬菜,烟草和水果。监测和测绘温室面积在两个方面都很有意义:1)农业价值。温室栽培可以保护农业,因此在农业领域很重要。通过这种方式,温室面积的管理有助于作物产量的估算。除此之外,在中国,还宣布了一些土地保护政策,例如,将温室与未经许可的建筑物区分开来,以保护农田并划定界限。2)环境保护。通常,玻璃和塑料作为大棚盖顶的材料。这些温室材料中邻苯二甲酸盐的含量超过60%,会导致土壤中的次生盐渍化。另一方面,温室栽培需要大量的施肥,这可能导致土壤酸化和养分失衡。
但是大棚提取是一类密集目标提取问题,密集目标提取在图像处理的某些场景中已有一些研究。这些场景通常是人造的,例如行人检测,打包零售检测和文本检测等。在遥感领域,交通监督(即车辆检测)和城市景观规划(即建筑物提取)也可以视为密集目标检测的任务。关于物体检测的研究很多,但是密集物体的提取仍然是研究的难点。基于两阶段目标检测框架,对改进后的模块进行了一些研究,以解决密集目标提取的问题。区域提取网络(RPN):Hsieh提出了空间正则化RPN以利用空间布局信息,并将空间正则化约束引入网络以提高定位精度。这种方法考虑了地面上物体的空间分布。但是,它不适用于极其密集的风景。在文本检测领域,Jiang采用旋转RPN表示物体的位置。此方法很有用,因为它增加了边界框中对象的填充率,并且提取了更有效的特征。但是,基于旋转RPN的方法需要获取复杂的人工注释,并且难以训练。Head:Wang采用了排斥机制,以避免预测结果偏向周围的地面真相。这种方法有助于引导人群更加稳健,但是在极其密集的场景中效果非常有限。Zhang采用聚集损失而不是排斥损失来迫使预测的边界框靠近并紧凑地定位到相应的对象。此外,该模型将对象的整个主体分为几个部分,以提取更多精致的特征。但是,对于密度极高的物体,周围物体的分布可能太规则以至于无法进行精确的物体检测。He采用了不确定性估计模块来评估定位可信度,并平衡简单样本和困难样本。NMS:Hu将卷积网络引入了预测的精确边界框。这是一种自动方法,但会引入其他参数,因此很难安装。Liu根据预测边界框的密度设置抑制阈值。但是,它仅适用于与周围目标邻接的密集目标。
尽管上述方法已大大提高了密集目标检测的性能,但针对极度密集的目标还是难以进行有效提取。因此,为了解决密集对象提取的问题,提出了一种新颖的密集目标检测框架来实现密集大棚的数量和面积统计。
发明内容
本发明的目的在于提出一种遥感影像密集目标深度学习检测方法,提出的密集目标深度学习检测方法基于两阶段的对象检测方法,由三个组件组成,分别是基于难样本挖掘的高密度偏置采样器,用于密集对象提取的密集目标检测框架和用于后处理的Soft-NMS。首先,将遥感影像输入到深度CNN基础网络中进行特征提取;其次,提取的骨架特征图由三个分支机构使用:感兴趣区域提取网络(RPN),矩形框检测分支和语义分割分支。对于RPN分支,提出了高密度偏置采样器,以利用更密集的样本。对于矩形框检测分支,实现了对象分类和边界框回归。对于语义分割分支,输出每个像素的分类结果。第三,采用Soft-NMS作为后处理,以抑制不正确的矩形框,同时保留具有高置信度但密度高的矩形框。最后,输出高定位精度的边界框和分割掩膜,以同时对密集物体的数量和面积进行统计。
本发明提供一种感深影像密集目标深度学习检测方法,实现步骤如下:
步骤1,获取高分辨率遥感影像密集目标数据集,将其拆分为训练集和测试集,并对输入影像数据进行预处理;
步骤2,构建高密度偏置采样器,对数据集中的高密度目标进行筛选和采样;
步骤3,依据采样得到的高密度样本集进行目标提取模型训练,以提升模型对高密度样本的利用程度;
所述目标提取模型整体结构包括深度卷积神经网络,区域提取网络RPN,预测端,Soft-NMS后处理模块,处理流程为:将步骤1中的训练集输入到深度卷积神经网络提取卷积特征,然后输入区域提取网络RPN中得到候选框,并通过预测端得到带有类别信息的矩形框,最后输入到Soft-NMS后处理模块得到最终的目标提取结果;
步骤4,基于训练收敛后的目标提取模型,对待识别样本进行预测,利用输出概率获取识别结果。
进一步的,步骤2的具体实现方式如下,
步骤2.1,获取遥感影像密集目标模板框,并通过最大动态交并比表示每个模板框的密度,所述最大动态交并比表示当前模板框及距其最近的相邻模板框的最大交并比,旋转这两个成对的模板框,当两个模板框的长边平行时,通过如下公式获得最大动态交并比:
Figure BDA0002335636530000031
其中,所述模板框是在原始遥感影像上滑窗得到的不同尺寸和长宽比的框;w和h分别表示模板框的短边和长边,c表示模板框的中心点,dist表示用于计算两中心点的欧式距离函数,min表示返回最小值的函数,下标1和2分别代表两个模板框;
步骤2.2,计算得到密集场景下每个模板框的密度表示后,依据该密度分布采用高密度偏置采样器以提升高密度模板框的利用率;
首先将所有模板框按密度从小到大的顺序排列,将模板框均匀地划分为N个间隔区间,对每个模板框的间隔区间赋予不同的采样概率f(x)=xa,采样得到具有高密度的样本,其中,自变量x表示间隔区间的编号。
进一步的,步骤3中所述深度卷积神经网络为ResNet-50网络。
进一步的,步骤3中所述区域提取网络RPN由中间卷积层、两个子卷积层和anchor组成,中间卷积层通过滑窗在输入的特征图上进行遍历,并通过anchor将特征图上每个点映射回原始影像的模板框;然后在大量模板框的基础上,利用采样器将其分为前景和背景模板框,传入两个子卷积层,用于目标前前景或背景的推理和坐标回归,最后输出包含疑似前景目标的候选框。
进一步的,步骤3中所述预测端基于每个候选框进行预测,包含两个分支网络:1)目标类别预测分支网络,该网络由卷积核大小为1*1的卷积层组成,输出的卷积层维度C表示类别个数;2)坐标回归分支网络,该网络由卷积核大小为1*1的卷积核组成,输出的卷积核维度为4,该分支用于进行目标矩形框中心点水平垂直坐标值和长宽值的回归;最后,预测端输出带有类别信息的矩形框。
与现有技术相比,本发明的优点和有益效果为:本发明考虑遥感影像地物分布的空间规律,从样本中选取高密度样本,以辅助模型提取到更加有效的卷积特征。该方法适用于密集目标提取,可有效区分密集目标并实现高精度的地物定位。
附图说明
图1是本发明的步骤2.1中最大动态交并比示意图。
图2是本发明的步骤2.2中设计的高密度偏置采样器示意图。
图3是本发明的步骤3.1中设计的感兴趣区域提取网络示意图。
图4是本发明的步骤4中密集大棚提取结果图。
具体实施方式
下面通过实施例,进一步阐明本发明的突出特点和显著进步,仅在于说明本发明而决不限制本发明。
本发明实施例提供的一种遥感影像密集目标深度学习检测方法,具体包括如下步骤:
(一)使用自己标注的高空间分辨率遥感影像密集大棚目标检测数据集(GHDOERS),GH DOERS训练数据集包含1290张Google Earth图像,测试集和验证集分别为430张和862张,其大小为512×512像素。该数据集包含来自全国6个省份和地区,包括:湖北省、辽宁省、山东省、新疆维吾尔自治区、陕西省、江苏省。
1.1.选取数据集中的训练集和测试集TrainA与TestB,用于本实施的样例数据,并利用Python编写数据增强算法,实现影像0.5概率的水平翻转、上下翻转以及旋转等操等,并完成输入影像的归一化操作。
(二)构建高密度偏置采样器,对数据集中的高密度目标进行筛选和采样。
步骤2.1,通过最大动态交并比表示每个模板框(在原始影像上滑窗得到的不同尺寸和长宽比的框)的密度。其中,候选框来源如下:将经过预处理的影像输入ResNet-50卷积神经网络得到卷积特征,并将该特征输入RPN模块,得到所需的候选框。最大动态交并比表示当前模板框及距其最近的相邻模板框的最大交并比(Intersection-Over-Union,IoU),方法是旋转这两个成对的模板框,直到两者的IoU达到最大值。采用最大动态交并比取代常规IoU的原因是:常规IoU只能计算两模板框的重叠度,但在密集场景下,可能存在重叠度不大、但密度大的模板框。因此,IoU不足以表达密集场景下目标的密集程度。
但是,遍历所有旋转角度来计算最大IoU效率很低。由此,考虑到模板框的几何特性:当成对模板框的长边平行时,可以计算得到最大IoU,如最大动态交并比示意图图1所示。
将其计算方式转化为数学表达后,公式表示如下:
Figure BDA0002335636530000041
MD_IoU表示最大动态交并比(Maximum Dynamic IoU)。其中,w和h分别表示模板框的短边和长边,c表示模板框的中心点,dist表示用于计算两中心点的欧式距离函数,min表示返回最小值的函数,下标1和2分别代表两个模板框。
步骤2.2,计算得到密集场景下每个模板框的密度表示后,依据该密度分布采用高密度偏置采样器以提升高密度模板框的利用率,如高密度偏置采样器示意图图2所示。
为了提升采样器的灵活性,采用间隔区间将模板框的密度分布划分为N个区间,其中参数N是可调的(默认,N=3)。第一,所有前景模板框密度的按从小到大的顺序排列,其中,前景模板框定义如下:当模板框和人工标记的真实框的交并比大于0.5时,该模板框即为前景模板框。第二,将模板框均匀地划分为N个间隔区间。第三,每个模板框的间隔区间被赋予不同的采样概率。这样,由于均匀概率被某个概率分布所代替,因此有助于采样更多具有高密度的样本。在本方案中,利用幂函数来调整概率,可以用以下数学方法表示:
f(x)=xa
本方案中默认将幂级数设置为4。其中,自变量x表示间隔区间的编号(从1开始编号),为表示成概率形式,不同间隔区间得到的函数值将会经过归一化以确保和为1。
(三)依据采样得到的高密度样本集进行目标提取模型训练
目标提取模型整体结构如下:深度卷积神经网络,区域提取网络(RegionProposal Network,RPN),预测端,Soft-NMS后处理模块。大致流程包括:训练集预处理,输入深度卷积神经网络提取卷积特征,输入RPN模块得到候选框,输入预测端得到带有类别信息的矩形框,输入Soft-NMS后处理模块得到最终的目标提取结果。接下来,对每个步骤进行详细介绍。
步骤3.1,对原始影像进行随机翻转等数据增强操作和数据值归一化操作,得到预处理影像。将该影像输入ResNet-50网络,通过堆叠卷积层、激活函数和池化层实现抽象特征的提取,最后输出深度卷积特征。
步骤3.2,在提取到深度卷积特征之后,特征的一个输出分支为区域提取网络(RPN)分支,用于提取感兴趣区域,为后续预测端剔除大量非目标区域,如感兴趣区域提取网络示意图图3所示。
RPN由中间卷积层、两个子卷积层和anchor组成。中间卷积层通过滑窗在输入的特征图上进行遍历,并将特征图上每个点映射回原始影像的模板框。这是通过引入anchor机制来实现的,anchor即一个具有许多尺度和长宽比的模板框,其数量为k。默认情况下,k=12,即有12个anchor具有四个尺度(4、8、16、32)和三个长宽比(1:1、1:2、2:1)。然后在这大量模板框的基础上,利用采样器将其分为前景和背景模板框,传入两个子卷积层(用于目标前/背景的推理和坐标回归);最后输出得到大量包含疑似前景目标的候选框。
步骤3.3,然后,通过RPN分支得到的候选框输入预测端分支用于进行目标类别预测和坐标回归精化;
预测端基于每个候选框进行预测,包含两个分支网络:1)目标类别预测分支网络。该网络由卷积核大小为1*1的卷积层组成,输出的卷积层维度C表示类别个数;2)坐标回归精化。该网络由卷积核大小为1*1的卷积核组成,输出的卷积核维度4,该分支用于进行目标矩形框中心点水平垂直坐标值和长宽值的回归。最后,预测端输出带有类别信息的矩形框。
步骤3.4,为了在矩形框去重过程中尽可能多地保留检测正确的矩形框,本方案采用SoftNMS进行矩形框的非极大抑制。
传统NMS在筛选重复矩形框的过程中,直接删去交并比大于某一阈值的矩形框,但NMS不适用于密集场景:因为密集目标的交并比通常较大,而NMS会在筛选过程中误删原本检测正确的矩形框。由此,本方案引入Soft-NMS,通过置信度重加权的方式代替传统NMS中直接删去的方式。
Soft-NMS的处理流程如下:首先在所有矩形框中,选择并保留置信度最高的矩形框;其次,计算周围矩形框与最高置信度矩形框的交并比,对交并比大于一定阈值(本方案选取0.5为阈值)矩形框的置信度进行重加权,以降低其置信度。分数低于特定阈值的候选框将被删除。Soft-NMS重复上述操作,直到所有候选框都被保留或删除。
(四)基于训练收敛后的深度学习模型,对待识别样本进行预测。基于上述方法,经过模型预测,得到密集大棚提取结果,如密集大棚提取结果图图4所示。
从图中可以看出,部分目标所对应的矩形框被对比方法(a)Mask RCNN遗漏,但能成功被本发明方法检测出来。因此,本发明提出的方法可以有效避免密集目标的漏检,提升密集目标提取的精度。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。

Claims (4)

1.一种遥感影像密集目标深度学习检测方法,其特征在于,包括如下步骤:
步骤1,获取高分辨率遥感影像密集目标数据集,将其拆分为训练集和测试集,并对输入影像数据进行预处理;
步骤2,构建高密度偏置采样器,对数据集中的高密度目标进行筛选和采样;
步骤2的具体实现方式如下,
步骤2.1,获取遥感影像密集目标模板框,并通过最大动态交并比表示每个模板框的密度,所述最大动态交并比表示当前模板框及距其最近的相邻模板框的最大交并比,旋转这两个成对的模板框,当两个模板框的长边平行时,通过如下公式获得最大动态交并比:
Figure FDA0003583663540000011
其中,所述模板框是在原始遥感影像上滑窗得到的不同尺寸和长宽比的框;w和h分别表示模板框的短边和长边,c表示模板框的中心点,dist表示用于计算两中心点的欧式距离函数,min表示返回最小值的函数,下标1和2分别代表两个模板框;
步骤2.2,计算得到密集场景下每个模板框的密度表示后,依据该密度分布采用高密度偏置采样器以提升高密度模板框的利用率;
首先将所有模板框按密度从小到大的顺序排列,将模板框均匀地划分为N个间隔区间,对每个模板框的间隔区间赋予不同的采样概率f(x)=xa,采样得到具有高密度的样本,其中,自变量x表示间隔区间的编号;
步骤3,依据采样得到的高密度样本集进行目标提取模型训练,以提升模型对高密度样本的利用程度;
所述目标提取模型整体结构包括深度卷积神经网络,区域提取网络RPN,预测端,Soft-NMS后处理模块,处理流程为:将步骤1中的训练集输入到深度卷积神经网络提取卷积特征,然后输入区域提取网络RPN中得到候选框,并通过预测端得到带有类别信息的矩形框,最后输入到Soft-NMS后处理模块得到最终的目标提取结果;
步骤4,基于训练收敛后的目标提取模型,对待识别样本进行预测,利用输出概率获取识别结果。
2.如权利要求1所述的一种遥感影像密集目标深度学习检测方法,其特征在于:步骤3中所述深度卷积神经网络为ResNet-50网络。
3.如权利要求1所述的一种遥感影像密集目标深度学习检测方法,其特征在于:步骤3中所述区域提取网络RPN由中间卷积层、两个子卷积层和anchor组成,中间卷积层通过滑窗在输入的特征图上进行遍历,并通过anchor将特征图上每个点映射回原始影像的模板框;然后在大量模板框的基础上,利用采样器将其分为前景和背景模板框,传入两个子卷积层,用于目标前景或背景的推理和坐标回归,最后输出包含疑似前景目标的候选框。
4.如权利要求1所述的一种遥感影像密集目标深度学习检测方法,其特征在于:步骤3中所述预测端基于每个候选框进行预测,包含两个分支网络:1)目标类别预测分支网络,该网络由卷积核大小为1*1的卷积层组成,输出的卷积层维度C表示类别个数;2)坐标回归分支网络,该网络由卷积核大小为1*1的卷积核组成,输出的卷积核维度为4,该分支用于进行目标矩形框中心点水平垂直坐标值和长宽值的回归;最后,预测端输出带有类别信息的矩形框。
CN201911354909.6A 2019-12-25 2019-12-25 一种遥感影像密集目标深度学习检测方法 Active CN111126287B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911354909.6A CN111126287B (zh) 2019-12-25 2019-12-25 一种遥感影像密集目标深度学习检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911354909.6A CN111126287B (zh) 2019-12-25 2019-12-25 一种遥感影像密集目标深度学习检测方法

Publications (2)

Publication Number Publication Date
CN111126287A CN111126287A (zh) 2020-05-08
CN111126287B true CN111126287B (zh) 2022-06-03

Family

ID=70503256

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911354909.6A Active CN111126287B (zh) 2019-12-25 2019-12-25 一种遥感影像密集目标深度学习检测方法

Country Status (1)

Country Link
CN (1) CN111126287B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111582234B (zh) * 2020-05-22 2023-07-07 莫登奎 基于uav和深度学习的大范围油茶林果智能检测与计数方法
CN111666909A (zh) * 2020-06-11 2020-09-15 中科山水(北京)科技信息有限公司 基于面向对象和深度学习的疑似污染场地空间识别方法
CN111860178B (zh) * 2020-06-22 2021-03-23 中国科学院空天信息创新研究院 一种基于权重字典学习的小样本遥感目标检测方法及系统
CN111814889A (zh) * 2020-07-14 2020-10-23 大连理工大学人工智能大连研究院 一种使用无锚框模块和增强分类器的单阶段目标检测方法
CN112257586B (zh) * 2020-10-22 2024-01-23 无锡禹空间智能科技有限公司 目标检测中的真值框选择方法、装置、存储介质及设备
CN112699808B (zh) * 2020-12-31 2024-06-07 深圳市华尊科技股份有限公司 密集目标检测方法、电子设备及相关产品
CN112966555B (zh) * 2021-02-02 2022-06-14 武汉大学 一种基于深度学习和部件先验的遥感影像飞机识别方法
CN113361465A (zh) * 2021-06-30 2021-09-07 长光卫星技术有限公司 一种基于深度学习的高分辨率遥感影像农业大棚提取方法
CN117705816B (zh) * 2024-02-06 2024-04-26 西南交通大学 基于无人机的钢轨表面缺陷检测方法、系统、设备及介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107301420A (zh) * 2017-06-30 2017-10-27 武汉大学 一种基于显著性分析的热红外影像目标探测方法
CN108427912A (zh) * 2018-02-05 2018-08-21 西安电子科技大学 基于稠密目标特征学习的光学遥感图像目标检测方法
CN108596055A (zh) * 2018-04-10 2018-09-28 西北工业大学 一种复杂背景下高分辨遥感图像的机场目标检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9459697B2 (en) * 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107301420A (zh) * 2017-06-30 2017-10-27 武汉大学 一种基于显著性分析的热红外影像目标探测方法
CN108427912A (zh) * 2018-02-05 2018-08-21 西安电子科技大学 基于稠密目标特征学习的光学遥感图像目标检测方法
CN108596055A (zh) * 2018-04-10 2018-09-28 西北工业大学 一种复杂背景下高分辨遥感图像的机场目标检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Image segmentation and density clustering for moving object patches extraction in remote sensing image;Lin Yijun et.al;《Journal of Beijing University of Aeronautics and Astronautics》;20181231;第44卷(第12期);第2510-20页 *
分米级可见光遥感图像特定目标的在线检测;瞿涛;《中国博士学位论文全文数据库 信息科技辑》;20180115;第I140-82页 *

Also Published As

Publication number Publication date
CN111126287A (zh) 2020-05-08

Similar Documents

Publication Publication Date Title
CN111126287B (zh) 一种遥感影像密集目标深度学习检测方法
Fu et al. Fast and accurate detection of kiwifruit in orchard using improved YOLOv3-tiny model
CN107909015A (zh) 基于卷积神经网络及空谱信息融合的高光谱图像分类方法
Zhuang et al. Computer vision-based localisation of picking points for automatic litchi harvesting applications towards natural scenarios
CN109886155B (zh) 基于深度学习的单株水稻检测定位方法、系统、设备及介质
Wang et al. Tea picking point detection and location based on Mask-RCNN
Fu et al. Fast detection of banana bunches and stalks in the natural environment based on deep learning
Ma et al. Improving segmentation accuracy for ears of winter wheat at flowering stage by semantic segmentation
CN110176005B (zh) 基于归一化指数和多尺度模型的遥感图像分割方法
CN105513066A (zh) 一种基于种子点选取与超像素融合的通用物体检测方法
Ichim et al. Road detection and segmentation from aerial images using a CNN based system
Zhang et al. An improved YOLO network for unopened cotton boll detection in the field
Sun et al. Semantic segmentation and path planning for orchards based on UAV images
Lu et al. Citrus green fruit detection via improved feature network extraction
Guo et al. Dual-concentrated network with morphological features for tree species classification using hyperspectral image
Zheng et al. Single shot multibox detector for urban plantation single tree detection and location with high-resolution remote sensing imagery
Gibril et al. Deep convolutional neural networks and Swin transformer-based frameworks for individual date palm tree detection and mapping from large-scale UAV images
Huang et al. A survey of deep learning-based object detection methods in crop counting
Li et al. Fruit tree canopy segmentation from UAV orthophoto maps based on a lightweight improved U-Net
Jiang et al. Thin wire segmentation and reconstruction based on a novel image overlap-partitioning and stitching algorithm in apple fruiting wall architecture for robotic picking
CN110348311B (zh) 一种基于深度学习的道路交叉口识别系统及方法
Zhang et al. An improved target detection method based on YOLOv5 in natural orchard environments
Amakhchan et al. Automatic filtering of LiDAR building point cloud using multilayer perceptron Neuron Network
CN113723833B (zh) 造林实绩质量评价方法、系统、终端设备及存储介质
Chen et al. Dense greenhouse extraction in high spatial resolution remote sensing imagery

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant