CN107609525B - 基于剪枝策略构建卷积神经网络的遥感图像目标检测方法 - Google Patents

基于剪枝策略构建卷积神经网络的遥感图像目标检测方法 Download PDF

Info

Publication number
CN107609525B
CN107609525B CN201710852216.4A CN201710852216A CN107609525B CN 107609525 B CN107609525 B CN 107609525B CN 201710852216 A CN201710852216 A CN 201710852216A CN 107609525 B CN107609525 B CN 107609525B
Authority
CN
China
Prior art keywords
network
training
data set
sparse
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201710852216.4A
Other languages
English (en)
Other versions
CN107609525A (zh
Inventor
王生生
王萌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jilin University
Original Assignee
Jilin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jilin University filed Critical Jilin University
Priority to CN201710852216.4A priority Critical patent/CN107609525B/zh
Publication of CN107609525A publication Critical patent/CN107609525A/zh
Application granted granted Critical
Publication of CN107609525B publication Critical patent/CN107609525B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明公开一种基于剪枝策略构建卷积神经网络的遥感图像目标检测方法,该方法包括以下步骤:步骤一、对目标检测训练数据集进行预处理;步骤二、对初始网络进行预训练,获得稠密网络;步骤三、对步骤二得到的稠密网络,采用基于网络剪枝技术的稠密‑稀疏训练方式,获得训练后稀疏网络,对训练后稀疏网络采用稠密训练方式进行训练,获得精确目标分类网络;步骤四、对步骤三得到的训练后稀疏网络进行处理,并采用稀疏‑稀疏的训练方式,获得快速区域提取网络;步骤五、从目标检测测试数据集生成多尺度图像金字塔,再先后使用快速区域提取网络和精确目标分类网络进行两阶段预测,获得目标的位置和类别标签。

Description

基于剪枝策略构建卷积神经网络的遥感图像目标检测方法
技术领域
本发明涉及自动构建卷积神经网络及遥感图像目标检测。
背景技术
光学遥感传感器空间分辨率在过去十年中有了很大的提高:GeoEye、WorldView和Pleiades系列均具有高空间分辨率;Skysat系列于2013年11月推出,可从太空采集1米地面采样距离(GSD,Ground Sample Distance)的影像。传感器技术的进步为诸如目标检测等图像解译工作提供了机遇与挑战,大量高分辨率图像为深度学习应用于遥感图像目标检测提供了可能,但大规模的数据却导致检测的计算量过高。
依赖于区域提取(Region Proposal)技术的进步以及神经网络的分层提取特征能力的发展,近来大多数基于深度学习的遥感图像目标检测方法都取得了不错的成绩。当前目标检测的解决模式是:首先用区域提取技术从原图中提取候选区域块,然后利用分类器将候选区域块分类。在候选区域块分类阶段使用深度特征作为分类器的输入,一般使用卷积神经网络CNN(Convolutional Neural Network)提取深度特征。区域提取技术大体分为两类,一类是分组方法(Grouping Methods),另一类是窗口打分方法(Windows ScoringMethods)。分组方法首先尝试生成多个图像分割块(可重叠),这些块可能对应于图像中的目标。其次,根据超像素估计、外观线索、边界估计等各种信息对分割后的块进行合并。窗口打分方法则是根据包含感兴趣对象的可能性来对每个候选窗口进行评分,与分组方法相比,这种方法通常只返回边界框,并且速度更快。
当前遥感图像目标检测方法具有一定的局限性:(1)目前在遥感领域使用的区域提取技术有Edge Boxes(窗口打分方法)、Selective Search(分组方法)等使用手工设计(hand-craft)特征,因此不能有效利用数据集自动学习深度特征,导致提取候选区域块时不精确、速度慢。(2)遥感图像具有图像大、目标占比小的特点,在网络的训练阶段,现有的解决模式直接把原图及其标注(ground truth)信息输入网络,从而导致网络学到更多背景信息、较少目标特征信息。基于剪枝策略的网络剪枝技术是神经网络压缩过程中出现的一种技术。网络剪枝技术为自动构建卷积神经网络提供了方法。如图1,网络剪枝技术由三个过程组成:(1)学习网络中重要连接。利用普通训练方式对网络进行训练,但目的是学习网络中重要连接而非只学习权重(2)剪掉网络中权重低于设定阈值的连接,将稠密网络变为稀疏网络;(3)重新训练稀疏网络。不经重新训练而使用稀疏网络将会使网络准确率降低。基于剪枝策略构建出的稀疏卷积神经网络稀疏度高,冗余参数少,比使用普通神经网络速度快,而构建出的稠密卷积神经网络则精确度更高。在遥感图像的区域提取阶段使用卷积神经网络可从数据集自动学习出图像特征,避免手工设计特征不精确的问题。在自动构建网络架构过程中,使用正负比例均衡的区域提取训练数据集和目标分类训练数据集,从而使训练出的网络可平衡学习到背景信息与目标特征信息。
综上所述,我们提出基于剪枝策略构建卷积神经网络的遥感图像目标检测方法。首先,对目标检测训练数据集进行预处理,使得训练集正负比例达到均衡,输出区域提取训练数据集和目标分类训练数据集。然后预训练初始网络,通过稠密-稀疏-稠密的训练方式获得AOCN,通过稠密-稀疏-稀疏的训练方式获得FRPN。最后,从目标检测测试数据集生成多尺度图像金字塔,再先后使用FRPN和AOCN进行两阶段预测,获得目标的位置和类别标签。
发明内容:
为解决现有的遥感图像目标检测的局限性,如目标检测运行速度非常慢,区域提取阶段使用的技术基于手工特征,网络训练时偏向于学习背景信息等。本发明提出了一种基于剪枝策略构建卷积神经网络的遥感图像目标检测方法,发明内容主要包括:自动构建目标检测架构的思想,构建区域提取网络的流程,构建分类网络的流程,构建目标检测框架的流程,将网络剪枝技术用于目标检测框架的构建,将深度特征用于遥感领域区域提取阶段,预处理数据集的流程。
一种基于剪枝策略构建卷积神经网络的遥感图像目标检测方法,其特征在于:至少包括以下步骤:
步骤一、对目标检测训练数据集进行预处理,使得训练集正负比例达到均衡,输出区域提取训练数据集和目标分类训练数据集。
步骤二、使用遥感图像公共数据集AID(Aerial Image Dataset)对初始网络进行预训练,获得稠密网络DN(Dense Network)。
步骤三、对步骤二得到的DN,使用目标分类训练数据集,采用基于网络剪枝技术的稠密-稀疏训练方式进行训练,获得训练后稀疏网络SN(Sparse Network)。恢复训练后SN剪掉的枝,对训练后SN采用稠密训练,使用目标分类训练数据集,获得精确目标分类网络AOCN(Accurate Region Classification Network)。
步骤四、提取步骤三中间得到的训练后SN第一到第五卷积层,为五层卷积层添加区域分类层和包围盒回归层,获得原始区域提取网络ORPN(Original Region ProposalNetwork);对ORPN,使用区域提取训练数据集,采用基于网络剪枝技术的稀疏-稀疏的训练方式,获得快速区域提取网络FRPN(Fast Region Proposal Network)。
步骤五、从目标检测测试数据集生成多尺度图像金字塔,再先后使用FRPN和AOCN进行两阶段预测,获得目标的位置和类别标签。
有益效果:
与现有技术相比,采用本发明所述的设计方案,可以达到以下技术效果:
1、使用深度神经网对目标检测训练数据集进行预处理,使得训练集正负比例达到均衡,得到区域提取训练数据集和目标分类训练数据集。与现有技术相比,能有效避免网络学到更多背景信息、较少目标特征信息,并为训练两个任务不同的网络提供合适训练集。
2、对训练后稠密网络DN,使用稠密-稀疏-稠密训练方式,可让AOCN在学习出网络中重要连接的基础上增加网络的容量,从而使网络达到一个更好的局部最小值,比现有分类网络精确度更好。
3、对训练后稠密网络DN,使用基于网络剪枝技术的稠密-稀疏-稀疏训练方式训练出的FRPN稀疏性强、冗余参数少,可比现有区域提取方法更精确、更快速提取出区域块。
4、从目标检测测试数据集生成多尺度图像金字塔,再先后使用FRPN和AOCN进行两阶段预测,获得目标的位置和类别标签。用多尺度图像金字塔,将大尺度图像处理成热度图,从热度图中预测候选区域块,比现有技术直接将图像输入网络或者直接切分图像的方式提取速度快、漏检率低、准确率高。
附图说明:
图1.网络剪枝原理及训练方式
图2.自动构建目标检测架构流程图
图3.目标检测预测过程流程图
具体实施方式:
步骤一、对目标检测训练数据集进行预处理,使得训练集正负比例达到均衡,输出区域提取训练数据集和目标分类训练数据集。
(1)均衡样例:在训练FRPN和AOCN的每个随机梯度下降迭代中,选取正样例:负样例=1:3(包括所有的类)的小批量样本。
(2)生成区域提取训练数据集
利用目标检测训练数据集的类别标签和位置标签,从目标检测训练数据集中位置标签标注的区域,生成区域提取训练数据集正样例的第一部分;为使区域提取网络具有定位能力,利用目标检测训练数据集的类别标签和位置标签,保证交并比IoU(Intersectionover Union)>=0.5,生成带有背景信息的区域提取训练数据集正样例的第二部分;利用目标检测训练数据集的类别标签和位置标签,保证IoU=0,随机生成区域提取训练数据集负样例。正样例需要包括目标检测训练数据集的所有类别。区域提取训练数据集类别标签为二类别:目标(Object)和背景(Background)。
(3)生成目标分类训练数据集
利用目标检测训练数据集的类别标签和位置标签,从目标检测训练数据集中位置标签标注的区域,生成目标分类训练数据集正样例。利用目标检测训练数据集的类别标签和位置标签,保证IoU=0,随机生成目标分类训练数据集负样例。正样例需要包括目标检测训练数据集的所有类别。目标分类训练数据集里类别标签为多类别和背景。
步骤二、使用遥感图像公共数据集AID(Aerial Image Dataset)对初始网络进行预训练,获得稠密网络DN(Dense Network)。
针对要解决的目标检测任务,选取初始网络,使用遥感图像数据集AID(AerialImage Dataset)对初始网络进行预训练,训练过程和普通训练相同。AID数据集是一个公开的遥感图像分类数据集。
步骤三、如图2,对步骤二得到的DN,使用基于网络剪枝技术的稠密-稀疏-稠密训练方式,获得精确目标分类网络AOCN(Accurate Region Classification Network)。
(1)稠密训练
使用目标分类训练数据集与其类别标签,采用随机梯度下降法,设置随机梯度下降法学习率,对步骤二得到的DN,进行训练。随机梯度下降法学习率需小于预训练学习率,使微调能够取得效果,并使预训练的权重不至于改变太大而失去预训练的意义。
这一步训练稠密网络的训练方式与通常神经网络训练方式相同,稠密网络通过训练学习到每个连接的权重和连接的重要性。但这一步的目标和通常训练不同:通常训练需要学习权重的值,而稠密训练不仅要学习权重的值,而且要学哪些连接比较重要。
(2)网络剪枝
使用连接的绝对值量化连接的重要性,对训练后DN按照稀疏度(Sparsity)剪掉量化值低的连接,得到稀疏网络SN(Sparse Network)。稀疏度是指被剪掉连接占全部连接的百分比,DN中所有层共享相同的“稀疏度”,因此稀疏度是整个神经网络的超参数。可以用验证(validation)法调整稀疏度,稀疏度值在25%到50%之间通常效果较好。利用稀疏度对网络中某一层进行剪枝的过程是:网络中层W有N个参数,将N个参数进行排序,选择第k大的参数作为阈值,其中:
k=N*(1-sparsity)
使用一个二进制掩码将所有小于阈值的连接都剪切掉。
移除量化值小的连接依据是泰勒展开式,任何一个神经网络的损失函数及损失函数的泰勒展开式如下:
Loss=f(x,W1,W2,W3...) (1)
Figure BDA0001412213360000051
如果移除权重时想最小化损失的增长,那么需最小化公式(2)中第一项和第二项。因为移除权重是把权重设成0,所以ΔWi实际上是Wi-0=Wi。在损失函数局部最小时,
Figure BDA0001412213360000052
Figure BDA0001412213360000053
所以只有第二项对损失增长有影响,因此我们选用|Wi|作为剪枝的度量,更小的|Wi|意味损失增长更小。
(3)稀疏训练
使用目标分类训练数据集与其类别标签,利用二进制掩码,采用随机梯度下降法,设置随机梯度下降法学习率,对SN进行训练,得到训练后SN。
DN转换成SN后,去掉冗余参数,损失会出现暂时性增长。对SN经过重新训练后,可以恢复DN时的准确率。
(4)恢复连接后稠密训练
恢复训练后SN上一步剪掉了的连接,使网络由稀疏网络再次变为稠密网络DN。保持DN中其他连接权值不变而将DN中恢复的连接初始化为0,使用目标分类训练数据集与其类别标签,采用随机梯度下降法,设置随机梯度下降法学习率,对DN进行训练。因训练后SN已经到达一个较好局部最小值,所以这一步学习率设为上一步训练时学习率的1/10,而丢弃率(Dropout Ratio)和权重衰减(weight decay)等超参数保持不变。通过恢复剪掉的连接和训练,模型容量增加,使训练后DN可能到达一个比训练后SN更好的局部最小值。
训练后DN即为我们需要的精确目标分类网络AOCN(Accurate ObjectClassification Network)。
步骤四、如图2,利用步骤三中间得到的训练后SN第一到第五卷积层,为五层卷积层添加区域分类层和包围盒回归层,获得原始区域提取网络ORPN(Original RegionProposal Network);对ORPN,使用区域提取训练数据集,采用基于网络剪枝技术的稀疏-稀疏的训练方式,获得快速区域提取网络FRPN(Fast Region Proposal Network)。
(1)步骤四中训练后SN的层conv1-层conv5均为卷积层,利用conv1-conv5,添加具有六个卷积核的第六层卷积层,得到新的网络ORPN。第六层卷积层由区域分类层和包围盒回归层组成,conv5特征图经过第六层卷积后分别输出2*1*1与4*1*1特征图。将2*1*1特征图,输入softmax分类器,得到类别及类别置信度。其中,类别有两个选择,一是目标,二是背景。4*1*1特征图中四个值,即为包围盒偏移。
(2)稀疏训练
使用区域提取训练数据集与其类别标签和位置标签,利用二进制掩码,采用随机梯度下降法,设置随机梯度下降法学习率,对ORPN进行训练,得到训练后ORPN。训练任务是训练网络学习二分类以及预测目标在图像中位置,训练目的是学习哪些连接不仅对二分类重要,而且对预测目标位置有效。
因需学习二分类及预测目标位置,相应地需采用多任务损失函数作为网络的目标函数。为此,设计损失函数公式(3)。因有两个学习任务所以使用两个损失监督层:第一,目标和背景的区别可看作一个二分类问题,可使用softmax损失层用于预测类别置信度(confidence),
Figure BDA0001412213360000061
第二,每个包围盒(bounding-box)都编码了四个偏移值:x,y,w,h,其中x和y是目标左上角坐标值,w和h是目标宽、高度。将x,y,w,h,相对于图像的宽和高,进行正则化,使x,y,w,h位于0与1之间。注意所有背景图片x,y,w,h四个值都设置成0。使用smooth L1损失层作为包围盒回归,经过回归输出修正的坐标值:
Figure BDA0001412213360000062
因此,同时优化目标、背景二分类和包围盒回归的多任务损失函数LFOPN为:
LFOPN(loc,pbic,ar,s)=Lbic(pbic)+αLbbox(loc) (3)
其中,Lbic指目标、背景二分类softmax损失,Lbbox是smooth L1损失:
Lbbox(loc)=fL1(loc-loct),where
Figure BDA0001412213360000063
在FRPN的反向传播中,背景的包围盒无意义,但包围盒会使训练时模型过早收敛。因此,设背景样例α=0,目标样例α=0.5。
(3)网络剪枝
使用连接的绝对值量化连接的重要性,对训练后ORPN按照稀疏度(sparsity)剪掉量化值低的连接,得到稀疏区域提取网络SRPN(Sparse Region Proposal Network)。这一步剪枝方式和步骤三相同,但稀疏度不同,稀疏度是ORPN网络的超参数,可通过验证法调整。目标分类网络需要区分多类别,因此需更大的模型容量容纳不同类别之间的差异,表现在网络上就是使用更多的连接,但这一步的任务是训练网络学会二分类以及预测目标位置,模型容量太大会导致冗余连接多、预测速度慢。二次剪枝能保证精度的同时,剪掉冗余的连接,使网络更加稀疏,从而运算更快。
(4)稀疏训练
使用区域提取训练数据集与其类别标签和位置标签,利用二进制掩码,采用随机梯度下降法,设置随机梯度下降法学习率,对SRPN进行训练,得到训练后SRPN。这一步学习率设为上一步训练时学习率的1/10,而丢弃率(Dropout Ratio)和权重衰减(weightdecay)等超参数保持不变。
训练后SRPN即为我们需要的快速区域提取网络FRPN(Fast Region ProposalNetwork)。获得FRPN的过程可看作对步骤二得到的DN,经过稠密-稀疏-稀疏训练,最终获得FRPN。
步骤五、从目标检测测试数据集生成多尺度图像金字塔,再先后使用FRPN和AOCN进行两阶段预测,获得目标的位置和类别标签。
目标检测测试数据集中图像具有不同的比例尺,在处理多尺度图像上神经网络具有劣势。为避免网络精确度降低,用高斯金字塔(Gaussian Pyramid)的方法,相对于原图比例从2-3到21.2,步长为20.3,对目标检测测试数据集进行处理,得到多尺度图像金字塔(imagepyramid)。
两阶段目标检测预测模型由FRPN与AOCN构建而成。在预测时,FRPN接收输入的多尺度图像金字塔,将每个尺度图像都经过区域分类层和包围盒回归层的计算后,输出相对应的多尺度热度图金字塔。根据区域分类层输出的热度图金字塔中最大尺寸,保留通道中的峰值,将多尺度热度图统一调节大小,结合成一张得分热度图。根据包围盒回归层输出的热度图金字塔中最大尺寸,保留通道中的峰值,将多尺度热度图统一调节大小,结合成四张位置热度图。根据峰值在得分热度图中的坐标,从位置热度图中,获得相应坐标处的值(偏移值)。对得分热度图,利用阈值thres过滤掉低热点,采用可调半径的圆圈扫描器检测得分图上的峰值,得到峰值的位置。峰值的位置就使候选区域块的中心
Figure BDA0001412213360000071
圆圈扫描器半径设置为8,阈值thres设置为0.5。
根据聚集在峰值周围的热度点,可粗略预测每个候选区域块粗糙宽度与粗糙高度。为保留整个物体,将粗糙宽度与粗糙高度乘以m=1.5,得到
Figure BDA0001412213360000081
因此,初步候选区域块位置就可以表示为
Figure BDA0001412213360000082
最后,从四张位置热度图
Figure BDA0001412213360000083
处,获得四个偏移值,用于微调初步候选区域块位置,获得候选区域块位置。其中,偏移值位于[0,1]。根据原图以及候选区域块位置,获得候选区域块。将候选区域块输入AOCN,获得类别及类别置信度。使用非极大值抑制NMS(Non-maximum Suppression)算法消除重复的检测,其中固定IoU为0.7。
最终,从FRPN与AOCN构成的目标检测两阶段网络,获得目标的位置和类别标签。整个预测过程如图3。

Claims (5)

1.一种基于剪枝策略构建卷积神经网络的遥感图像目标检测方法,其特征在于:至少包括以下步骤:
步骤一、对目标检测训练数据集进行预处理,使得训练集正负比例达到均衡,输出区域提取训练数据集和目标分类训练数据集;
步骤二、使用遥感图像公共数据集AID(Aerial Image Dataset)对初始网络进行预训练,获得稠密网络DN(Dense Network);
步骤三、对步骤二得到的DN,使用目标分类训练数据集,采用基于网络剪枝技术的稠密-稀疏训练方式进行训练,获得训练后稀疏网络SN(Sparse Network);恢复训练后SN剪掉的枝,对训练后SN采用稠密训练,使用目标分类训练数据集,获得精确目标分类网络AOCN(Accurate Region Classification Network);
步骤四、提取步骤三中间得到的训练后SN第一到第五卷积层,为五层卷积层添加区域分类层和包围盒回归层,获得原始区域提取网络ORPN(Original Region ProposalNetwork);对ORPN,使用区域提取训练数据集,采用基于网络剪枝技术的稀疏-稀疏的训练方式,获得快速区域提取网络FRPN(Fast Region Proposal Network);
步骤五、从目标检测测试数据集,使用高斯金字塔方法,得到多尺度图像金字塔,再由FRPN生成多尺度热度图金字塔,结合形成一张得分热度图,通过统一调节大小,生成四张位置热度图,根据峰值热度点,粗略预测候选区域宽高,最后输入AOCN获得目标位置和类别标签。
2.根据权利要求1所述的一种基于剪枝策略构建卷积神经网络的遥感图像目标检测方法,特征在于:步骤一中采用如下方法对目标检测训练数据集进行预处理:利用目标检测训练数据集的位置标签,从目标检测训练数据集中位置标签标注的区域,在正负比例均衡及交并比IoU(Intersection over Union)的指导下,生成区域提取训练数据集正样例及负样例和目标分类训练数据集正样例和负样例;上述操作能有效避免网络学到更多背景信息、较少目标特征信息,并为训练两个任务不同的网络提供合适训练集。
3.根据权利要求1所述的一种基于剪枝策略构建卷积神经网络的遥感图像目标检测方法,其特征在于:所述步骤三中采用如下方法训练以得到AOCN:对步骤二得到的DN采用稠密训练,获得训练后DN;利用网络剪枝技术,对训练后DN进行剪枝,得到SN;对SN采用稀疏训练,得到训练后SN;恢复训练后SN剪掉的连接,得到DN;对DN采用稠密训练,得到AOCN;以上训练均采用目标分类训练,数据集为训练集;使用稠密-稀疏-稠密训练方式,可让目标分类网络在学习出网络中重要连接的基础上,增加网络的容量,从而使网络达到一个更好的局部最小值,比现有分类网络精确度更好。
4. 根据权利要求1所述的一种基于剪枝策略构建卷积神经网络的遥感图像目标检测方法,其特征在于:步骤四中对步骤三训练后SN的前5层卷积层,添加区域分类层和包围盒回归层组成新的网络ORPN;对ORPN采用稀疏训练,得到训练后ORPN;利用网络剪枝技术,对训练后ORPN进行剪枝,得到稀疏区域提取网络SRPN(Sparse Region Proposla Network);对SRPN采用稀疏训练,得到训练后FRPN;以上训练使用区域提取训练数据集为训练集;使用基于网络剪枝技术的稠密-稀疏-稀疏训练方式训练出的深度神经网络稀疏性强、冗余参数少,可比现有区域提取方法更精确、更快速地提取出区域块。
5.根据权利要求1所述的一种基于剪枝策略构建卷积神经网络的遥感图像目标检测方法,其特征在于:所述步骤五中从目标检测测试数据集生成多尺度图像金字塔,将图像金字塔输入步骤四得到的FRPN,获得多尺度热度图金字塔;将热度图金字塔中的热度图统一尺寸、保留峰值、合并,获得得分热度图和四张位置热度图;利用阈值过滤掉得分热度图的低热点,采用圆扫描器对得分热度图进行扫描,获得峰值位置;利用聚集在峰值周围的热度点,获得粗糙宽度与粗糙高度;从四张位置热度图对应峰值位置,获得偏移值;利用偏移值对候选区域块中心位置、粗糙宽度、粗糙高度进行微调,获得候选区域块位置;利用候选区域块位置和原图,获得候选区域块;将候选区域块输入AOCN,获得候选区域块的类别标签;用多尺度图像金字塔,将大尺度图像处理成热度图,从热度图中预测候选区域块,比现有技术直接将图像输入网络或者直接切分图像的方式提取速度快、漏检率低、准确率高。
CN201710852216.4A 2017-09-19 2017-09-19 基于剪枝策略构建卷积神经网络的遥感图像目标检测方法 Expired - Fee Related CN107609525B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710852216.4A CN107609525B (zh) 2017-09-19 2017-09-19 基于剪枝策略构建卷积神经网络的遥感图像目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710852216.4A CN107609525B (zh) 2017-09-19 2017-09-19 基于剪枝策略构建卷积神经网络的遥感图像目标检测方法

Publications (2)

Publication Number Publication Date
CN107609525A CN107609525A (zh) 2018-01-19
CN107609525B true CN107609525B (zh) 2020-05-22

Family

ID=61061518

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710852216.4A Expired - Fee Related CN107609525B (zh) 2017-09-19 2017-09-19 基于剪枝策略构建卷积神经网络的遥感图像目标检测方法

Country Status (1)

Country Link
CN (1) CN107609525B (zh)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108038519B (zh) * 2018-01-30 2020-11-24 浙江大学 一种基于稠密的特征金字塔网络的宫颈图像处理方法及装置
CN108830277B (zh) * 2018-04-20 2020-04-21 平安科技(深圳)有限公司 语义分割模型的训练方法、装置、计算机设备和存储介质
CN108764471B (zh) * 2018-05-17 2020-04-14 西安电子科技大学 基于特征冗余分析的神经网络跨层剪枝方法
CN108804616B (zh) * 2018-05-30 2020-12-08 中国科学院空间应用工程与技术中心 一种空间有效载荷在轨图像数据挖掘的装置和方法
CN108846445B (zh) * 2018-06-26 2021-11-26 清华大学 一种图像处理方法
CN109146845A (zh) * 2018-07-16 2019-01-04 中南大学 基于卷积神经网络的头颅影像标志点检测方法
CN109325491B (zh) * 2018-08-16 2023-01-03 腾讯科技(深圳)有限公司 识别码识别方法、装置、计算机设备和存储介质
CN109583456B (zh) * 2018-11-20 2023-04-28 西安电子科技大学 基于特征融合和稠密连接的红外面目标检测方法
CN109829501B (zh) * 2019-02-01 2021-02-19 北京市商汤科技开发有限公司 图像处理方法及装置、电子设备和存储介质
CN111860073A (zh) * 2019-04-30 2020-10-30 青岛海尔智能技术研发有限公司 一种食材图像识别的方法及装置、家电设备
CN110348435B (zh) * 2019-06-17 2022-06-07 武汉大学 一种基于区域候选网络的目标检测方法及系统
CN110532859B (zh) * 2019-07-18 2021-01-22 西安电子科技大学 基于深度进化剪枝卷积网的遥感图像目标检测方法
CN110674878A (zh) * 2019-09-26 2020-01-10 苏州航韧光电技术有限公司 一种双模决策级图像融合的目标检测方法及设备
CN110929798A (zh) * 2019-11-29 2020-03-27 重庆邮电大学 基于结构优化稀疏卷积神经网络的图像分类方法及介质
CN111260662B (zh) * 2020-01-16 2023-05-26 南开大学 超小参数量的分割模型的实现方法
CN111382839A (zh) * 2020-02-23 2020-07-07 华为技术有限公司 剪枝神经网络的方法和装置
CN111341438B (zh) * 2020-02-25 2023-04-28 中国科学技术大学 图像处理方法、装置、电子设备及介质
CN111832577A (zh) * 2020-07-19 2020-10-27 武汉悟空游人工智能应用软件有限公司 一种基于稠密连接的感数预测方法
CN112084950A (zh) * 2020-09-10 2020-12-15 上海庞勃特科技有限公司 基于稀疏卷积神经网络的目标检测方法及检测装置
CN113065640B (zh) * 2021-03-17 2024-01-09 西北工业大学 一种基于卷积核形状自动学习的图像分类网络压缩方法
CN113327253A (zh) * 2021-05-24 2021-08-31 北京市遥感信息研究所 一种基于星载红外遥感影像的弱小目标检测方法
CN113326924B (zh) * 2021-06-07 2022-06-14 太原理工大学 基于深度神经网络的稀疏图像内关键目标测光定位方法
CN113409351B (zh) * 2021-06-30 2022-06-24 吉林大学 基于最优传输的无监督领域自适应遥感图像分割方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106778835A (zh) * 2016-11-29 2017-05-31 武汉大学 融合场景信息和深度特征的遥感图像机场目标识别方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106778835A (zh) * 2016-11-29 2017-05-31 武汉大学 融合场景信息和深度特征的遥感图像机场目标识别方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Accurate Object Localization in Remote Sensing Images Based on Convolutional Neural Networks;Yang Long等;《IEEE TRANSACTIONS ON GEOSCIENCE AND REMOTE SENSING》;20170531;第55卷(第5期);全文 *
DSD: Regularizing Deep Neural Networks with Dense-Sparse-Dense Training Flow;Song Han等;《arXiv:1607.04381》;20170221;全文 *
Learning both Weights and Connections for Efficient Neural Networks;Song Han等;《arXiv:1506.02626》;20151030;全文 *

Also Published As

Publication number Publication date
CN107609525A (zh) 2018-01-19

Similar Documents

Publication Publication Date Title
CN107609525B (zh) 基于剪枝策略构建卷积神经网络的遥感图像目标检测方法
WO2020221298A1 (zh) 文本检测模型训练方法、文本区域、内容确定方法和装置
US20200285896A1 (en) Method for person re-identification based on deep model with multi-loss fusion training strategy
CN111259930B (zh) 自适应注意力指导机制的一般性目标检测方法
CN106960195B (zh) 一种基于深度学习的人群计数方法及装置
CN109614985B (zh) 一种基于密集连接特征金字塔网络的目标检测方法
CN108304873B (zh) 基于高分辨率光学卫星遥感影像的目标检测方法及其系统
CN108830188B (zh) 基于深度学习的车辆检测方法
CN106778835B (zh) 融合场景信息和深度特征的遥感图像机场目标识别方法
CN107563372B (zh) 一种基于深度学习ssd框架的车牌定位方法
CN112734775B (zh) 图像标注、图像语义分割、模型训练方法及装置
CN109325960B (zh) 一种红外云图气旋分析方法及分析系统
CN110807422A (zh) 一种基于深度学习的自然场景文本检测方法
CN111476817A (zh) 一种基于yolov3的多目标行人检测跟踪方法
CN111553200A (zh) 一种图像检测识别方法及装置
CN113160062B (zh) 一种红外图像目标检测方法、装置、设备及存储介质
CN112232371B (zh) 一种基于YOLOv3与文本识别的美式车牌识别方法
CN111160407A (zh) 一种深度学习目标检测方法及系统
CN111753787A (zh) 一种分离式的交通标志检测与识别方法
CN110008899B (zh) 一种可见光遥感图像候选目标提取与分类方法
CN112950780B (zh) 一种基于遥感影像的网络地图智能生成方法及系统
CN113591617B (zh) 基于深度学习的水面小目标检测与分类方法
CN113221956B (zh) 基于改进的多尺度深度模型的目标识别方法及装置
CN116030396B (zh) 一种用于视频结构化提取的精确分割方法
CN111723660A (zh) 一种用于长形地面目标检测网络的检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20200522

Termination date: 20210919