CN108288270A - 一种基于通道修剪与全卷积深度学习的目标检测方法 - Google Patents
一种基于通道修剪与全卷积深度学习的目标检测方法 Download PDFInfo
- Publication number
- CN108288270A CN108288270A CN201810113321.0A CN201810113321A CN108288270A CN 108288270 A CN108288270 A CN 108288270A CN 201810113321 A CN201810113321 A CN 201810113321A CN 108288270 A CN108288270 A CN 108288270A
- Authority
- CN
- China
- Prior art keywords
- channel
- trimming
- deep learning
- object detection
- detection method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于通道修剪与全卷积深度学习的目标检测方法,首先,使用套索回归方法在卷积神经网络的每层通道上实现冗余通道的修剪;然后,使用线性最小二乘法重构最小化误差;最后,利用全卷积神经网络获取感兴趣区域,加速目标检测。通过在通用Caltech行人检测数据集的实验表明,本发明提出的方案可有效提高行人检测的准确性与快速性。
Description
技术领域
本发明涉及一种目标检测方法,尤其涉及一种基于通道修剪与全卷积深度学习的目标检测方法,属于计算机视觉领域。
背景技术
目标检测是计算机视觉领域最流行的研究方向之一,在社会、生活、法治、军事等领域有着广泛的应用。目前,目标检测已广泛引用于视频监控系统、GPS无人驾驶导航、车牌检测系统、智能报警系统、机器人控制系统等应用方向,在我们日常生活中随处可见到目标检测原理。
现有的目标检测方法归类为传统的目标检测方法和基于深度学习方法的目标检测。传统的目标检测方法大致分成两种,基于背景建模的方法和基于统计学习的方法。然而,目前大多数传统的目标检测方法存在时间复杂度高,窗口冗余,鲁棒性不强等缺点。
为了解决传统目标检测方法的缺点,于是提出了基于深度学习的目标检测方法。深度学习相关的目标检测也大致分为两类,一种是基于区域提名的,包括区域卷积神经网络、基于快速区域卷积神经网络、更快速区域卷积神经网络以及掩码区域卷积神经网络等;另一种是端到端,无需区域提名的方法,包括你只要看一次方法和单炮多盒探测器方法等。总的来说,基于区域提名的方法近年来发展迅速,在现今目标检测领域占据领先地位。但是,端到端的方法速度上优势明显,后续发展可期。
随着近年深度学习的火热研究、硬件系统的稳步提高、大数据和云计算等方面的研究,目标检测的识别率和计算速度也进一步提高。目前,提高目标检测速率仍是世界研究的热门方向之一,如何在更快速区域卷积网络框架下保证在不影响深度学习的大量数据样本训练特征优势的前提下,精简框架,提高推理速率成为当今深度学习研究的热点问题。
由于目标分类要求提取的特征具有平移不变性,而目标检测需要对目标的位置平移进行准确的响应,所以目前大多数卷积神经网络在目标检测中效果不佳。而插入感兴趣区域池化层之后,后面的网络结构就不再具备平移不变性,且因为各个感兴趣区域的计算不共享所以造成计算速度变慢。
目前提出许多加速模型方法,包括参数修剪、低秩分解、压缩卷积滤波器、知识精炼等。参数修剪是指探索模型参数中冗余的部分,并尝试去除这些参数;低秩分解是使用张量分解来估计深度卷积神经网络中最具信息量的参数。压缩卷积滤波器是指设计特殊结构的卷积滤波器来降低存储和计算的复杂度;知识精炼指的是学习一个精炼模型。其中,参数修剪适用于更快的区域卷积网络中,因为全连接层包含90%的权重参数,而性能仅提高1%。
根据减少冗余参数的方式,参数修剪可以进一步分为模型量化、结构化矩阵以及通道修剪。模型量化难以分解现代网络(比如GoogleNet、ResNet),并且对识别率有很大影响。通道修剪可以缩小网络体积,加速推理时间,但通道修剪也存在一些需要解决的问题,例如,通道修剪需要更多的迭代次数才能收敛,并且需要手动精调参数非常复杂。
发明内容
发明目的:本发明的目的在于解决现有的深度学习目标检测方法共享计算间的不足,以及提高目标检测的推理速度问题,提出一种基于通道修剪与全卷积深度学习的目标检测方法。
技术方案:本发明采用以下技术方案:一种基于通道修剪与全卷积深度学习的目标检测方法,包括以下步骤:
A)利用套索回归方法对卷积神经网络的每层通道实现冗余通道的修剪;
B)利用线性最小二乘法来最小化重构误差;
C)全卷积化基础卷积神经网络来共享感兴趣区域的计算。
进一步地,通过减少特征图通道和相应的滤波器来减小网络体积并保持最小重构误差,优化公式描述如下:
其中,x是从特征图采样的大小为N*c的输入量,xi(i=1,2,……,c)是x的第i个通道的输入矩阵,w是大小为n*c的滤波器权重,wi是w的第i个通道权重;y是大小为N*n的输出矩阵,其中N是采样数,n是输出通道数;c是原通道数,c’(0≤c’≤c)是保留通道的数量,β是标量掩码用来进行通道选择,βi是标量掩码的第i个通道,如果βi=0,则表示xi被切断,wi也被删除,α是一个惩罚系数,通过增加α,在β中将会有更多的零项,并且可以获得更高的加速比,||β1||为β的正则化,等式i||wi||F=1用于防止明显解的出现。
进一步地,固定w,并优化β来选择高贡献的通道,通过套索回归方法对卷积神经网络的每层通道进行冗余通道的修剪,套索回归可以得到较小的系数α,甚至一些绝对值较小的系数可以直接变成零,适用于修剪的参数缩减和参数选择,回归通道选择公式为:
s.t.||β||0≤c′
进一步地,固定β,并优化w以利用选择的通道来减少重构误差,我们采用最小二乘法得到最优解,其优化公式如下:
其中,
其中,w’是基于以下形式重建的:
βi||wi||F→βi,wi/||wi||F→wi。
进一步地,当α为0时,||β||0为c,然后使用套索回归方法,通过逐渐增加系数α来继续运行,直到||β||0≤c’稳定时,使用线性最小二乘法来最小化重构误差,直到获得最小重构误差。
进一步地,在VGG-16网络结构和累积误差的条件下,从当前输入特征图中获得输入量,并从未修剪模型输出特征图中获得输出量,此时,未修剪通道公式被描述为:
(||β||0≤c′)
其中,y’是在未修剪模型中得到的输出量。
进一步地,使VGG-16网络框架全卷积化,首先,使用卷积层替代后三段全连接层,其中第六和第七段卷积层使用大小为4096×1×1的卷积核,第八段卷积层使用大小为1000×1×1的卷积核,使用上采样方法对第五段输出进行反卷积,然后依次对第三段和第四段输出反卷积,得到和原始图像大小相同并且清晰的特征图。
进一步地,在卷积网络后面连接一个大小为k2×(c+1)的全卷积层,通过这种方式,在整个特征图上为每类生成k2个位置敏感分数图;
假设k=3,即输出特征图矩形分成9个部分,9个分数图分别编码为上左、上中、上右、……、下右;
假设一共有c类目标和一个背景,则有32×(c+1)个通道输出层;
与更快速区域卷积神经网络方法类似,从区域提议网络层中生成感兴趣区域,感兴趣区域由最后一个新连接的卷积层进行分类,也就是将其输出从整个图像的卷积相应图像中分解为感兴趣区域的卷积响应图像,所有类别目标和背景都共享位置敏感分数图。
进一步地,整个网络后添加一个位置敏感的感兴趣区域池化层,它聚合了最后卷积层和感兴趣区域的输出,并给每一个感兴趣区域一个分数,池化公式如下:
其中,rc(i,j|Θ)是c类中(i,j)箱子的池化响应,Zi,j,c是32×(c+1)分数图的输出,(x0,y0)是感兴趣区域的左上角分数图,n为桶里像素总数,Θ是网络参数;
然后,给感兴趣区域每个类别的所有相对空间位置分数进行投票,并通过使用多项逻辑回归分类如下:
该全卷积网络使用类似于更快速的区域卷积神经网络的多任务损失函数,分为分类回归损失函数Lcls和Lbox;分类通过使用交叉熵损失函数得到,而回归使用L1-smooth损失函数得到。
有益效果:本发明与现有技术相比:本发明利用套索回归在卷积神经网络的每个通道上对贡献不大的通道进行修剪,达到加速特征提取的目的;然后利用线性最小二乘法来最小化重构误差以减小修剪通道对网络的影响;最后对VGG-16全卷积网络进行建模,并共享区域提议网络的感兴趣区域的计算,达到加速推理时间的目的。通过在通用Caltech数据集的实验表明,本发明提出的方案可有效提高目标检测的准确性与快速性。
附图说明
图1为基于通道修剪与全卷积深度学习的目标检测方法流程图;
图2为生活中情景示例;
图3为采用Caltech数据集下对生活中情景示例检测结果示意图。
具体实施方式
下面结合附图对本发明的技术方案进行详细说明:
本发明的目的是提供一种基于通道修剪与全卷积深度学习的目标检测方法,其实现思路为:首先,利用套索回归在卷积神经网络的每个通道上对贡献不大的通道进行修剪,达到加速特征提取的目的;然后,利用线性最小二乘法来最小化重构误差,减小修剪通道对网络的影响;最后,对VGG-16全卷积网络进行建模,并共享区域提议网络的感兴趣区域的计算,达到加速推理时间的目的。
本发明的基于通道修剪与全卷积深度学习的目标检测方法的一个优选实施方式,具体包括以下步骤:
步骤A、利用套索回归方法对卷积神经网络的每层通道实现冗余通道的修剪。
通道修剪的目的是通过减少特征图通道和相应的滤波器来减小网络体积并保持最小重构误差。优化公式描述如下:
其中,x是从特征图采样的大小为N*c的输入量,并且xi(i=1,2,……,c)是x的第i个通道的输入矩阵。w是大小为n*c的滤波器权重,并且wi是w的第i个通道权重。y是大小为N*n的输出矩阵,其中N是采样数,n是输出通道数。c是原通道数,c’(0≤c’≤c)是保留通道的数量。β是标量掩码用来进行通道选择,βi是标量掩码的第i个通道。如果βi=0,则表示xi被切断,wi也被删除。α是一个惩罚系数,通过增加α,在β中将会有更多的零项,并且可以获得更高的加速比。||β1||为β的正则化,用以增加β的稀疏性。等式i||wi||F=1用于防止明显解的出现。
固定w,并优化β来选择高贡献的通道,通过套索回归方法对卷积神经网络的每层通道进行冗余通道的修剪。套索回归可以得到较小的系数α,甚至一些绝对值较小的系数可以直接变成零,适用于修剪的参数缩减和参数选择。回归通道选择公式为:
步骤B、利用线性最小二乘法来最小化重构误差。
固定β,并优化w以利用选择的通道来减少重构误差。我们采用最小二乘法得到最优解,其优化公式如下:
其中,
其中,w’是基于以下形式重建的:
βi||wi||F→βi,wi/||wi||F→wi (5)
该最小化重构误差问题是一个非确定性多项式问题,可以分两步进行优化。首先,当α为0时,||β||0为c。然后公式(2)使用套索回归方法,通过逐渐增加系数α来继续运行,直到||β||0≤c’稳定时,再使用公式(3),使用线性最小二乘法来最小化重构误差,直到获得最小重建误差。
本发明在VGG-16网络结构和累积误差的条件下,从当前输入特征图中获得输入量,并从未修剪模型输出特征图中获得输出量。此时,未修剪通道公式被描述为:
其中,y’是在未修剪模型中得到的输出量。
步骤C、全卷积化基础卷积神经网络来共享感兴趣区域的计算。
本发明使VGG-16网络框架全卷积化。首先,本发明使用卷积层替代后三层全连接层,其中第六和第七段卷积层使用大小为4096×1×1的卷积核,第八段卷积层使用大小为1000×1×1的卷积核。这样,VGG-16网络成为一个全卷积神经网络。由于增加了三段卷积层,所以特征图会缩小到32倍,所以通过反卷积方法把第五段的输出还原到原图大小。
本发明使用上采样方法对第五层输出进行反卷积,然后依次对第三层和第四层输出反卷积,这样可以得到和原始图像大小相同并且清晰的特征图。此外,本发明在卷积网络后面连接一个大小为k2×(c+1)的全卷积层。
通过这种方式,本发明可以在整个图片上为每类生成k2个位置敏感分数图。通常情况下,假设k=3,即输出特征图矩形分成9个部分,9个分数图分别编码为上左、上中、上右、……、下右。假设一共有c类目标和一个背景,则有32×(c+1)个通道输出层。
与更快速区域卷积神经网络方法类似,从区域提议网络层中生成感兴趣区域。候选提议网络层实际分成2条线路,一条线路通过多项逻辑回归分类锚点来获得前景和背景;另一条线路计算锚点的边框回归偏移量,以获取更准确的感兴趣区域,同时删除太小和超出边界的感兴趣区域。感兴趣区域池化层就是把感兴趣区域中的坐标映射到特征图上,得到特征图上的框坐标后,通过使用最大池化来得到相同的尺寸输出。感兴趣区域由最后一个新连接的卷积层进行分类,也就是将其输出从整个图像的卷积相应图像中分解为感兴趣区域的卷积响应图像,所有类别目标和背景都共享位置敏感分数图。
最后,整个网络后添加一个位置敏感的感兴趣区域池化层,它聚合了最后卷积层和感兴趣区域的输出,并给每一个感兴趣区域一个分数。池化公式如下:
其中,rc(i,j|Θ)是c类中(i,j)箱子的池化响应,Zi,j,c是32×(c+1)分数图的输出,(x0,y0)是感兴趣区域的左上角分数图,n为桶里像素总数,Θ是网络参数。
然后,给感兴趣区域每个类别的所有相对空间位置分数进行投票,并通过使用多项逻辑回归分类如下:
该全卷积网络使用类似于更快速的区域卷积神经网络的多任务损失函数,分为分类回归损失函数Lcls和Lbox。分类通过使用交叉熵损失函数得到,而回归使用L1-smooth损失函数得到。
Caltech数据集下的目标检测示例结果如图2和图3所示。图2和图3中的行人、车辆、树木可以被正确地检测到,并且全卷积化VGG-16网络在不影响准确率的情况下2倍4倍加速基础学习率,从而加速推理速度。Caltech数据集下不同加速学习率的精度比较如下表所示。
Caltech数据集下不同加速学习率的精度比较
学习率加速 | 平均精度均值 | 平均精度均值变化 |
基础速率 | 0.687 | - |
2倍 | 0.681 | 0.006 |
4倍 | 0.665 | 0.022 |
Claims (9)
1.一种基于通道修剪与全卷积深度学习的目标检测方法,其特征在于,包括以下步骤:
A)利用套索回归方法对卷积神经网络的每层通道实现冗余通道的修剪;
B)利用线性最小二乘法来最小化重构误差;
C)全卷积化基础卷积神经网络来共享感兴趣区域的计算。
2.根据权利要求1所述基于通道修剪与全卷积深度学习的目标检测方法,其特征在于,通过减少特征图通道和相应的滤波器来减小网络体积并保持最小重构误差,优化公式描述如下:
其中,x是从特征图采样的大小为N*c的输入量,xi(i=1,2,……,c)是x的第i个通道的输入矩阵,w是大小为n*c的滤波器权重,wi是w的第i个通道权重;y是大小为N*n的输出矩阵,其中N是采样数,n是输出通道数;c是原通道数,c’(0≤c’≤c)是保留通道的数量,β是标量掩码用来进行通道选择,βi是标量掩码的第i个通道,如果βi=0,则表示xi被切断,wi也被删除,α是一个惩罚系数,通过增加α,在β中将会有更多的零项,并且可以获得更高的加速比,||β1||为β的正则化,等式i||wi||F=1用于防止明显解的出现。
3.根据权利要求2所述基于通道修剪与全卷积深度学习的目标检测方法,其特征在于,固定w,并优化β来选择高贡献的通道,通过套索回归方法对卷积神经网络的每层通道进行冗余通道的修剪,套索回归可以得到较小的系数α,甚至一些绝对值较小的系数可以直接变成零,适用于修剪的参数缩减和参数选择,回归通道选择公式为:
4.根据权利要求3所述基于通道修剪与全卷积深度学习的目标检测方法,其特征在于,固定β,并优化w以利用选择的通道来减少重构误差,我们采用最小二乘法得到最优解,其优化公式如下:
其中,
其中,w’是基于以下形式重建的:
βi||wi||F→βi,wi/||wi||F→wi。
5.根据权利要求1至4任意一项所述基于通道修剪与全卷积深度学习的目标检测方法,其特征在于,当α为0时,||β||0为c,然后使用套索回归方法,通过逐渐增加系数α来继续运行,直到||β||0≤c’稳定时,使用线性最小二乘法来最小化重构误差,直到获得最小重构误差。
6.根据权利要求5所述基于通道修剪与全卷积深度学习的目标检测方法,其特征在于,在VGG-16网络结构和累积误差的条件下,从当前输入特征图中获得输入量,并从未修剪模型输出特征图中获得输出量,此时,未修剪通道公式被描述为:
(||β||0≤c′)
其中,y’是在未修剪模型中得到的输出量。
7.根据权利要求6所述基于通道修剪与全卷积深度学习的目标检测方法,其特征在于,使VGG-16网络框架全卷积化,首先,使用卷积层替代后三段全连接层,其中第六和第七段卷积层使用大小为4096×1×1的卷积核,第八段卷积层使用大小为1000×1×1的卷积核,使用上采样方法对第五段输出进行反卷积,然后依次对第三段和第四段输出反卷积,得到和原始图像大小相同并且清晰的特征图。
8.根据权利要求7所述基于通道修剪与全卷积深度学习的目标检测方法,其特征在于,在卷积网络后面连接一个大小为k2×(c+1)的全卷积层,通过这种方式,在整个特征图上为每类生成k2个位置敏感分数图;
假设k=3,即输出特征图矩形分成9个部分,9个分数图分别编码为上左、上中、上右、……、下右;
假设一共有c类目标和一个背景,则有32×(c+1)个通道输出层;
与更快速区域卷积神经网络方法类似,从区域提议网络层中生成感兴趣区域,感兴趣区域由最后一个新连接的卷积层进行分类,也就是将其输出从整个图像的卷积相应图像中分解为感兴趣区域的卷积响应图像,所有类别目标和背景都共享位置敏感分数图。
9.根据权利要求8所述基于通道修剪与全卷积深度学习的目标检测方法,其特征在于,整个网络后添加一个位置敏感的感兴趣区域池化层,它聚合了最后卷积层和感兴趣区域的输出,并给每一个感兴趣区域一个分数,池化公式如下:
其中,rc(i,j|Θ)是c类中(i,j)箱子的池化响应,Zi,j,c是32×(c+1)分数图的输出,(x0,y0)是感兴趣区域的左上角分数图,n为桶里像素总数,Θ是网络参数;
然后,给感兴趣区域每个类别的所有相对空间位置分数进行投票,并通过使用多项逻辑回归分类如下:
该全卷积网络使用类似于更快速的区域卷积神经网络的多任务损失函数,分为分类回归损失函数Lcls和Lbox;分类通过使用交叉熵损失函数得到,而回归使用L1-smooth损失函数得到。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810113321.0A CN108288270B (zh) | 2018-02-05 | 2018-02-05 | 一种基于通道修剪与全卷积深度学习的目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810113321.0A CN108288270B (zh) | 2018-02-05 | 2018-02-05 | 一种基于通道修剪与全卷积深度学习的目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108288270A true CN108288270A (zh) | 2018-07-17 |
CN108288270B CN108288270B (zh) | 2022-06-03 |
Family
ID=62836466
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810113321.0A Active CN108288270B (zh) | 2018-02-05 | 2018-02-05 | 一种基于通道修剪与全卷积深度学习的目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108288270B (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109344921A (zh) * | 2019-01-03 | 2019-02-15 | 湖南极点智能科技有限公司 | 一种基于深度神经网络模型的图像识别方法、装置及设备 |
CN110096982A (zh) * | 2019-04-22 | 2019-08-06 | 长沙千视通智能科技有限公司 | 一种基于深度学习的视频车辆大数据搜索方法 |
CN110211057A (zh) * | 2019-05-15 | 2019-09-06 | 武汉Tcl集团工业研究院有限公司 | 一种基于全卷积网络的图像处理方法、装置和计算机设备 |
CN110309841A (zh) * | 2018-09-28 | 2019-10-08 | 浙江农林大学 | 一种基于深度学习的山核桃常见害虫识别方法 |
CN110619391A (zh) * | 2019-09-19 | 2019-12-27 | 华南理工大学 | 一种检测模型压缩方法、装置和计算机可读存储介质 |
CN110659724A (zh) * | 2019-09-12 | 2020-01-07 | 复旦大学 | 一种基于目标尺度范围的目标检测卷积神经网络构建方法 |
CN110909861A (zh) * | 2018-09-17 | 2020-03-24 | 北京市商汤科技开发有限公司 | 神经网络优化方法及装置、电子设备和存储介质 |
CN111274981A (zh) * | 2020-02-03 | 2020-06-12 | 中国人民解放军国防科技大学 | 目标检测网络构建方法及装置、目标检测方法 |
CN112380923A (zh) * | 2020-10-26 | 2021-02-19 | 天津大学 | 基于多任务的智能自主视觉导航与目标检测方法 |
CN113221659A (zh) * | 2021-04-13 | 2021-08-06 | 天津大学 | 一种基于不确定感知网络的双光车辆检测方法及装置 |
CN114926396A (zh) * | 2022-04-13 | 2022-08-19 | 四川大学华西医院 | 一种精神障碍类磁共振图像初步筛查模型构建方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107169974A (zh) * | 2017-05-26 | 2017-09-15 | 中国科学技术大学 | 一种基于多监督全卷积神经网络的图像分割方法 |
CN107229904A (zh) * | 2017-04-24 | 2017-10-03 | 东北大学 | 一种基于深度学习的目标检测与识别方法 |
CN107423760A (zh) * | 2017-07-21 | 2017-12-01 | 西安电子科技大学 | 基于预分割和回归的深度学习目标检测方法 |
-
2018
- 2018-02-05 CN CN201810113321.0A patent/CN108288270B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107229904A (zh) * | 2017-04-24 | 2017-10-03 | 东北大学 | 一种基于深度学习的目标检测与识别方法 |
CN107169974A (zh) * | 2017-05-26 | 2017-09-15 | 中国科学技术大学 | 一种基于多监督全卷积神经网络的图像分割方法 |
CN107423760A (zh) * | 2017-07-21 | 2017-12-01 | 西安电子科技大学 | 基于预分割和回归的深度学习目标检测方法 |
Non-Patent Citations (1)
Title |
---|
YIHUI HE等: "Chanenl Pruning for Accelerating Very Deep Neural Networks", 《2017 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION》 * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110909861A (zh) * | 2018-09-17 | 2020-03-24 | 北京市商汤科技开发有限公司 | 神经网络优化方法及装置、电子设备和存储介质 |
CN110909861B (zh) * | 2018-09-17 | 2023-05-30 | 北京市商汤科技开发有限公司 | 神经网络优化方法及装置、电子设备和存储介质 |
CN110309841A (zh) * | 2018-09-28 | 2019-10-08 | 浙江农林大学 | 一种基于深度学习的山核桃常见害虫识别方法 |
CN109344921A (zh) * | 2019-01-03 | 2019-02-15 | 湖南极点智能科技有限公司 | 一种基于深度神经网络模型的图像识别方法、装置及设备 |
CN110096982A (zh) * | 2019-04-22 | 2019-08-06 | 长沙千视通智能科技有限公司 | 一种基于深度学习的视频车辆大数据搜索方法 |
CN110211057A (zh) * | 2019-05-15 | 2019-09-06 | 武汉Tcl集团工业研究院有限公司 | 一种基于全卷积网络的图像处理方法、装置和计算机设备 |
CN110211057B (zh) * | 2019-05-15 | 2023-08-29 | 武汉Tcl集团工业研究院有限公司 | 一种基于全卷积网络的图像处理方法、装置和计算机设备 |
CN110659724A (zh) * | 2019-09-12 | 2020-01-07 | 复旦大学 | 一种基于目标尺度范围的目标检测卷积神经网络构建方法 |
CN110659724B (zh) * | 2019-09-12 | 2023-04-28 | 复旦大学 | 基于目标尺度的目标检测深度卷积神经网络构建方法 |
CN110619391B (zh) * | 2019-09-19 | 2023-04-18 | 华南理工大学 | 一种检测模型压缩方法、装置和计算机可读存储介质 |
CN110619391A (zh) * | 2019-09-19 | 2019-12-27 | 华南理工大学 | 一种检测模型压缩方法、装置和计算机可读存储介质 |
CN111274981A (zh) * | 2020-02-03 | 2020-06-12 | 中国人民解放军国防科技大学 | 目标检测网络构建方法及装置、目标检测方法 |
CN111274981B (zh) * | 2020-02-03 | 2021-10-08 | 中国人民解放军国防科技大学 | 目标检测网络构建方法及装置、目标检测方法 |
CN112380923A (zh) * | 2020-10-26 | 2021-02-19 | 天津大学 | 基于多任务的智能自主视觉导航与目标检测方法 |
CN113221659B (zh) * | 2021-04-13 | 2022-12-23 | 天津大学 | 一种基于不确定感知网络的双光车辆检测方法及装置 |
CN113221659A (zh) * | 2021-04-13 | 2021-08-06 | 天津大学 | 一种基于不确定感知网络的双光车辆检测方法及装置 |
CN114926396A (zh) * | 2022-04-13 | 2022-08-19 | 四川大学华西医院 | 一种精神障碍类磁共振图像初步筛查模型构建方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108288270B (zh) | 2022-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108288270A (zh) | 一种基于通道修剪与全卷积深度学习的目标检测方法 | |
CN107563381B (zh) | 基于全卷积网络的多特征融合的目标检测方法 | |
CN105512289B (zh) | 基于深度学习和哈希的图像检索方法 | |
CN113065558A (zh) | 一种结合注意力机制的轻量级小目标检测方法 | |
CN111310773A (zh) | 一种高效的卷积神经网络的车牌定位方法 | |
CN106295613A (zh) | 一种无人机目标定位方法及系统 | |
CN109859209B (zh) | 遥感影像分割方法、装置及存储介质、服务器 | |
CN111582091B (zh) | 基于多分支卷积神经网络的行人识别方法 | |
CN102024262A (zh) | 利用流形谱聚类进行图像分割的方法 | |
CN113807188A (zh) | 基于锚框匹配和Siamese网络的无人机目标跟踪方法 | |
CN112489089B (zh) | 一种微型固定翼无人机机载地面运动目标识别与跟踪方法 | |
Wang et al. | Forest fire detection based on lightweight Yolo | |
CN107016359A (zh) | 一种复杂环境下基于t分布的人脸快速识别方法 | |
CN116071668A (zh) | 基于多尺度特征融合的无人机航拍图像目标检测方法 | |
CN111192240B (zh) | 一种基于随机接入记忆的遥感图像目标检测方法 | |
CN113887704A (zh) | 交通信息预测方法、装置、设备及存储介质 | |
Wu et al. | M-FasterSeg: An efficient semantic segmentation network based on neural architecture search | |
Yang et al. | VAMYOLOX: An accurate and efficient object detection algorithm based on visual attention mechanism for UAV optical sensors | |
Ouyang et al. | Aerial target detection based on the improved YOLOv3 algorithm | |
Wang et al. | Efficient object detection method based on improved YOLOv3 network for remote sensing images | |
CN117576149A (zh) | 一种基于注意力机制的单目标跟踪方法 | |
CN108846845A (zh) | 基于缩略图与分层模糊聚类的sar图像分割方法 | |
Xie et al. | A research of object detection on UAVs aerial images | |
CN111899278A (zh) | 基于移动端的无人机图像快速目标跟踪方法 | |
CN116051961A (zh) | 一种目标检测模型训练方法、目标检测方法、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |