CN108647742B - 基于轻量级神经网络的快速目标检测方法 - Google Patents

基于轻量级神经网络的快速目标检测方法 Download PDF

Info

Publication number
CN108647742B
CN108647742B CN201810483769.1A CN201810483769A CN108647742B CN 108647742 B CN108647742 B CN 108647742B CN 201810483769 A CN201810483769 A CN 201810483769A CN 108647742 B CN108647742 B CN 108647742B
Authority
CN
China
Prior art keywords
neural network
layer
training
convolutional
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810483769.1A
Other languages
English (en)
Other versions
CN108647742A (zh
Inventor
刘亚洲
曹森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Science and Technology
Original Assignee
Nanjing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology filed Critical Nanjing University of Science and Technology
Priority to CN201810483769.1A priority Critical patent/CN108647742B/zh
Publication of CN108647742A publication Critical patent/CN108647742A/zh
Application granted granted Critical
Publication of CN108647742B publication Critical patent/CN108647742B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Abstract

本发明公开了基于轻量级神经网络的快速目标检测方法。包括构建卷积神经网络、训练卷积神经网络和目标检测:定义卷积神经网络的主要模块Front module和Tinier module;定义卷积神经网络的层数和池化层位置;对数据集预处理,将其转换成目标检测框架Darknet输入的标准格式;初始化卷积神经网络的参数;通过不断迭代前向传播、反向传播训练神经网络模型;输入测试图像,利用由训练过程得到的神经网络模型计算得到检测数值结果;根据检测结果在图像上作出标注,用矩形框标出每个物体的位置和类别。使用本发明方法的检测速度更快,准确率也更高。

Description

基于轻量级神经网络的快速目标检测方法
技术领域
本发明涉及模式识别和视频分析领域,更具体地说,是一种基于轻量级神经网络的快速目标检测方法。
背景技术
目标检测是计算机视觉领域中的一个重要的研究课题。已经被广泛的使用在多个真实场景的应用中,如人脸识别,交通安全,人群监控和图像检索。基于深度学习的实时目标检测是指在一副自然场景图片或者视频中标记出目标物体的位置以及类别。面对海量的图像视频数据,人工标记费时、低效,自动化和快速的目标检测方法是迫切需要的。
基于深度学习的目标检测方法包含两个关键的步骤:特征提取和分类器(回归器)训练。不同于传统方法中人工提取目标物体的特征,深度学习使用多层的卷积神经网络来自动的提取特征。用来提取特征神经网络需要带有标签的数据集进行训练以便其能提取有价值的特征。在训练的过程中使用反向传播算法进行网络参数的更新。回归器的训练是指在已经提取的特征的基础上,寻找一系列的规则,用来判断当前图像中物体的类别和位置。目前主流的基于深度学习的目标检测方法包括RCNN,Fast RCNN,Faster RCNN等。RCNN目标检测包括三个步骤:提取候选区域;卷积神经网络提取特征;分类和边界回归。但是这些目标检测方法普遍存在了两个问题:(1)卷积神经网络太深,导致网络的模型的体积很大,非常占用存储空间;(2)网络模型复杂,检测流程需要多个步骤完成,使得检测过程速度缓慢、耗费时间。以上两个不足使得目前的基于深度学习的目标检测方法很难在一些计算能力差,功率小的设备上运行。
发明内容
本发明针对上述目标检测方法中,人工提取图像特征费时低效,深度学习方法中神经网络体积大耗费存储空间,网络模型复杂,检测速度缓慢的问题,提出了一种基于轻量级神经网络的快速目标检测方法。
实现本发明目的的技术解决方案为:一种基于轻量级神经网络的快速目标检测方法,包括构建神经网络、训练神经网络和检测三个过程:
神经网络构建过程包括以下步骤:
1)定义神经网络的主要模块Front module和Tinier module;
2)定义神经网络的层数和池化层位置。
训练神经网络过程包括以下步骤:
3)对数据集预处理,将其转换成目标检测框架Darknet输入的标准格式;
4)初始化神经网络的参数;
5)通过不断迭代前向传播过程、反向传播过程训练神经网络模型;
目标检测过程包括以下步骤:
6)输入测试图像,利用由训练过程得到的神经网络模型计算得到检测数值结果;
7)根据检测结果在图像做出标注,用矩形框标出每个物体的位置和类别。
上述方法中,所述步骤1)包括以下具体步骤:
8)设计3层卷积核大小为3×3的卷积层和1层2×2大小的池化层组成Frontmodule,3层卷积层中卷积核的个数分别用32,64,64;
9)设计2层卷积核大小为1×1的卷积层和2层卷积核大小为3×3的卷积层组成Tinier module,每个1×1的卷积层在3×3的卷积层前面;
上述方法中,所述步骤2)包括以下具体步骤:
21)神经网络模型使用1个Front module作为前置网络,4个Tinier module作为主体网络,最后一部分为Detector Layer层,由1×1的卷积层组成;
22)在前三个Tinier module之后使用池化层,池化层大小为2×2,步长为2;
上述方法中,所述步骤3)包括以下具体步骤:
31)预处理数据集的标签信息,将每张图像的标签信息格式化为(object,x1,y1,x2,y2)写入一个txt文件中。其中object表示物体的类别,(x1,y1,x2,y2)表示物体在图像中的位置信息;
32)预处理输入图像,重新调整数据集中的输入图像,统一大小为416×416作为目标检测框架Darknet的输入;
上述方法中,所述步骤4)包括以下具体步骤:
33)初始化学习率,迭代次数,batch,误差阈值;
34)采用标准初始化方法初始化权重参数;
上述方法中,所述步骤5)包括以下具体步骤:
51)根据输入的图像和标签信息进行网络的前向传播,计算损失函数大小。
52)如果迭代次次数大于最大迭代次数或者损失函数小于误差阈值,结束训练;
53)由计算得到的损失函数值,进行神经网络反向传播计算,更新神经网络各层的权重参数。
54)迭代次数加1,调到步骤51);
上述方法中,所述步骤6)包括以下具体步骤:
61)输入待检测图片,将图像重新调到416×416的大小。
62)根据训练好的神经网网络模型和输入的图像计算得到检测结果。
上述方法中,所述步骤7)包括以下具体步骤:
71)根据阈值筛选出符合条件的检测结果,在原图上标记出物体的位置和类别;
72)将检测结果(object,x1,y1,x2,y2,score)写入txt文件,以文本的方式保存;
本发明与现有技术相比,其显著优点在于:其一,使用定义的Front module和Tinier module提取图像的特征于目标检测,而非手工设计特征,不仅效率高,准确率也得到了提高;其二,设计的轻量级神经网络模型相比其他深度学习方法中复杂的网络模型,模型体积更小,计算速度更快。其三,检测的过程只要需要单个步骤,相比其他繁琐的检测方法,检测速度更快。
附图说明
图1是Front module的结构组成。
图2是Tinier module的结构组成。
图3是神经网络模型的组成。
图4是训练集图像重新调整大小。
图5是本发明的训练过程。
图6是本发明的检测过程。
图7是本发明的可视化检测结果图。
具体实施方式
下面结合附图对本发明作进一步说明。
本发明的目标检测方法包括神经网络构建、神经网络训练、目标检测三个主要过程。
神经网络构建过程是指设计合理神经网络层数,在神经网络的每一层使用最优的卷积核个数,并将重复使用的多层卷积层和池化层封装了模块。包括以下具体步骤:
首先,设计网络的前置部分,前置部分即卷积神经网络的前面几层,负责提取输入图像的基本特征,将其封装为Front module,如图1所示。Front module由三层卷积层和一层池化层组成。三层卷积层在前,一层池化层在后。前三层卷积层的卷积核大小都是3×3,卷积核个数分别是64,64,128。池化层大小为2×2。Front module的作用在于减少原始输入图像的信息损失,使得后面的卷积层可以提取出更有用的特征,提高检测的准确率。
设计并使用Tinier module作为神经网络的主体部分,神经网络的主体部分主要提取图像的抽象特征(高层特征),如图2所示。Tinier module由4层卷积层构成,第一层和第三层使用的卷积核大小为1×1,第二层和第四层使用的卷积核大小为3×3。每个3×3的卷积层使用的卷积核个数是1×1的卷积层的卷积核个数的4倍。这样设计的作用是减少神经网络的参数,并且减少了3×3的卷积层的计算量,使得我们的目标检测速度获得提升。
神经网络的完整的结构主要由Front module和Tinier module构成,如图3所示。在神经网络的开始部分使用一个Front module,紧接着使用四个Tinier module,在前三个Tinier module之后使用池化层,最后一个Tinier module使用一个Detector Layer.这里说明,Detector Layer使用的是一个1×1的卷积层,卷积核的个数由具体是数据集类别数决定,即:
Noutput=Nbox+(5+Nboxclasse)
其中Noutput是最后一层卷积核个数,Nbox是目标检测框架Darknet里面的anchorbox个数,默认值为5,Nboxclasses是类别数,即训练集中有多少种需要检测的物体。
深度神经网络的训练过程是通过梯度下降法训练模型中的参数,自动学习图像中具有的层次特征,如图4所示。包括以下具体步骤:
预处理训练集过程41。在这里说明,本发明使用的训练集是PASCAL VOC数据集,包含16000张图片,20类物体。将训练集中的图片重新调整为416×416的大小,并将标签文件转换为(x1,y1,x1,y2,object),其中(x1,y1,x2,y2)为图像中物体的位置信息,是一个矩形框。object表示这个物体的类别。将处理好的训练集作为神经网络的输入。
迭代次数iteration=52000,一次输入的图像数batch=64,阈值τ=0.06。初始化权重参数可以使神经网络在开始训练的时候不会出现发散和梯度消失的情况。初始化方法我们使用xavier。定义参数所在层的输入维度m,输出维度n,那么参数将以均匀分布的方式在
Figure BDA0001666291800000041
范围内进行初始化。
前向传播过程43。前向传播即计算输入图像在神经网络每一次的输出。深层神经网络包含一个输入层,多个中间层,一个输出层,每一层可以表示为非线性映射过程。样本x在第m层的输入计算公式如下:
Figure BDA0001666291800000051
其中,
Figure BDA0001666291800000052
表示网络的m层和m-1层之间的权重矩阵,
Figure BDA0001666291800000053
表示偏移参数,p(m)表示m层的节点数目,
Figure BDA0001666291800000054
表示非线性激励函数,通常使用tanh、sigmoid或者ReLU函数。
计算损失函数过程44。本发明使用的损失函数如下:
Figure BDA0001666291800000055
其中λcoord和λnoobj权重系数,表示位置预测误差和分类误差在损失函数中占有的重要程度,(xi,yi,wi,hi)代表矩形框参数,ci代表置信度,pi代表类别。整个损失函数由五个部分组成,前两项位置误差计算,第三项是含有物体的边框的置信度预测误差,第四项是不含有物体的边框的置信度预测误差,第五项是类别预测误差。
通过计算得到的损失函数和阈值比较,如果损失函数值小于阈值或者此时的迭代次数大于最大迭代次数,则结束训练过程45。否则执行反向传播过程46。反向传播过程通过计算损失函数关于某一节点的偏导数,使用梯度下降算法更新网络的权重参数。网络权重的更新参数如下:
Figure BDA0001666291800000056
Figure BDA0001666291800000057
其中m表示层数,i表示神经元在层中的序号,j表示一个神经元输入的序号,α表示学习率。
反向传播过程更新网络权重参数结束后,跳转前向传播过程43。
本发明的目标检测过程是指输入测试图像(待检测的图像),通过神经网络模型的计算,给出检测的结果。包含以下具体步骤:
初始化检测参数过程51。给定检测阈值thresh=025,即如果检测出的物体的可能性大于该阈值,则认为检测出的结果正确。
输入图像并调整大小过程52。因为训练过程使用的图像大小统一为416×416,所以检测过程中,所有输入的图像需要重新调整大小为416×416作为神经网络的输入,如图6所示。
使用训练好的网络模型检测过程53。根据已经训练好的网络模型和输入图像进行卷积计算,在输入层输出所有检测的结果。将检测结果设定的阈值比较,执行根据阈值筛选检测结果值过程54。最后输出检测结果过程55,根据正确的检测结果值在原始图像上以矩形框的形式标记出物体的位置和类别,并将检测的结果写入txt文件中,以文本的方式保存检测结果信息。
这里需要着重指出,相比于传统的目标检测方法,本发明取得了至少1倍的准确率提升。和目前最较先进的深度网络Fast YOLO和Tiny YOLO,本发明设计的卷积神经网络,获得同等准确度的前提下取得了至少50%的检测速度提升。图7给出了本发明的部分检测结果可视化视图。

Claims (6)

1.一种基于轻量级神经网络的快速目标检测方法,其特征在于:包括构建卷积神经网络、训练卷积神经网络和目标检测三个过程:
构建神经网络过程,包括以下步骤:
1)定义卷积神经网络的主要模块Front module和Tinier module;
11)定义Front module;Front module包括三层卷积层和一层池化层,三层卷积层在前,一层池化层在后,前三层卷积层的卷积核大小是3×3,卷积核个数分别是64,64,128,池化层大小是2×2;
12)定义Tinier module;Tinier module由4层卷积层组成,第一层和第三层使用的卷积核大小为1×1,第二层和第四层使用的卷积核大小为3×3,每个3×3的卷积层使用的卷积核个数是1×1的卷积层的卷积核个数的4倍;
2)定义卷积神经网络的层数和池化层位置;
训练卷积神经网络过程,包括以下步骤:
3)对数据集预处理,将其转换成目标检测框架Darknet输入的标准格式;
4)初始化卷积神经网络的参数;
5)通过不断迭代前向传播、反向传播训练神经网络模型;
目标检测过程,包括以下步骤:
6)输入测试图像,利用由训练过程得到的神经网络模型计算得到检测数值结果;
7)根据检测结果在图像上作出标注,用矩形框标出每个物体的位置和类别;
所述步骤2)包括以下具体步骤:
21)卷积神经网络模型使用1个Front module作为前置网络,4个Tinier module作为主体网络,最后一部分定义Detector Layer层,由1×1的卷积层组成;
22)定义池化层位置以及具体参数;在前三个Tinier module之后使用池化层,池化层大小为2×2,步长为2。
2.根据权利要求1所述的快速目标检测方法,其特征在于所述步骤3)包括以下具体步骤:
31)预处理数据集的标签信息,将每张图像的标签信息格式化为(object,x1,y1,x2,y2)写入一个txt文件中;其中object表示物体的类别,(x1,y1,x2,y2)表示物体在图像中的位置信息;
32)预处理输入图像,将数据集中的输入图像调整到统一的大小,将调整后的图像作为目标检测框架Darknet的输入。
3.根据权利要求1所述的快速目标检测方法,其特征在于所述步骤4)包括以下具体步骤:
41)初始化训练参数:学习率α,迭代次数iteration,一次输入的图像数batch,训练结束阈值τ;
42)使用xavier初始化权重参数;定义参数所在层的输入维度m,输出维度n,将参数均匀分布在
Figure FDA0003081531680000021
范围内。
4.根据权利要求1所述的快速目标检测方法,其特征在于所述步骤5)包括以下具体步骤:
51)前向传播;卷积神经网络包含一个输入层,多个中间层,一个输出层,每一层表示为非线性映射过程;样本x在第m层的输出计算公式如下:
Figure FDA0003081531680000022
其中,
Figure FDA0003081531680000023
表示网络的m层和m-1层之间的权重矩阵,hm表示第m层的输出,
Figure FDA0003081531680000026
表示偏移参数,pm表示m层的节点数目,
Figure FDA0003081531680000024
表示非线性激励函数,使用tanh、sigmoid或者ReLU函数;
52)计算损失函数;使用的损失函数如下:
Figure FDA0003081531680000025
其中,λcoord和λnoobj权重系数,表示位置预测误差和分类误差在损失函数中占有的重要程度,(xi,yi,wi,hi)代表矩形框参数,ci代表置信度,pi代表类别;整个损失函数由五个部分组成,前两项位置误差计算,第三项是含有物体的边框的置信度预测误差,第四项是不含有物体的边框的置信度预测误差,第五项是类别预测误差;
53)通过计算得到的损失函数和阈值比较,如果损失函数值小于阈值或者此时的迭代次数大于最大迭代次数,则结束训练;否则执行反向传播;反向传播过程通过计算损失函数关于某一节点的偏导数,使用梯度下降算法更新网络的权重参数;网络权重的更新参数如下:
Figure FDA0003081531680000031
Figure FDA0003081531680000032
其中,m表示层数,i表示神经元在层中的序号,j表示一个神经元输入的序号,α表示学习率;
反向传播过程更新网络权重参数结束后,跳转前向传播。
5.根据权利要求1所述的快速目标检测方法,其特征在于所述步骤6)包括以下具体步骤:
61)输入待检测图片,将图像重新调正到训练时输入的大小;
62)根据训练好的神经网络模型和输入的图像计算得到检测结果。
6.根据权利要求1所述的快速目标检测方法,其特征在于所述步骤7)包括以下具体步骤:
71)根据阈值筛选出符合条件的检测结果,在原图上标记出物体的位置和类别;
72)将检测结果(object,x1,y1,x2,y2,score)写入txt文件,以文本的方式保存。
CN201810483769.1A 2018-05-19 2018-05-19 基于轻量级神经网络的快速目标检测方法 Active CN108647742B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810483769.1A CN108647742B (zh) 2018-05-19 2018-05-19 基于轻量级神经网络的快速目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810483769.1A CN108647742B (zh) 2018-05-19 2018-05-19 基于轻量级神经网络的快速目标检测方法

Publications (2)

Publication Number Publication Date
CN108647742A CN108647742A (zh) 2018-10-12
CN108647742B true CN108647742B (zh) 2021-07-13

Family

ID=63757106

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810483769.1A Active CN108647742B (zh) 2018-05-19 2018-05-19 基于轻量级神经网络的快速目标检测方法

Country Status (1)

Country Link
CN (1) CN108647742B (zh)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109558819B (zh) * 2018-11-20 2020-12-15 北京市遥感信息研究所 一种用于遥感图像目标检测的深度网络轻量化方法
CN109522963A (zh) * 2018-11-26 2019-03-26 北京电子工程总体研究所 一种单机运行的特征建筑目标检测方法和系统
CN109726796A (zh) * 2018-12-03 2019-05-07 三峡大学 一种基于神经网络的养殖场管理方法
CN109685017B (zh) * 2018-12-26 2023-02-03 中山大学 一种基于轻量神经网络的实时目标检测系统及检测方法
CN109766887B (zh) * 2019-01-16 2022-11-11 中国科学院光电技术研究所 一种基于级联沙漏神经网络的多目标检测方法
CN110032949B (zh) * 2019-03-22 2021-09-28 北京理工大学 一种基于轻量化卷积神经网络的目标检测与定位方法
CN110119757B (zh) * 2019-03-28 2021-05-25 北京奇艺世纪科技有限公司 模型训练方法、视频类别检测方法、装置、电子设备和计算机可读介质
CN109977891A (zh) * 2019-03-30 2019-07-05 哈尔滨理工大学 一种基于神经网络的目标检测与识别方法
CN110276247A (zh) * 2019-05-09 2019-09-24 南京航空航天大学 一种基于YOLOv3-Tiny的行车检测方法
CN110210621B (zh) * 2019-06-06 2022-09-20 大连理工大学 一种基于残差网络改进的目标检测方法
CN110222769B (zh) * 2019-06-06 2022-09-16 大连理工大学 一种基于YOLOV3-tiny的改进目标检测方法
CN110298265A (zh) * 2019-06-10 2019-10-01 东南大学 一种基于yolo神经网络的电梯中特定目标检测方法
CN110363198B (zh) * 2019-07-04 2022-12-09 武汉科技大学 一种神经网络权重矩阵拆分与组合的方法
CN110555384A (zh) * 2019-07-31 2019-12-10 四川省草原科学研究院 基于图像数据的牛肉大理石纹自动分级系统及方法
CN110533103B (zh) * 2019-08-30 2023-08-01 的卢技术有限公司 一种轻量级小物体目标检测方法及系统
CN110490874A (zh) * 2019-09-04 2019-11-22 河海大学常州校区 基于yolo神经网络的纺织布匹表面瑕疵检测方法
CN110598620B (zh) * 2019-09-06 2022-05-06 腾讯科技(深圳)有限公司 基于深度神经网络模型的推荐方法和装置
CN112825121A (zh) * 2019-11-20 2021-05-21 北京眼神智能科技有限公司 深度卷积神经网络初始化和训练方法、装置、介质及设备
CN111260060B (zh) * 2020-02-20 2022-06-14 武汉大学 一种基于动态强度的物体检测神经网络混合训练方法及系统
CN111401241A (zh) * 2020-03-16 2020-07-10 中国民用航空飞行学院 基于卷积神经网络的海上民用航空器搜寻方法及装置
CN111797678B (zh) * 2020-05-15 2023-07-07 华南师范大学 基于复合神经网络的相位解包裹方法和装置
CN111967468A (zh) * 2020-08-10 2020-11-20 东南大学 一种基于fpga的轻量级目标检测神经网络的实现方法
CN112417955B (zh) * 2020-10-14 2024-03-05 国能大渡河沙坪发电有限公司 巡检视频流处理方法及装置
CN112529835A (zh) * 2020-10-22 2021-03-19 浙江大学 一种基于源相机识别的图像拼接篡改检测与定位方法
CN113076815B (zh) * 2021-03-16 2022-09-27 西南交通大学 一种基于轻量级神经网络的自动驾驶方向预测方法
CN115830584A (zh) * 2022-11-29 2023-03-21 南京云阶电力科技有限公司 基于深度学习的端子排文本检测方法及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101540504A (zh) * 2009-04-30 2009-09-23 东北大学 一种基于变步长神经网络的潮流分析装置及方法
CN103390164A (zh) * 2012-05-10 2013-11-13 南京理工大学 基于深度图像的对象检测方法及其实现装置
CN106228124A (zh) * 2016-07-17 2016-12-14 西安电子科技大学 基于卷积神经网络的sar图像目标检测方法
CN107330446A (zh) * 2017-06-05 2017-11-07 浙江工业大学 一种面向图像分类的深度卷积神经网络的优化方法
CN107341518A (zh) * 2017-07-07 2017-11-10 东华理工大学 一种基于卷积神经网络的图像分类方法
WO2017206066A1 (en) * 2016-05-31 2017-12-07 Nokia Technologies Oy Method and apparatus for detecting small objects with an enhanced deep neural network
CN107704857A (zh) * 2017-09-25 2018-02-16 北京邮电大学 一种端到端的轻量级车牌识别方法及装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101540504A (zh) * 2009-04-30 2009-09-23 东北大学 一种基于变步长神经网络的潮流分析装置及方法
CN103390164A (zh) * 2012-05-10 2013-11-13 南京理工大学 基于深度图像的对象检测方法及其实现装置
WO2017206066A1 (en) * 2016-05-31 2017-12-07 Nokia Technologies Oy Method and apparatus for detecting small objects with an enhanced deep neural network
CN106228124A (zh) * 2016-07-17 2016-12-14 西安电子科技大学 基于卷积神经网络的sar图像目标检测方法
CN107330446A (zh) * 2017-06-05 2017-11-07 浙江工业大学 一种面向图像分类的深度卷积神经网络的优化方法
CN107341518A (zh) * 2017-07-07 2017-11-10 东华理工大学 一种基于卷积神经网络的图像分类方法
CN107704857A (zh) * 2017-09-25 2018-02-16 北京邮电大学 一种端到端的轻量级车牌识别方法及装置

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning;Christian Szegedy et al;《https://arxiv.org/pdf/1602.07261.pdf》;20160824;第1-12页 *
Rethinking the Inception Architecture for Computer Vision;Christian Szegedy et al;《https://arxiv.org/pdf/1512.00567.pdf》;20151214;第1-10页 *
基于卷积核滤波器筛选的CNN模型精简方法;王震等;《天津理工大学学报》;20180430;第18-23页 *
面向移动平台的轻量级卷积神经网络架构;胡挺等;《计算机工程》;20180205;第17-22页 *

Also Published As

Publication number Publication date
CN108647742A (zh) 2018-10-12

Similar Documents

Publication Publication Date Title
CN108647742B (zh) 基于轻量级神经网络的快速目标检测方法
CN110334765B (zh) 基于注意力机制多尺度深度学习的遥感影像分类方法
CN109886066B (zh) 基于多尺度和多层特征融合的快速目标检测方法
CN110136154B (zh) 基于全卷积网络与形态学处理的遥感图像语义分割方法
CN108229381A (zh) 人脸图像生成方法、装置、存储介质和计算机设备
CN112101190A (zh) 一种遥感图像分类方法、存储介质及计算设备
CN110674305A (zh) 一种基于深层特征融合模型的商品信息分类方法
CN113486981B (zh) 基于多尺度特征注意力融合网络的rgb图像分类方法
CN107636691A (zh) 用于识别图像中的文本的方法和设备
CN112308115B (zh) 一种多标签图像深度学习分类方法及设备
CN107506792B (zh) 一种半监督的显著对象检测方法
CN112101364B (zh) 基于参数重要性增量学习的语义分割方法
CN112766283A (zh) 一种基于多尺度卷积网络的两相流流型识别方法
CN112837320A (zh) 一种基于并行空洞卷积的遥感影像语义分割方法
CN115966010A (zh) 一种基于注意力和多尺度特征融合的表情识别方法
CN114419406A (zh) 图像变化检测方法、训练方法、装置和计算机设备
CN110111365B (zh) 基于深度学习的训练方法和装置以及目标跟踪方法和装置
CN112785479B (zh) 一种基于少样本学习的图像隐形水印通用检测方法
CN114170657A (zh) 融合注意力机制与高阶特征表示的面部情感识别方法
CN111783688B (zh) 一种基于卷积神经网络的遥感图像场景分类方法
CN113128769A (zh) 基于深度学习的智能航班延误预测方法
CN116433980A (zh) 脉冲神经网络结构的图像分类方法、装置、设备及介质
CN116129158A (zh) 一种输电线路铁塔小部件图像识别方法及装置
CN114708591A (zh) 基于单字连接的文档图像中文字符检测方法
CN110222222B (zh) 基于深层主题自编码模型的多模态检索方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant