CN110569875B - 一种基于特征复用的深度神经网络目标检测方法 - Google Patents

一种基于特征复用的深度神经网络目标检测方法 Download PDF

Info

Publication number
CN110569875B
CN110569875B CN201910724146.3A CN201910724146A CN110569875B CN 110569875 B CN110569875 B CN 110569875B CN 201910724146 A CN201910724146 A CN 201910724146A CN 110569875 B CN110569875 B CN 110569875B
Authority
CN
China
Prior art keywords
target
block
convolution
neural network
target candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910724146.3A
Other languages
English (en)
Other versions
CN110569875A (zh
Inventor
李兆麟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuxi Research Institute of Applied Technologies of Tsinghua University
Original Assignee
Wuxi Research Institute of Applied Technologies of Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuxi Research Institute of Applied Technologies of Tsinghua University filed Critical Wuxi Research Institute of Applied Technologies of Tsinghua University
Priority to CN201910724146.3A priority Critical patent/CN110569875B/zh
Publication of CN110569875A publication Critical patent/CN110569875A/zh
Application granted granted Critical
Publication of CN110569875B publication Critical patent/CN110569875B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种基于特征复用的深度神经网络目标检测方法,其网络结构明确,训练算法简单,可以明显减少网络参数量,还可以保持较高的检测精度。其包括步骤:S1:以特征图的每个像素为中心生成不同形状和不同比例的目标候选框,获取待分类特征图;S2:构建目标检测框架;S3:训练目标检测框架,获得训练好的目标检测框架;S4:把步骤S1中通过对目标候选框获得的待分类特征图输入到训练好的目标检测框架中进行分类;S5:通过步骤S4获取的分类结果判断待分类特征图是背景或是待测目标,进而通过计算待分类特征图的物体类别和位置偏移量实现对物体的检测。

Description

一种基于特征复用的深度神经网络目标检测方法
技术领域
本发明涉及图像识别技术领域,具体为一种基于特征复用的深度神经网络目标检测方法。
背景技术
在计算机视觉领域中,典型的目标检测框架主要采用深度神经网络作为基础网络,识别精度较为理想;但是,现有技术中的这些网络大多数是基于大数据集的训练网络,具有较大的参数量;同时,现有目标检测框架主要关注于对检测精度和检测速度的提升,而忽略对网络参数量的优化;大量的且冗余的参数,带来了计算资源和时间成本的较大消耗,从而降低了网络分布式训练效率,增加了数据传输负担,导致这些网络难以在计算资源有限的嵌入式设备上实现实时目标检测。
发明内容
为了解决现有技术中基于深度神经网络的目标检测框架参数量大且参数有冗余的问题,本发明提供一种基于特征复用的深度神经网络目标检测方法,其网络结构明确,训练算法简单,可以明显减少网络参数量,还可以保持较高的检测精度。
本发明的技术方案是这样的:一种基于特征复用的深度神经网络目标检测方法,其包括步骤:
S1:以特征图的每个像素为中心生成不同形状和不同比例的目标候选框,获取待分类特征图;
S2:构建目标检测框架;
S3:训练所述目标检测框架,获得训练好的目标检测框架;
S4:把步骤S1中通过对所述目标候选框获得的所述待分类特征图输入到所述训练好的目标检测框架中进行分类;
S5:通过步骤S4获取的分类结果判断所述待分类特征图是背景或是待测目标,进而通过计算所述待分类特征图的物体类别和位置偏移量实现对物体的检测;
其特征在于:
步骤S2中构建的所述目标检测框架包括依次连接的初始块、残差块、稠密块、卷积块;
所述初始块采用两组滤波器进行卷积操作,对图像进行全局图像特征的抽取,之后进行子采样;
所述残差块包括三层残差结构;每一层所述残差结构包括两个卷积组合;所述残差结构的跨层连接采取线性叠加的形式;
所述稠密块包括前后级联的基础块;所述基础块之间的稠密连接是对输入、上一层网络输出与本层网络输出的每个特征图在通道维度上进行拼接;所述基础块包括1*1卷积层、3*3卷积层;
每个所述稠密块后面跟着一个过渡块,所述稠密块和所述过渡块交替连接完成检测和拼接;
所述卷积块中进行分类,输出分类置信度得到最后的目标检测的识别结果。
其进一步特征在于:
所述初始块中的滤波器的结构,包括依次连接的:
连续的两组64个步长为1的3x3卷积核、一个步长为2的2x2最大池化层;
所述残差结构中的第一所述卷积组合包括两个3*3的卷积层,其中第一个卷积层步长为2,第二个卷积层的步长为1;第二个所述卷积组合包括两个3*3的卷积层,两个卷积层的步长均为1;
所述基础块的卷积层分别通过前馈卷积神经网络实现,然后依次进行批量归一化、线性整流函数映射、卷积操作后,得到最后的输出;
所述过渡块包括1*1卷积层、2*2的平均池化层;
所述卷积块中通过非极大值抑制方法和Softmax函数实现分类;
步骤S1中生成的所述目标候选框的生成规则如下:
设:所述目标候选框的边长为最小为min_size,最大为max_size;
当所述目标候选框为方形的时候:
其中尺寸最小的所述目标候选框的边长为min_size,
最大的所述目标候选框的边长为:
Figure RE-RE-GDA0002218404990000021
当所述目标候选框为矩形的时候:
所述目标候选框的长边的边长为:
Figure RE-RE-GDA0002218404990000022
所述目标候选框的宽边的边长为:
Figure RE-RE-GDA0002218404990000023
式中:ration>0;
对于步骤S1中生成的所述目标候选框,进行下面的操作之后,获得所述待分类特征图:
S1-1:对于所述目标候选框,根据框与框之间的交并比来去除冗余预测框;
S1-2:对通过所述目标候选框抽取出来的特征图经过非极大值抑制的处理和边框回归,调整边框与标注坐标;
步骤S3中,训练所述目标检测框架时,采用的损失函数为:
Figure RE-RE-GDA0002218404990000024
式中:
Lloc(x,c)为边界框的位置损失函数,Lconf(x,c)为类别置信度损失函数,
x为:输入向量,
c为:中心坐标偏移量,
l为:预测框,
g为:真实框,
N为:匹配到真实框的预测框数量;
所述稠密块中和所述过渡块中,都通过Dropout层来放置过拟合。
本发明提供的一种基于特征复用的深度神经网络目标检测方法,稠密块的结构中,所述稠密块前后级联的基础块之间的稠密连接是对输入、上一层网络输出与本层网络输出的每个特征图在通道维度上进行拼接;每个稠密块后面跟着一个过渡块,之间交替连接完成检测和拼接;这样每一个稠密块可以复用前面每层结构计算出来的特征,再传递到下一层,使每层所需计算的参数减少,进而减少神经网络参数量,因为参与运算的参数减少,进而降低了系统的计算损耗;所述残差块包括三层残差结构、每层包括两个卷积组合、跨层连接采取线性叠加;同时通过残差块的结构以保证特征进行深层传递,提升识别的精度;本发明的技术方案,达到了在保持识别精度的基础上降低了网络参数量,降低了网络复杂度,降低了计算过程中对于资源的损耗,使本发明的技术方案更适于应用在计算资源有限的嵌入式设备上;同时,本发明技术方案中的目标检测框架网络结构明确,在训练过程中,通过位置损失函数和类别置信度损失函数对坐标和类别进行度量,训练算法简单,进一步降低了对计算资源的损耗。
附图说明
图1为本发明中的目标检测框架的网络结构和检测过程示意图;
图2为目标检测框架中的过渡块的结构框图;
图3为目标检测框架的检测过程中目标候选框尺寸设置示意图。
具体实施方式
如图1~图3所示,一种基于特征复用的深度神经网络目标检测方法,其包括步骤:
S1:以特征图的每个像素为中心生成不同形状和不同比例的目标候选框,获取待分类特征图;
S2:构建目标检测框架;目标检测框架包括依次连接的初始块、残差块、稠密块、卷积块;
S3:训练目标检测框架,获得训练好的目标检测框架;
S4:把步骤S1中通过对目标候选框获得的待分类特征图输入到训练好的目标检测框架中进行分类; S3:通过步骤S2的分类结果判断待分类特征图是背景或是待测目标,通过计算待分类特征图的物体类别和位置偏移量实现对物体的检测。
初始块采用两组滤波器进行卷积操作,对图像进行全局图像特征的抽取,之后进行子采样;初始块中的滤波器的结构,包括依次连接的:连续的两组64个步长为1的3x3卷积核、一个步长为2的2x2最大池化层。
残差块包括三层残差结构;每一层残差结构包括两个卷积组合;残差结构的跨层连接采取线性叠加的形式;残差结构中的第一卷积组合包括两个3*3的卷积层,其中第一个卷积层步长为2,第二个卷积层的步长为1;第二个卷积组合包括两个3*3的卷积层,两个卷积层的步长均为1;
第一个卷积组合,使特征图尺寸减半,并加倍卷积核滤波器数量来保证网络模型前层结构复杂度,而第二个卷积组合的主要功能是当卷积组合的输入与输出在通道数上不匹配时调整输入的通道数,确保输出与输入可以叠加。残差结构的跨层连接采取线性叠加的形式,而不是拼接重组。例如,深度残差网络ll层的输出和深度残差网络l-1层的输出相加,共同作为l+1层的输入。
稠密块包括前后级联的基础块;基础块之间的稠密连接是对输入、上一层网络输出与本层网络输出的每个特征图在通道维度上进行拼接;每个基础块包括1*1卷积层、3*3卷积层,以及通过Dropout层进行过拟合的抑制;基础块的卷积层分别通过前馈卷积神经网络实现,然后依次进行批量归一化、线性整流函数映射、卷积操作后,得到最后的输出;每个稠密块后面跟着一个过渡块,稠密块和过渡块交替连接完成检测和拼接;过渡块包括1*1卷积层、2*2的平均池化层,以及通过Dropout层进行过拟合的抑制;
由于稠密块的输出是由数个基础块拼接而成,造成整个稠密块的输出通道增长剧烈。为了控制模型的复杂度,本文采用过渡块(Trasition block)来调节每个稠密块的输出通道稠密块与过渡块的交替连接进一步缩减参数量,过渡块采用平均池化;为了进一步提高模型的紧凑性,对于第一个稠密块后连接的第一个过渡块,设置其输出通道数为64,后续的结构中连接的过渡块不对通道数进行缩减,主要是为了防止经过缩减的过渡块的网络训练识别精度浮动较大,导致识别效果下降。
如说明书附图的图2所示,稠密块的基础结构主要由若干个基础块前后级联组成,基础块的输出为k 个特征图,k定义为增长率。每一个基础块均包含有1x1卷积层、3x3卷积层和可选择的Dropout层。
其中,这两种卷积层采用传统前馈卷积神经网络实现,其第l层的输出可以由公式(1)描述:
xl=H(xl-1) (1)
其中,非线性变换H是指依次进行批量归一化、线性整流函数映射和卷积操作,Dropout层的主要作用是通过随机丢弃部分神经元以达到防止过拟合的目的。
在稠密块中,不同基础块之间的稠密连接是对输入或上一层网络输出与本层网络输出的每个特征图在通道维度上进行拼接,拼接过程可以由公式(2)描述:
xl=H([x0,x1,x2,......xl-1]) (2)
其中:xl为第l层的输出特征图,H表示依次进行批量归一化、线性整流函数映射和卷积操作,x0, x1,x2......xl-1是前l-1层的特征图。
除了采用稠密结构,本发明还采取了残差块的结构以保证特征进行深层传递,提升识别精度。残差块也具有跨层连接的结构,但不同的是,残差结构的跨层连接采取线性叠加的形式,而不是拼接重组。拼接过程可以由公式(3)描述:
xl=H(xl-1)+xl-1 (3)
其中:xl为第l层的输出特征图,H表示依次进行批量归一化、线性整流函数映射和卷积操作,xl-1为第l-1层的输出特征图。
在卷积块中通过非极大值抑制方法和Softmax函数实现分类,输出分类置信度得到最后的目标检测的识别结果。
如附图的图1所示,检测流程可以描述为:首先以特征图中每个像素为中心生成不同形状和不同比例的目标候选框,接着通过对目标候选框的回归和分类,判断目标候选框中的目标是背景或是待测目标,然后预测目标候选框中的物体类别和位置偏移量实现对物体的检测。
如说明书附图的图3所示,以特征图的每个像素为中心生成不同形状和不同比例的目标候选框,获取待分类特征图;其中生成的目标候选框的生成规则如下:
设:目标候选框的边长为最小为min_size,最大为max_size;
当目标候选框为方形的时候:
其中尺寸最小的目标候选框的边长为min_size,
最大的目标候选框的边长为:
Figure RE-RE-GDA0002218404990000041
当目标候选框为矩形的时候:
目标候选框的长边的边长为:
Figure RE-RE-GDA0002218404990000042
目标候选框的宽边的边长为:
Figure RE-RE-GDA0002218404990000043
式中:ration>0;
生成的目标候选框后,进行下面的操作之后,获得待分类特征图:
对于目标候选框,采用类似于非极大值抑制的方法根据框与框之间的交并比来去除冗余预测框。给定两个集合A与B,其定义可以由公式(4)描述:
Figure RE-RE-GDA0002218404990000044
对通过目标候选框抽取出来的特征图经过非极大值抑制的处理和边框回归,调整边框与标注坐标,使目标候选框与真实框更为接近,可以用下面的公式(5)来描述:
Figure RE-RE-GDA0002218404990000051
Figure RE-RE-GDA0002218404990000052
其中,tx,ty,tw,th表示映射后的预测框中心坐标和宽长;
Figure RE-RE-GDA0002218404990000053
表示真实框中心坐标和宽长; x,y,w,h表示原预测框中心坐标和宽长;xa,ya,wa,ha表示目标候选框中心坐标和宽长;
Figure RE-RE-GDA0002218404990000054
表示真实框中心坐标和宽长。
本发明的技术方案中,步骤S3中,训练述目标检测框架时,采用的损失函数为:
Figure RE-RE-GDA0002218404990000055
式中:
Lloc(x,c)为边界框的位置损失函数,Lconf(x,c)为类别置信度损失函数,x为:输入向量,c为:中心坐标偏移量,l为:预测框,g为:真实框,N为:匹配到真实框的预测框数量。
边界框的位置损失函数Lloc(x,c)可以用公式(7)描述:
Figure RE-RE-GDA0002218404990000056
Figure RE-RE-GDA0002218404990000057
Figure RE-RE-GDA0002218404990000058
类别置信度损失函数Lconf(x,c),可以用公式(8)描述:
Figure RE-RE-GDA0002218404990000059
本发明提出的基于特征复用的深度神经网络的目标检测框,采用了同尺度多层特征融合的方法,在小目标检测上能够达到较高的识别率,更加符合实际中对小目标精确检测的要求。
综上,本发明提出了一种基于特征复用的深度神经网络的目标检测框架结构,该结构不仅能够大幅减少网络的参数量,同时在没有经过任何的预训练的前提下,还能保持较高的检测精度,解决了现有典型基于深度神经网络的目标检测框架参数量大且有冗余的问题。同时由于本检测框架能够利用多层特征的信息,所以能够在小目标上达到较好的识别效果。本发明硬件资源消耗较少,布局简洁,同时识别精度较好,可以快速部署到不同的实际工程应用中,可以在任何需要实现高速图像识别相关工程项目中应用,本发明具有广阔的前景。

Claims (8)

1.一种基于特征复用的深度神经网络目标检测方法,其包括步骤:
S1:以特征图的每个像素为中心生成不同形状和不同比例的目标候选框,获取待分类特征图;
S2:构建目标检测框架;
S3:训练所述目标检测框架,获得训练好的目标检测框架;
S4:把步骤S1中通过对所述目标候选框获得的所述待分类特征图输入到所述训练好的目标检测框架中进行分类;
S5:通过步骤S4获取的分类结果判断所述待分类特征图是背景或是待测目标,通过计算所述待分类特征图的物体类别和位置偏移量实现对物体的检测;
其特征在于:
步骤S2中构建的所述目标检测框架包括依次连接的初始块、残差块、稠密块、卷积块;
所述初始块采用两组滤波器进行卷积操作,对图像进行全局图像特征的抽取,之后进行子采样;
所述残差块包括三层残差结构;每一层所述残差结构包括两个卷积组合;所述残差结构的跨层连接采取线性叠加的形式;
所述稠密块包括前后级联的基础块;所述基础块之间的稠密连接是对输入、上一层网络输出与本层网络输出的每个特征图在通道维度上进行拼接;所述基础块包括1*1卷积层、3*3卷积层;
每个所述稠密块后面跟着一个过渡块,所述稠密块和所述过渡块交替连接完成检测和拼接;
所述卷积块中进行分类,输出分类置信度得到最后的目标检测的识别结果;
步骤S1中生成的所述目标候选框的生成规则如下:
设:所述目标候选框的边长为最小为min_size,最大为max_size;
当所述目标候选框为方形的时候:
其中尺寸最小的所述目标候选框的边长为min_size,
最大的所述目标候选框的边长为:
Figure FDA0003368546150000011
当所述目标候选框为矩形的时候:
所述目标候选框的长边的边长为:
Figure FDA0003368546150000012
所述目标候选框的宽边的边长为:
Figure FDA0003368546150000013
式中:ration>0;
对于步骤S1中生成的所述目标候选框,进行下面的操作之后,获得所述待分类特征图:
S1-1:对于所述目标候选框,根据框与框之间的交并比来去除冗余预测框;
S1-2:对通过所述目标候选框抽取出来的特征图经过非极大值抑制的处理和边框回归,调整边框与标注坐标。
2.根据权利要求1所述一种基于特征复用的深度神经网络目标检测方法,其特征在于:所述初始块中的滤波器的结构,包括依次连接的:
连续的两组64个步长为1的3x3卷积核、一个步长为2的2x2最大池化层。
3.根据权利要求1所述一种基于特征复用的深度神经网络目标检测方法,其特征在于:所述残差结构中的第一所述卷积组合包括两个3*3的卷积层,其中第一个卷积层步长为2,第二个卷积层的步长为1;第二个所述卷积组合包括两个3*3的卷积层,两个卷积层的步长均为1。
4.根据权利要求1所述一种基于特征复用的深度神经网络目标检测方法,其特征在于:所述基础块的卷积层分别通过前馈卷积神经网络实现,然后依次进行批量归一化、线性整流函数映射、卷积操作后,得到最后的输出。
5.根据权利要求1所述一种基于特征复用的深度神经网络目标检测方法,其特征在于:所述过渡块包括1*1卷积层、2*2的平均池化层。
6.根据权利要求1所述一种基于特征复用的深度神经网络目标检测方法,其特征在于:所述卷积块中通过非极大值抑制方法和Softmax函数实现分类。
7.根据权利要求1所述一种基于特征复用的深度神经网络目标检测方法,其特征在于:步骤S3中,训练所述目标检测框架时,采用的损失函数为:
Figure FDA0003368546150000021
式中:
Lloc(x,c)为边界框的位置损失函数,Lconf(x,c)为类别置信度损失函数,
x为:输入向量,
c为:中心坐标偏移量,
l为:预测框,
g为:真实框,
N为:匹配到真实框的预测框数量。
8.根据权利要求1所述一种基于特征复用的深度神经网络目标检测方法,其特征在于:所述稠密块中和所述过渡块中,都通过Dropout层来放置过拟合。
CN201910724146.3A 2019-08-07 2019-08-07 一种基于特征复用的深度神经网络目标检测方法 Active CN110569875B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910724146.3A CN110569875B (zh) 2019-08-07 2019-08-07 一种基于特征复用的深度神经网络目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910724146.3A CN110569875B (zh) 2019-08-07 2019-08-07 一种基于特征复用的深度神经网络目标检测方法

Publications (2)

Publication Number Publication Date
CN110569875A CN110569875A (zh) 2019-12-13
CN110569875B true CN110569875B (zh) 2022-04-19

Family

ID=68774776

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910724146.3A Active CN110569875B (zh) 2019-08-07 2019-08-07 一种基于特征复用的深度神经网络目标检测方法

Country Status (1)

Country Link
CN (1) CN110569875B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111191732B (zh) * 2020-01-03 2021-05-14 天津大学 一种基于全自动学习的目标检测方法
CN111077093A (zh) * 2020-01-10 2020-04-28 安徽理工大学 一种基于多光谱技术的煤矸石快速检测的方法与装置
CN111368922B (zh) * 2020-03-05 2023-04-18 清华大学深圳国际研究生院 一种用于物体分类的点云处理网络架构
CN111611926A (zh) * 2020-05-21 2020-09-01 重庆现代建筑产业发展研究院 一种地标建筑物检测与识别方法及装置
CN111832559A (zh) * 2020-06-19 2020-10-27 浙江大华技术股份有限公司 目标检测方法及装置、存储介质、电子装置
CN111626419A (zh) * 2020-07-20 2020-09-04 成都安智杰科技有限公司 卷积神经网络结构、目标检测方法及装置
CN111738231B (zh) * 2020-08-06 2020-12-11 腾讯科技(深圳)有限公司 目标对象检测方法、装置、计算机设备和存储介质
CN112036555B (zh) * 2020-11-05 2021-02-05 北京亮亮视野科技有限公司 目标检测框架的优化方法及装置、存储介质、电子设备
CN112308004A (zh) * 2020-11-06 2021-02-02 神思电子技术股份有限公司 一种基于流卷积的目标检测方法
CN114441173B (zh) * 2021-12-28 2023-11-24 东南大学 基于改进深度残差收缩网络的滚动轴承故障诊断方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109346159A (zh) * 2018-11-13 2019-02-15 平安科技(深圳)有限公司 病例图像分类方法、装置、计算机设备及存储介质
CN109544613A (zh) * 2018-11-23 2019-03-29 南昌航空大学 一种基于稠密网络深度学习的双目立体匹配方法及系统
CN109859172A (zh) * 2019-01-08 2019-06-07 浙江大学 基于眼底造影图像深度学习的糖网病变无灌注区识别方法
CN110097564A (zh) * 2019-04-04 2019-08-06 平安科技(深圳)有限公司 基于多模型融合的图像标注方法、装置、计算机设备及存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109346159A (zh) * 2018-11-13 2019-02-15 平安科技(深圳)有限公司 病例图像分类方法、装置、计算机设备及存储介质
CN109544613A (zh) * 2018-11-23 2019-03-29 南昌航空大学 一种基于稠密网络深度学习的双目立体匹配方法及系统
CN109859172A (zh) * 2019-01-08 2019-06-07 浙江大学 基于眼底造影图像深度学习的糖网病变无灌注区识别方法
CN110097564A (zh) * 2019-04-04 2019-08-06 平安科技(深圳)有限公司 基于多模型融合的图像标注方法、装置、计算机设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Dynamic Facial Expression Recognition Based on Convolutional Neural Networks with Dense Connections;Jiayu Dong 等;《2018 24th International Conference on Pattern Recognition》;20180824;全文 *

Also Published As

Publication number Publication date
CN110569875A (zh) 2019-12-13

Similar Documents

Publication Publication Date Title
CN110569875B (zh) 一种基于特征复用的深度神经网络目标检测方法
CN109522966B (zh) 一种基于密集连接卷积神经网络的目标检测方法
CN112435282B (zh) 一种基于自适应候选视差预测网络的实时双目立体匹配方法
CN111652899B (zh) 一种时空部件图的视频目标分割方法
CN112132023A (zh) 基于多尺度上下文增强网络的人群计数方法
KR20180004898A (ko) 딥러닝 기반의 이미지 처리 기술 및 그 방법
CN111508013B (zh) 立体匹配方法
CN111414931B (zh) 一种基于图像深度的多分支多尺度小目标检测方法
CN112818969A (zh) 一种基于知识蒸馏的人脸姿态估计方法及系统
CN112560865B (zh) 一种室外大场景下点云的语义分割方法
CN113313176A (zh) 一种基于动态图卷积神经网络的点云分析方法
CN111931686A (zh) 一种基于背景知识增强的视频卫星目标跟踪方法
CN111353988B (zh) Knn动态自适应的双图卷积图像分割方法和系统
CN112509021A (zh) 一种基于注意力机制的视差优化方法
CN111553296A (zh) 一种基于fpga实现的二值神经网络立体视觉匹配方法
CN113361538B (zh) 一种基于自适应选择邻域的点云分类和分割方法及系统
CN109800809A (zh) 一种基于维度分解的候选区域提取方法
WO2024040973A1 (zh) 一种基于堆叠沙漏网络的多尺度融合去雾方法
CN108875555A (zh) 基于神经网络的视频兴趣区域和显著目标提取与定位系统
CN116486155A (zh) 基于Transformer和级联特征的目标检测方法
WO2020093210A1 (zh) 基于上下文信息指导的场景分割方法和系统
CN111553921B (zh) 一种基于通道信息共享残差模块的实时语义分割方法
CN114724245A (zh) 基于csi的增量学习人体动作识别方法
CN114639166A (zh) 一种基于动作识别的考场异常行为识别方法
CN114565764A (zh) 基于舰船实例分割的港口全景感知系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant