CN110414301B - 一种基于双摄头的列车车厢人群密度估计方法 - Google Patents

一种基于双摄头的列车车厢人群密度估计方法 Download PDF

Info

Publication number
CN110414301B
CN110414301B CN201810408662.0A CN201810408662A CN110414301B CN 110414301 B CN110414301 B CN 110414301B CN 201810408662 A CN201810408662 A CN 201810408662A CN 110414301 B CN110414301 B CN 110414301B
Authority
CN
China
Prior art keywords
layer
conv
crowd density
input
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810408662.0A
Other languages
English (en)
Other versions
CN110414301A (zh
Inventor
陈汉嵘
谢晓华
韦宝典
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Priority to CN201810408662.0A priority Critical patent/CN110414301B/zh
Publication of CN110414301A publication Critical patent/CN110414301A/zh
Application granted granted Critical
Publication of CN110414301B publication Critical patent/CN110414301B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明公开一种基于双摄头的列车车厢人群密度估计方法,包括:提出多视角人群密度估计网络,该网络由两部分组成,一部分是参数共享的卷积神经网络,另一部分是全连接层,该网络能区分当前列车车厢的人群密度等级。模型训练阶段,使用具有5类密度等级的样本进行迭代优化;模型应用阶段,依照地铁实际运行情况有规律抽样估计。本发明基于深度学习方法估计人群密度,采用卷积神经网络自动学习特征来取代以往手工设计的特征,以提高人群密度估计的准确率和鲁棒性。

Description

一种基于双摄头的列车车厢人群密度估计方法
技术领域
本发明涉及人群密度估计技术领域,特别涉及一种基于双摄头的列车车厢人群密度估计方法。
背景技术
已有的人群密度估计技术尚存在很多不足。基于像素的方法简单容易实现,但只能适用于人群密度较低的场景。基于纹理分析的方法虽然效果不错,但是运算繁杂,在实际应用中往往达不到实时性。而基于目标检测的方法能够在相对拥挤的情况下得到可靠的结果,但在人群重叠度高的场景中失去应用能力。
现有的人群密度估计技术主要有以下几类:
1)基于像素统计的方法[1]。统计人群总面积和人群边缘的像素,根据得出的像素作为特征和总人数之间的线性关系进行人群密度估计。该方法通过背景减除和边缘检测技术,获得图像中的前景、背景以及边缘像素数。该方法主要应用在人群分布比较稀疏的场景。
2)基于纹理分析的方法[2]。通过灰度共生矩阵和小波包分解的方法提取图像纹理特征,然后用支持向量机、adaboost和神经网络作为分类模型对这些特征进行学习训练。该方法主要应用在人群分布比较密集的场景。
3)基于目标检测的方法[3]。通过基于haar-like和haar小波变换的头部检测器,利用SVM分类器判别是否为头部,最后估计出整体人群的密度。
发明内容
本发明的主要目的是提出一种基于双摄头的列车车厢人群密度估计方法,旨在克服以上问题。
为实现上述目的,一种基于双摄头的列车车厢人群密度估计方法,包括如下步骤:
S10准备训练样本:建立包含4个参数共享的卷积层和5个全连接层的神经网络,输入同一车厢内相同时刻的两个不同视角的视频帧,训练具有密度等级的标签的样本,其中卷积层用于提取视频的特征向量,全连接层用于将卷积层所提取出的特征向量按密度等级进行分类;
S20神经网络训练:数次迭代优化训练神经网络;
S30应用阶段:截取双摄头拍摄的当前列车车厢的视频帧分别输入至优化后的神经网络,得到当前列车车厢的图像分类结果。
优选地,所述S10中所述4个卷积层包括第一Conv层、第二Conv层、第三Conv层和第四Conv层,所述第一Conv层的卷积核大小为9×9,步长为1,卷积核数目是16个,图像输入第一Conv层生成16个特征图,接上线性整流函数Relu层和最大值池化Max-pooling层后,输出大小为288×464× 16的特征图。
优选地,所述第二Conv层的卷积核大小为7×7,步长为1,卷积核数目是32个,图像输入第二Conv层生成32个特征图,接上Relu层和Max-pooling 层,输出大小为144×232×32的特征图。
优选地,所述第三Conv层的卷积核大小为7×7,步长为1,卷积核数目是16个,图像输入第三Conv层生成16个特征图,再接上Relu层和 Max-pooling层,输出大小为72×116×16的特征图。
优选地,所述第四个Conv层的卷积核大小为7×7,步长为1,卷积核数目是8个,图像输入第四Conv层生成8个特征图,接上Relu层和Max-pooling 层,输出大小为36×58×8的特征图。
优选地,所述5个全连接层包括FC5、FC6、FC7、FC8和Softmax层,第五个Conv层输出双摄头的两张36×58×8的特征图,分别输入到全连接层 FC5_0和FC5_1,得到两组1024维的特征向量;两组向量分别输入到FC6_0 层和FC6_1层得到两组512维的特征向量,接着两组512维的特征向量进行相加操作得到新的一组512维特征向量;该新的一组512维特征向量输入到 FC7层得到256维的特征向量;再将该256维的特征向量输入到FC8层得到 128维的特征向量;最后将该128维的特征向量输入到Softmax层得到一组5 维的概率向量。
优选地,所述密度等级包括ex-low、low、medium、high、ex-high,所述ex-low的样本标签为[1,0,0,0,0],所述low的样本标签为[0,1,0,0,0],所述medium的样本标签为[0,0,1,0,0],所述high的样本标签为[0,0,0,1,0],所述ex-high的样本标签为[0,0,0,0,1],根据最后一层输出值大小判定图像的人群密度等级。
优选地,所述20具体包括:
S201设置神经网络的每个batch为一预定值,每次迭代输入该预定值数的样本;
S202采用gaussian初始化神经网络卷积层的参数,采用xavier方法初始化全连接层参数,所述gaussian″是高斯分布初始化为 W~N(μ,σ2),其中μ=0,σ2=0.01,所述xavier是将参数以均匀分布的方式初始化,具体为
Figure RE-GDA0001789081390000031
其中n表示参数所在层的输入维度,m则表示输出维度;
S203使用Adam算法进行优化训练,其中Adam算法的公式如下:
Figure RE-GDA0001789081390000037
Figure RE-GDA0001789081390000038
Figure RE-GDA0001789081390000032
Figure RE-GDA0001789081390000033
参数更新规则:
Figure RE-GDA0001789081390000034
上式中,
Figure RE-GDA00017890813900000310
表示第t次迭代的梯度,β1,β2是超参数,一般设置为 0.9和0.999,∈是一个很小的数值以防分母为零,一般设置成10-8,mt近似看做是对/>
Figure RE-GDA00017890813900000311
的期望,vt近似看做对/>
Figure RE-GDA00017890813900000312
的期望,而/>
Figure RE-GDA0001789081390000035
和/>
Figure RE-GDA0001789081390000036
则分别是对mt和vt的无偏差估计;
S204利用损失函数Softmax迭代神经网络数次,直至达到最优,所述损失函数Softmax的公式如下:
Figure RE-GDA0001789081390000041
其中,左项是交叉熵代价函数,[f1,f2,…,fK]为网络的输出向量,在本任务中K=5,yi表示为此次迭代中第i个样本所对应的等级密度,右项 R(W)是正则项,W表示网络参数,
Figure RE-GDA0001789081390000042
λ是超参数,设置为0.0002。
优选地,所述30中将两视频帧进行加权融合,得到当前列车车厢的图像分类结果的计算公式如下:
class=argmax{[F(X1;θ)+F(X2;θ)]/2}
其中F(Xi;θ)为网络模型的输出,X1,X2分别为两个摄像头输入的图像,θ为收敛模型的参数。
本发明为一种基于深度学习的多视角人群的人群密度估计方法,采用卷积神经网络自动学习特征来取代以往手工设计的特征,得到更加鲁棒的模型,并针对地铁车厢特殊环境提出了双端摄像头输入,从而能极端情况下处理严重遮挡的问题,提高人群密度估计的准确率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图示出的结构获得其他的附图。
图1为本发明基于双摄头的列车车厢人群密度估计方法的方法流程图;
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明,若本发明实施例中有涉及方向性指示(诸如上、下、左、右、前、后……),则该方向性指示仅用于解释在某一特定姿态(如附图所示)下各部件之间的相对位置关系、运动情况等,如果该特定姿态发生改变时,则该方向性指示也相应地随之改变。
另外,若本发明实施例中有涉及“第一”、“第二”等的描述,则该“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。另外,各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本发明要求的保护范围之内。
如图1所示,图1本发明基于双摄头的列车车厢人群密度估计方法的方法流程图,(a)为训练阶段,(b)为应用阶段,训练阶段中使用反向传播(Back Propagation,简称BP)算法迭代优化模型参数;测试阶段采用概率向量融合的方法提高分类准确率。
一种基于双摄头的列车车厢人群密度估计方法,包括如下步骤:
S10准备训练样本:建立包含4个参数共享的卷积层和5个全连接层的神经网络,输入同一车厢内相同时刻的两个不同视角的视频帧,训练具有密度等级的标签的样本,其中卷积层用于提取视频的特征向量,全连接层用于将卷积层所提取出的特征向量按密度等级进行分类;
S20神经网络训练:数次迭代优化训练神经网络;
S30应用阶段:截取双摄头拍摄的当前列车车厢的视频帧分别输入至优化后的神经网络,得到当前列车车厢的图像分类结果。
优选地,所述S10中所述5个卷积层包括第一Conv层、第二Conv层、第三Conv层、第四Conv层和第五Conv层,所述第一Conv层的卷积核大小为9×9,步长为1,卷积核数目是16个,图像输入第一Conv层生成16个特征图,接上线性整流函数Relu层和最大值池化Max-pooling层后,输出大小为288×464×16的特征图。
优选地,所述第二Conv层的卷积核大小为7×7,步长为1,卷积核数目是32个,图像输入第二Conv层生成32个特征图,接上Relu层和Max-pooling 层,输出大小为144×232×32的特征图。
优选地,所述第三Conv层的卷积核大小为7×7,步长为1,卷积核数目是16个,图像输入第三Conv层生成16个特征图,再接上Relu层和 Max-pooling层,输出大小为72×116×16的特征图。
优选地,所述第四个Conv层的卷积核大小为7×7,步长为1,卷积核数目是8个,图像输入第四Conv层生成8个特征图,接上Relu层和Max-pooling 层,输出大小为36×58×8的特征图。
优选地,所述5个全连接层包括FC5、FC6、FC7、FC8和Softmax层,第五个Conv层输出双摄头的两张36×58×8的特征图,分别输入到全连接层 FC5_0和FC5_1,得到两组1024维的特征向量;两组向量分别输入到FC6_0 层和FC6_1层得到两组512维的特征向量,接着两组512维的特征向量进行相加操作得到新的一组512维特征向量;该新的一组512维特征向量输入到 FC7层得到256维的特征向量;再将该256维的特征向量输入到FC8层得到 128维的特征向量;最后将该128维的特征向量输入到Softmax层得到一组5 维的概率向量。
优选地,所述密度等级包括ex-low、low、medium、high、ex-high,所述ex-low的样本标签为[1,0,0,0,0],所述low的样本标签为[0,1,0,0,0],所述medium的样本标签为[0,0,1,0,0],所述high的样本标签为[0,0,0,1,0],所述ex-high的样本标签为[0,0,0,0,1],根据最后一层输出值大小判定图像的人群密度等级。
优选地,所述20具体包括:
S201设置神经网络的每个batch为一预定值,每次迭代输入该预定值数的样本;
S202采用gaussian初始化神经网络卷积层的参数,采用xavier方法初始化全连接层参数,所述gaussian″是高斯分布初始化为 W~N(μ,σ2),其中μ=0,σ2=0.01,所述xavier是将参数以均匀分布的方式初始化,具体为
Figure RE-GDA0001789081390000061
其中n表示参数所在层的输入维度,m则表示输出维度;
S203使用Adam算法进行优化训练,其中Adam算法的公式如下:
Figure RE-GDA0001789081390000077
Figure RE-GDA0001789081390000078
Figure RE-GDA0001789081390000071
Figure RE-GDA0001789081390000072
参数更新规则:
Figure RE-GDA0001789081390000073
上式中,
Figure RE-GDA0001789081390000079
表示第t次迭代的梯度,β1,β2是超参数,一般设置为 0.9和0.999,∈是一个很小的数值以防分母为零,一般设置成10,mt近似看做是对/>
Figure RE-GDA00017890813900000710
的期望,vt近似看做对/>
Figure RE-GDA00017890813900000711
的期望,而/>
Figure RE-GDA0001789081390000074
和/>
Figure RE-GDA0001789081390000075
则分别是对mt和vt的无偏差估计;
S204利用损失函数Softmax迭代神经网络数次,直至达到最优,所述损失函数Softmax的公式如下:
Figure RE-GDA0001789081390000076
其中,左项是交叉熵代价函数,[f1,f2,…,fK]为网络的输出向量,在本任务中K=5,yi表示为此次迭代中第i个样本所对应的等级密度,右项 R(W)是正则项,W表示网络参数,
Figure RE-GDA00017890813900000712
λ是超参数,设置为0.0002。
优选地,所述30中将两视频帧进行加权融合,得到当前列车车厢的图像分类结果的计算公式如下:
class=argmax{[F(X1;θ)+F(X2;θ)]/2}
其中F(Xi;θ)为网络模型的输出,X1,X2分别为两个摄像头输入的图像,θ为收敛模型的参数。
在本发明实施例中,本发明提出一个包含5个卷积层的分类神经网络。将地铁人群图片及其分类标签输入网络,利用损失函数Softmax不断迭代训练优化网络参数;本发明还提出多摄像头输入来解决遮挡问题,其最终预测结果为各个输入结果的融合,提高分类准确率。
相对于以前的人群密度估计技术,本发明具有以下的优点:
1、能够在地铁车厢从稀疏到极端拥挤的环境下达到满意的效果,有更好的鲁棒性;
2、端到端完成训练,与传统方法相比,没有繁杂的运算过程,并且能在实际应用中达到实时性。
本发明的基础在于能够在地铁车厢等密集场所中准确估计出人群密度等级,并且具有鲁棒性,实时性等效果。因此,任何基于本发明提出的人群密度等级分类应用技术都包含在本发明之内,如视频智能监控等。

Claims (7)

1.一种基于双摄头的列车车厢人群密度估计方法,其特征在于,包括如下步骤:
S10准备训练样本:建立包含4个参数共享的卷积层和5个全连接层的神经网络,输入同一车厢内相同时刻的两个不同视角的视频帧,训练具有密度等级的标签的样本,其中卷积层用于提取视频的特征向量,全连接层用于将卷积层所提取出的特征向量按密度等级进行分类;
所述5个全连接层包括FC5、FC6、FC7、FC8和Softmax层,第四个Conv层输出双摄头的两张36×58×8的特征图,分别输入到全连接层FC5_0和FC5_1,得到两组1024维的特征向量;两组向量分别输入到FC6_0层和FC6_1层得到两组512维的特征向量,接着两组512维的特征向量进行相加操作得到新的一组512维特征向量;该新的一组512维特征向量输入到FC7层得到256维的特征向量;再将该256维的特征向量输入到FC8层得到128维的特征向量;最后将该128维的特征向量输入到Softmax层得到一组5维的概率向量;
S20神经网络训练:数次迭代优化训练神经网络;
S30应用阶段:截取双摄头拍摄的当前列车车厢的视频帧分别输入至优化后的神经网络,将两视频帧进行加权融合,得到当前列车车厢的图像分类结果,计算公式如下:
class=argmax{[F(X1;θ)+F(X2;θ)]/2}
其中F(Xi;θ)为网络模型的输出,X1,X2分别为两个摄像头输入的图像,θ为收敛模型的参数。
2.如权利要求1所述的基于双摄头的列车车厢人群密度估计方法,其特征在于,所述S10中所述4个参数共享的卷积层包括第一Conv层、第二Conv层、第三Conv层和第四Conv层,所述第一Conv层的卷积核大小为9×9,步长为1,卷积核数目是16个,图像输入第一Conv层生成16个特征图,接上线性整流函数Relu层和最大值池化Max-pooling层后,输出大小为288×464×16的特征图。
3.如权利要求2所述的基于双摄头的列车车厢人群密度估计方法,其特征在于,所述第二Conv层的卷积核大小为7×7,步长为1,卷积核数目是32个,图像输入第二Conv层生成32个特征图,接上Relu层和Max-pooling层,输出大小为144×232×32的特征图。
4.如权利要求2所述的基于双摄头的列车车厢人群密度估计方法,其特征在于,所述第三Conv层的卷积核大小为7×7,步长为1,卷积核数目是16个,图像输入第三Conv层生成16个特征图,再接上Relu层和Max-pooling层,输出大小为72×116×16的特征图。
5.如权利要求2所述的基于双摄头的列车车厢人群密度估计方法,其特征在于,所述第四个Conv层的卷积核大小为7×7,步长为1,卷积核数目是8个,图像输入第四Conv层生成8个特征图,接上Relu层和Max-pooling层,输出大小为36×58×8的特征图。
6.如权利要求1所述的基于双摄头的列车车厢人群密度估计方法,其特征在于,所述密度等级包括ex-low、low、medium、high、ex-high,所述ex-low的样本标签为[1,0,0,0,0],所述low的样本标签为[0,1,0,0,0],所述medium的样本标签为[0,0,1,0,0],所述high的样本标签为[0,0,0,1,0],所述ex-high的样本标签为[0,0,0,0,1],根据最后一层输出值大小判定图像的人群密度等级。
7.如权利要求1所述的基于双摄头的列车车厢人群密度估计方法,其特征在于,所述S20具体包括:
S201设置神经网络的每个batch为一预定值,每次迭代输入该预定值数的样本;
S202采用gaussian初始化神经网络卷积层的参数,采用xavier方法初始化全连接层参数,所述gaussian"是高斯分布初始化为W~N(μ,σ2),其中μ=0,σ2=0.01,所述xavier是将参数以均匀分布的方式初始化,具体为
Figure FDA0004070068010000031
其中n表示参数所在层的输入维度,m则表示输出维度;
S203使用Adam算法进行优化训练,其中Adam算法的公式如下:
Figure FDA0004070068010000032
Figure FDA0004070068010000033
Figure FDA0004070068010000034
Figure FDA0004070068010000035
参数更新规则:
Figure FDA0004070068010000036
上式中,
Figure FDA0004070068010000037
表示第t次迭代的梯度,β1,β2是超参数,一般设置为0.9和0.999,∈是一个很小的数值以防分母为零,一般设置成10-8,mt近似看做是对/>
Figure FDA0004070068010000038
的期望,vt近似看做对/>
Figure FDA0004070068010000039
的期望,而/>
Figure FDA00040700680100000310
和/>
Figure FDA00040700680100000311
则分别是对mt和vt的无偏差估计;
S204利用损失函数Softmax迭代神经网络数次,直至达到最优,所述损失函数Softmax的公式如下:
Figure FDA00040700680100000312
其中,左项是交叉熵代价函数,[f1,f2,…,fK]为网络的输出向量,在本任务中K=5,yi表示为此次迭代中第i个样本所对应的等级密度,右项R(W)是正则项,W表示网络参数,
Figure FDA00040700680100000313
λ是超参数,设置为0.0002。
CN201810408662.0A 2018-04-28 2018-04-28 一种基于双摄头的列车车厢人群密度估计方法 Active CN110414301B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810408662.0A CN110414301B (zh) 2018-04-28 2018-04-28 一种基于双摄头的列车车厢人群密度估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810408662.0A CN110414301B (zh) 2018-04-28 2018-04-28 一种基于双摄头的列车车厢人群密度估计方法

Publications (2)

Publication Number Publication Date
CN110414301A CN110414301A (zh) 2019-11-05
CN110414301B true CN110414301B (zh) 2023-06-23

Family

ID=68357852

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810408662.0A Active CN110414301B (zh) 2018-04-28 2018-04-28 一种基于双摄头的列车车厢人群密度估计方法

Country Status (1)

Country Link
CN (1) CN110414301B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113158780B (zh) * 2021-03-09 2023-10-27 中国科学院深圳先进技术研究院 区域人群密度估计方法、电子设备及存储介质

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103258232B (zh) * 2013-04-12 2015-10-28 中国民航大学 一种基于双摄像头的公共场所人数估算方法
CN104992223B (zh) * 2015-06-12 2018-02-16 安徽大学 基于深度学习的密集人数估计方法
CN106909924B (zh) * 2017-02-18 2020-08-28 北京工业大学 一种基于深度显著性的遥感影像快速检索方法
CN107220657B (zh) * 2017-05-10 2018-05-18 中国地质大学(武汉) 一种面向小数据集的高分辨率遥感影像场景分类的方法
CN107133220B (zh) * 2017-06-07 2020-11-24 东南大学 一种地理学科领域命名实体识别方法
CN107316295A (zh) * 2017-07-02 2017-11-03 苏州大学 一种基于深度神经网络的织物瑕疵检测方法
CN107560849B (zh) * 2017-08-04 2020-02-18 华北电力大学 多通道深度卷积神经网络的风电机组轴承故障诊断方法
CN107944386B (zh) * 2017-11-22 2019-11-22 天津大学 基于卷积神经网络的视觉场景识别方法

Also Published As

Publication number Publication date
CN110414301A (zh) 2019-11-05

Similar Documents

Publication Publication Date Title
CN110443143B (zh) 多分支卷积神经网络融合的遥感图像场景分类方法
CN106845374B (zh) 基于深度学习的行人检测方法及检测装置
CN106096561B (zh) 基于图像块深度学习特征的红外行人检测方法
CN107657226B (zh) 一种基于深度学习的人数估计方法
CN108615226B (zh) 一种基于生成式对抗网络的图像去雾方法
CN109410168B (zh) 用于确定图像中的子图块类别的卷积神经网络的建模方法
CN110276264B (zh) 一种基于前景分割图的人群密度估计方法
CN109829449B (zh) 一种基于超像素时空上下文的rgb-d室内场景标注方法
CN107273905B (zh) 一种结合运动信息的目标主动轮廓跟踪方法
CN111611874B (zh) 基于ResNet和Canny的人脸口罩佩戴检测方法
CN111639564B (zh) 一种基于多注意力异构网络的视频行人重识别方法
CN109376591B (zh) 深度学习特征与视觉特征联合训练的船只目标检测方法
CN109086777B (zh) 一种基于全局像素特征的显著图精细化方法
CN110569782A (zh) 一种基于深度学习目标检测方法
CN108734200B (zh) 基于bing特征的人体目标视觉检测方法和装置
CN106023257A (zh) 一种基于旋翼无人机平台的目标跟踪方法
CN109685045A (zh) 一种运动目标视频跟踪方法及系统
CN110728694B (zh) 一种基于持续学习的长时视觉目标跟踪方法
CN109919223B (zh) 基于深度神经网络的目标检测方法及装置
CN108038515A (zh) 无监督多目标检测跟踪方法及其存储装置与摄像装置
CN114241511B (zh) 一种弱监督行人检测方法、系统、介质、设备及处理终端
CN112818905B (zh) 一种基于注意力和时空信息的有限像素车辆目标检测方法
WO2022218396A1 (zh) 图像处理方法、装置和计算机可读存储介质
CN112347930B (zh) 基于自学习半监督深度神经网络高分影像场景分类方法
CN110827304A (zh) 一种基于深度卷积网络与水平集方法的中医舌像定位方法和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant