CN114445765A - 一种基于编解码结构的人群计数和密度估计方法 - Google Patents

一种基于编解码结构的人群计数和密度估计方法 Download PDF

Info

Publication number
CN114445765A
CN114445765A CN202111619982.9A CN202111619982A CN114445765A CN 114445765 A CN114445765 A CN 114445765A CN 202111619982 A CN202111619982 A CN 202111619982A CN 114445765 A CN114445765 A CN 114445765A
Authority
CN
China
Prior art keywords
crowd
model
density
image
counting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202111619982.9A
Other languages
English (en)
Inventor
黄继风
邹敏
姜康
黄子平
陈海光
林晓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Normal University
Original Assignee
Shanghai Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Normal University filed Critical Shanghai Normal University
Priority to CN202111619982.9A priority Critical patent/CN114445765A/zh
Publication of CN114445765A publication Critical patent/CN114445765A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于编解码结构的人群计数和密度估计方法,包括以下步骤:A、根据人群拥挤场景的监控视频获取人群图像;B、根据人群图像构建训练数据集;C、构建人群计数和密度估计模型;D、采用训练数据集对人群计数和密度估计模型进行训练;E、若模型训练的轮次达到设定的迭代值,则保存模型并执行步骤F,否则,返回步骤D;F、将待预测的人群图像输入训练好的人群计数和密度估计模型中,预测对应的人群数量和密度。与现有技术相比,本发明利用分类网络的多尺度特征提取人群不同尺度的特征信息,有效提升模型的性能;同时能够获得与原图像同等分辨率的预测密度图,有效的估计出区域的人群密度和人群总数量。

Description

一种基于编解码结构的人群计数和密度估计方法
技术领域
本发明涉及公共场所人群监控领域,尤其是涉及一种基于编解码结构的人群计数和密度估计方法。
背景技术
随着近年来旅游业的快速发展,很多公共场所都会存在人群拥挤现象,而过度的人群拥挤可能会发生人群踩踏事件,所以预防公共场所的人群过度拥挤是一项重大的研究工作。目前原始的手段是安排安保人员进行实时监控或是现场调度,或者是事故后调用监控视频进行分析,这种方案效率低下,人力和物力的成本都是非常大的,为了预防人群拥挤现象,进一步避免人群踩踏事件的发生,建立有效的人群计数和密度估计模型,能够帮助我们提前了解公共场所的人群密度,帮助监管部门提前做出预防措施。
在现有的人群计数方案中,主要是检测法和回归法,检测法主要是通过滑动窗口的方式检测行人身体或者身体的某个部位来统计其数量,但这类方法很难检测人群之间存在遮挡的情况;而回归法是通过找到人群图像和人群数量之间的一一映射关系,通过这组映射关系能够预测任意一幅人群图像的人群数量,这类只能进行计数,且易忽视人群的空间分布信息,难以定位到某个行人的具体位置。
随着近年来深度学习的广泛应用,深度学习也逐渐应用至人群计数领域中。这些方法大体可以分为两类:第一类是单列模型方案,其中以CSRNet等为代表的单列模型,虽然能够达到不错的计数效果,但是容易忽视人群的低维特征信息;第二类是特征融合方案,针对多列或者权重图的方式来对不同维度的特征图进行融合,其中以MCNN等为代表的计数模型,这类模型的参数量过大,且会造成参数冗余。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于编解码结构的人群计数和密度估计方法,用以通过视频准确监控人群并预防人群拥挤现象。
本发明的目的可以通过以下技术方案来实现:
一种基于编解码结构的人群计数和密度估计方法,该方法包括以下步骤:
A、根据人群拥挤场景的监控视频获取人群图像;
B、根据人群图像构建训练数据集;
C、构建人群计数和密度估计模型;
D、采用训练数据集对人群计数和密度估计模型进行训练;
E、若模型训练的轮次达到设定的迭代值,则保存模型并执行步骤F,否则,返回步骤D;
F、将待预测的人群图像输入训练好的人群计数和密度估计模型中,预测对应的人群数量和密度。
所述的步骤A具体包括以下步骤:
A1、根据监控设备获取人群拥挤场景的监控视频,并保存至服务器;
A2、将获取的监控视频按照设定的帧数间隔分解成多幅单帧的人群图像保存至服务器中。
所述的步骤B具体包括以下步骤:
B1、标记人群图像中的人头部,记录人头部在当前图像中的坐标,采用固定高斯核或自适应高斯核方法生成真实的人群密度图,作为人群计数和密度估计模型训练的目标对象;
B2、获取当前图像的分辨率,对图像进行裁剪,并且采用图片水平翻转、随机对比度以及随机亮度的方法扩充训练数据集。
所述的步骤B2中,对于拥挤场景采用自适应高斯核方法,其他场景采用固定高斯核方法,自适应高斯核方法的具体表达式为:
Figure BDA0003437612880000021
其中,K为当前人群图像中人头部的总个数,xk表示图像中的第k个人头部坐标,
Figure BDA0003437612880000022
表示距离第k个人头部坐标xk的4个相邻人头部的平均距离,β为常数,σk为高斯核参数,F(x)为生成的人群密度图,当采用固定高斯核方法时,高斯核参数σk则取值常数。
所述的步骤C中,人群计数和密度估计模型由主干网络、特征融合模块和解码器模块构成,所述的主干网络具体为改进分类型网络InceptionV3,所述的改进分类型网络InceptionV3具体是在原有InceptionV3架构基础上,删除了前五个卷积层中的两个最大池化层以及最底层的最大池化层和全连接层,保留五个inception块里所有的卷积层,所述的主干网络中从前五个卷积层引出第一个输出F1并且分别从第一个、第三个和第五个Inception块引出不同维度的第二个输出F2、第三个输出F3和第四个输出F4,则有:
F1,F2,F3,F4=Backbone(X,θI)
其中,Backbone表示改进的InceptionV3主干网络,X表示输入的人群图像,θI表示主干网络的模型待训练参数。
所述的特征融合模块和解码器模块均设有三个,分别对应主干网络的前三个输出F1,F2,F3,所述的第四个输出F4通过一个软着陆模块降维映射后输入到第三个特征融合模块FFM3中,则有:
F4″=Transition(F4t)
其中,F″4表示软着陆模块的输出,Transition表示软着陆模块,θt表示软着陆模块的模型待训练参数;
每个特征融合模块由卷积层和上采样层组成,用以保存低级的人群特征信息,其计算表达式为:
Fi′=FFMi(Fi,F″i+1ffm_i)
其中,Fi′为第i个特征融合模块FFMi的输出,且i=1,2,3,Fi为主干网络第i层的输出,且i=1,2,3,当i=1或2时,F″i+1为第i+1个解码器模块的输出,当i=3时,F″i+1为软着陆模块的输出F4″,θffm_i表示第i个特征融合模块的模型待训练参数;
每个解码器模块由三个不同大小卷积核的卷积层组成,用以获取更精细的密度图,其计算表达式为:
Fi″=FDMi(Fi′,θfdm_i)
其中,Fi″为第i个的解码器模块FDMi的输出,且i=1,2,3,θfdm_i为第i个解码器模块的模型待训练参数。
在第一个特征融合模块FFM1的输出F1″后,通过一个卷积层预测得到最终的人群密度图F,则有:
F=Conv(F1″,θ0)
其中,Conv表示卷积层,θ0为卷积层的模型待训练参数。
所述的步骤D中,对主干网络采用预训练好模型参数进行加载训练,对于除主干网络外的其他部分网络,采用训练数据集进行训练。
所述的步骤D中,训练人群计数和密度估计模型的总损失函数Lloss由人群欧几里得损失函数L(θ)和相对人群损失函数LD(θ)组成,具体表达式为:
Lloss=L(θ)+α*LD(θ)
Figure BDA0003437612880000041
Figure BDA0003437612880000042
其中,θ表示参数模型,N表示训练集中图像的总数量,I(Xj,θ)表示模型预测的人数,Xj表示训练数据集中第j个原始输入图像,
Figure BDA0003437612880000043
表示训练集中第j个人群图片的人数,α为相对人群损失在总损失函数中所占的比。
所述的步骤F具体包括以下步骤:
F1、将待预测的人群图像输入到训练好的人群计数和密度估计模型中,得到预测的人群密度图;
F2、根据预测的人群密度图进行积分的得到人群数量。
与现有技术相比,本发明具有以下优点:
一、本发明对InceptionV3分类网络架构进行改进,将改进后的网络用于人群计数领域,利用改进后分类网络的多尺度特性,对人群特征进行特征提取能够有效提升模型的性能,进一步提升人群计数效率。
二、对于预测一幅人群图像,本发明通过获得与输入图像一样的分辨率的人群密度图,然后进行有效的区域密度估计,并通过积分即可简单快速的计算出图像的总人群数量。
三、在训练好一个模型之后,能够将预测好的模型应用于其他场景,即模型的泛化性能好,一定情况下可以避免不同场景的再次训练问题。
附图说明
图1为本发明中一种基于编解码结构的人群计数和密度估计方法的流程图。
图2为本发明实施例的改进的InceptionV3的网络结构框图。
图3为本发明实施例的软着陆模块结构框图。
图4为本发明构建的人群计数和密度估计模型的总体结构图。
具体实施方式
下面将结合附图和具体实施方式对本发明的具体实施方式做进一步详细描述。以下实施例或者附图用于说明本发明,但不用来限制本发明的范围。
如图1所示,本发明提供一种基于编解码结构的人群计数和密度估计方法,该方法包括以下步骤:
A.根据监控摄像头获得公共场所的人群监控视频,并将其保存至服务器,具体包括以下步骤:
A1.根据监控设备获取人群拥挤场景的监控视频,按照.mp4格式保存至服务器;
A2.将获取的监控视频按照设定的帧数间隔分解成单帧图像保存至服务器中。
B.根据收集到的人群图像制作训练数据集,具体包括以下步骤:
B1.将收集到的人群图像中的人头部标记出来,记录人头部在当前图像中的坐标,并将该图像中所有的人头部坐标保存为.npy文件,然后读取.npy文件并采用固定高斯核和自适应高斯核方法制作真实的人群密度图,作为模型的目标对象(本例中,对于拥挤场景采用自适应高斯核方法,其他场景采用固定高斯核方法)。
B2.获取图像的分辨率,并对图像进行裁剪,每一幅人群图像裁剪出9个256×256大小的图像块,若图像原始分辨率小于256*256,则对原图像采用图片水平翻转、随机对比度以及随机亮度等方法扩充训练数据集。
在步骤B2中,自适应高斯核方法具体为公式(1):
Figure BDA0003437612880000051
其中,K表示当前人群图像中人头部的总个数,xk表示图像中的第k个人头部坐标,
Figure BDA0003437612880000052
表示距离第k个人头部坐标xk的4个相邻人头部的平均距离,β为常数,取值为0.3,σk为高斯核参数,F(x)为生成的人群密度图,当采用固定高斯核方法时,高斯核参数σk则为常数。
C.构建人群计数和密度估计模型,该模型具体为结合特征融合与编解码的卷积神经网络模型,其主干网络采用改进的分类型网络InceptionV3进行自动编码,能够解决人群尺度不一的同时并捕获到不同维度的人群特征语义信息,后端采用特征融合模块与解码器模块联合实现对不同维度的人群特征图进行解码和融合,防止丢失低级的特征信息并获得更为精细的密度图,同时主干网络底层采用一个软着陆模块相连。
在步骤C中,原始的分类型网络InceptionV3由五种inception块和卷积层组成,其中,inception块由卷积层、平均池化层和最大池化层(Max-Pooling)组成,其中,卷积层用于提取特征数据的特征;平均池化层用于减少特征图大小,减少计算量和所需显存;最大池化层用于降采样并加强图像特征的不变形。
如图2和4所示,本发明采用改进后的分类型网络InceptionV3(以3*512*512的输入图像为例,括号内为当前的输出特征图大小),是在原有InceptionV3架构的基础上,删掉了前五个卷积层中的两个最大池化层以及最后的最大池化层和全连接层,保留了inception块里所有的卷积层,从前五个卷积层和三个阶段的Inception块分别引出四个输出,分别输出四个不同维度的特征图,使改进后的模型能够获取不同维度的人群特征信息,具体为公式(2):
F1,F2,F3,F4=Backbone(X,θI) (2)
其中,Fi(i=1,2,3,4)表示主干网络的输出,Backbone表示改进的InceptionV3主干网络,X表示输入的人群图像,θI表示主干网络的模型待训练参数。
特征融合模块由卷积层和上采样层组成,其可以对不同维度和大小的人群特征密度图进行特征融合工作,用以保存低级的人群特征信息,具体为公式(3):
Fi′=FFMi(Fi,F″i+1ffm_i) (3)
其中,F′i(i=1,2,3)表示第i个特征融合模块输出,FFMi表示第i个特征融合模块,Fi表示主干网络第i层的输出,F″i+1表示第i+1个软着陆模块或解码器模块的输出,θffm_i表示第i个特征融合模块的模型待训练参数。
解码器模块由三个不同大小卷积核的卷积层组成(具体为Conv(1×1)-Conv(3×3)-Conv(1×1),Conv代表卷积层,其后的数字代表卷积核的大小),其可以有效的对高维的人群特征信息进行特征解码工作,用于获取更精细的密度图,具体为公式(4):
Fi″=FDMi(Fi′,θfdm_i) (4)
其中,Fi″(i=1,2,3)表示第i个解码器模块输出,FDMi表示第i个解码器模块,F′i表示第i个特征融合模块的输出,θfdm_i表示第i个解码器模块的模型待训练参数。
如图3所示,软着陆模块是由两个卷积层组成(详细为Conv(2048-512-1)-Conv(512-1024-3),其中Conv表示卷积层,其后第一个数字代表输入通道数,第二个数字代表输出通道数,第三个数字代表卷积核大小),用于对主干网络输出的高维特征图到后端网络的维度缓冲作用,将高维特征图映射到较低维的特征图中,具体为公式(5):
F4″=Transition(F4t) (5)
其中,F″4表示软着陆模块的输出,Transition表示软着陆模块,θt表示软着陆模块的模型待训练参数。
将公式(2)(3)(4)(5)联合起来,可获得更为精细的密度图F″1,具体为公式(6):
Figure BDA0003437612880000071
Figure BDA0003437612880000072
根据将密度图F″1置入一个卷积层(输入通道数为64,输出通道数为1,卷积核大小为1)中预测最终的人群密度图F,具体为公式(7):
F=Conv(F1″,θ0) (7)
其中,F表示模型预测最终的人群密度图,Conv表示卷积层,θ0表示卷积层的模型待训练参数。
D.训练步骤C构建的模型,具体包括以下步骤:
D1.对主干网络采用预训练好的模型进行模型参数加载训练;
D2.对于其他部分网络,卷积层采用是均值为0,方差为0.01的随机高斯初始化,将步骤B获取的数据集结合步骤C构建的模型进行训练。
E.在训练过程中,计算模型的总损失函数,损失函数由人群欧几里得损失函数和相对人群损失函数组成,利用总损失函数反复对模型进行训练,直至模型训练的轮次达到指定的迭代值或评价指标达到期望值,则保存模型并执行步骤F,否则,返回步骤D;
人群欧几里得损失函数具体如公式(8)所示:
Figure BDA0003437612880000073
其中,θ表示参数模型,N表示训练集中图像的总数量,I(Xj,θ)表示模型预测的人数,Xj表示训练数据集中第j个原始输入图像,
Figure BDA0003437612880000081
表示训练集中第j个人群图片的人数。
相对人群损失函数具体如公式(9)所示:
Figure BDA0003437612880000082
总损失函数具体如公式(10)所示:
Lloss=L(θ)+α*LD(θ) (10)
其中,α表示相对人群损失在总损失函数中所占的比,本例中α=0.1。
评价指标具体为平均绝对误差(MAE)和平均均方根误差(MSE),具体如公式(11)所示:
Figure BDA0003437612880000083
Figure BDA0003437612880000084
其中,Ntest表示测试集中图像的总数量,
Figure BDA0003437612880000085
表示第j幅测试集图像的人群真实数量,Cj表示预测出的第j幅测试集图像的人群估计数量。
F.将待预测的人群图像输入训练好的模型中,预测对应的人群数量和人群密度,具体包括以下步骤:
F1.将待预测的人群图像输入至训练好的预测模型,预测出人群密度图。
F2.根据预测的人群密度图进行积分可计算出人群数量。
以上所述仅为本发明的具体实施方式,但它不用于限制本发明,在对于本领域的技术人员而言,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均因包含在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (10)

1.一种基于编解码结构的人群计数和密度估计方法,其特征在于,该方法包括以下步骤:
A、根据人群拥挤场景的监控视频获取人群图像;
B、根据人群图像构建训练数据集;
C、构建人群计数和密度估计模型;
D、采用训练数据集对人群计数和密度估计模型进行训练;
E、若模型训练的轮次达到设定的迭代值,则保存模型并执行步骤F,否则,返回步骤D;
F、将待预测的人群图像输入训练好的人群计数和密度估计模型中,预测对应的人群数量和密度。
2.根据权利要求1所述的一种基于编解码结构的人群计数和密度估计方法,其特征在于,所述的步骤A具体包括以下步骤:
A1、根据监控设备获取人群拥挤场景的监控视频,并保存至服务器;
A2、将获取的监控视频按照设定的帧数间隔分解成多幅单帧的人群图像保存至服务器中。
3.根据权利要求1所述的一种基于编解码结构的人群计数和密度估计方法,其特征在于,所述的步骤B具体包括以下步骤:
B1、标记人群图像中的人头部,记录人头部在当前图像中的坐标,采用固定高斯核或自适应高斯核方法生成真实的人群密度图,作为人群计数和密度估计模型训练的目标对象;
B2、获取当前图像的分辨率,对图像进行裁剪,并且采用图片水平翻转、随机对比度以及随机亮度的方法扩充训练数据集。
4.根据权利要求3所述的一种基于编解码结构的人群计数和密度估计方法,其特征在于,所述的步骤B2中,对于拥挤场景采用自适应高斯核方法,其他场景采用固定高斯核方法,自适应高斯核方法的具体表达式为:
Figure FDA0003437612870000011
其中,K为当前人群图像中人头部的总个数,xk表示图像中的第k个人头部坐标,
Figure FDA0003437612870000021
表示距离第k个人头部坐标xk的4个相邻人头部的平均距离,β为常数,σk为高斯核参数,F(x)为生成的人群密度图,当采用固定高斯核方法时,高斯核参数σk则取值常数。
5.根据权利要求1所述的一种基于编解码结构的人群计数和密度估计方法,其特征在于,所述的步骤C中,人群计数和密度估计模型由主干网络、特征融合模块和解码器模块构成,所述的主干网络具体为改进分类型网络InceptionV3,所述的改进分类型网络InceptionV3具体是在原有InceptionV3架构基础上,删除了前五个卷积层中的两个最大池化层以及最底层的最大池化层和全连接层,保留五个inception块里所有的卷积层,所述的主干网络中从前五个卷积层引出第一个输出F1并且分别从第一个、第三个和第五个Inception块引出不同维度的第二个输出F2、第三个输出F3和第四个输出F4,则有:
F1,F2,F3,F4=Backbone(X,θI)
其中,Backbone表示改进的InceptionV3主干网络,X表示输入的人群图像,θI表示主干网络的模型待训练参数。
6.根据权利要求5所述的一种基于编解码结构的人群计数和密度估计方法,其特征在于,所述的特征融合模块和解码器模块均设有三个,分别对应主干网络的前三个输出F1,F2,F3,所述的第四个输出F4通过一个软着陆模块降维映射后输入到第三个特征融合模块FFM3中,则有:
F4″=Transition(F4t)
其中,F4″表示软着陆模块的输出,Transition表示软着陆模块,θt表示软着陆模块的模型待训练参数;
每个特征融合模块由卷积层和上采样层组成,用以保存低级的人群特征信息,其计算表达式为:
Fi′=FFMi(Fi,F″i+1ffm_i)
其中,Fi′为第i个特征融合模块FFMi的输出,且i=1,2,3,Fi为主干网络第i层的输出,且i=1,2,3,当i=1或2时,F″i+1为第i+1个解码器模块的输出,当i=3时,F″i+1为软着陆模块的输出F4″,θffm_i表示第i个特征融合模块的模型待训练参数;
每个解码器模块由三个不同大小卷积核的卷积层组成,用以获取更精细的密度图,其计算表达式为:
Fi″=FDMi(Fi′,θfdm_i)
其中,Fi″为第i个的解码器模块FDMi的输出,且i=1,2,3,θfdm_i为第i个解码器模块的模型待训练参数。
7.根据权利要求6所述的一种基于编解码结构的人群计数和密度估计方法,其特征在于,在第一个特征融合模块FFM1的输出F1″后,通过一个卷积层预测得到最终的人群密度图F,则有:
F=Conv(F1″,θ0)
其中,Conv表示卷积层,θ0为卷积层的模型待训练参数。
8.根据权利要求1所述的一种基于编解码结构的人群计数和密度估计方法,其特征在于,所述的步骤D中,对主干网络采用预训练好模型参数进行加载训练,对于除主干网络外的其他部分网络,采用训练数据集进行训练。
9.根据权利要求8所述的一种基于编解码结构的人群计数和密度估计方法,其特征在于,所述的步骤D中,训练人群计数和密度估计模型的总损失函数Lloss由人群欧几里得损失函数L(θ)和相对人群损失函数LD(θ)组成,具体表达式为:
Lloss=L(θ)+α*LD(θ)
Figure FDA0003437612870000031
Figure FDA0003437612870000032
其中,θ表示参数模型,N表示训练集中图像的总数量,I(Xj,θ)表示模型预测的人数,Xj表示训练数据集中第j个原始输入图像,
Figure FDA0003437612870000033
表示训练集中第j个人群图片的人数,α为相对人群损失在总损失函数中所占的比。
10.根据权利要求1所述的一种基于编解码结构的人群计数和密度估计方法,其特征在于,所述的步骤F具体包括以下步骤:
F1、将待预测的人群图像输入到训练好的人群计数和密度估计模型中,得到预测的人群密度图;
F2、根据预测的人群密度图进行积分的得到人群数量。
CN202111619982.9A 2021-12-23 2021-12-23 一种基于编解码结构的人群计数和密度估计方法 Withdrawn CN114445765A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111619982.9A CN114445765A (zh) 2021-12-23 2021-12-23 一种基于编解码结构的人群计数和密度估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111619982.9A CN114445765A (zh) 2021-12-23 2021-12-23 一种基于编解码结构的人群计数和密度估计方法

Publications (1)

Publication Number Publication Date
CN114445765A true CN114445765A (zh) 2022-05-06

Family

ID=81365161

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111619982.9A Withdrawn CN114445765A (zh) 2021-12-23 2021-12-23 一种基于编解码结构的人群计数和密度估计方法

Country Status (1)

Country Link
CN (1) CN114445765A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116805337A (zh) * 2023-08-25 2023-09-26 天津师范大学 一种基于跨尺度视觉变换网络的人群定位方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116805337A (zh) * 2023-08-25 2023-09-26 天津师范大学 一种基于跨尺度视觉变换网络的人群定位方法
CN116805337B (zh) * 2023-08-25 2023-10-27 天津师范大学 一种基于跨尺度视觉变换网络的人群定位方法

Similar Documents

Publication Publication Date Title
CN109949317B (zh) 基于逐步对抗学习的半监督图像实例分割方法
CN109543695B (zh) 基于多尺度深度学习的泛密度人群计数方法
CN107622258B (zh) 一种结合静态底层特征和运动信息的快速行人检测方法
CN111611878A (zh) 一种基于视频图像的人群计数和未来人流量预测的方法
CN111191667B (zh) 基于多尺度生成对抗网络的人群计数方法
CN111783589B (zh) 基于场景分类和多尺度特征融合的复杂场景人群计数方法
CN109344736A (zh) 一种基于联合学习的静态图像人群计数方法
CN111626116B (zh) 基于融合多注意力机制和Graph的视频语义分析方法
CN106960176B (zh) 一种基于超限学习机和颜色特征融合的行人性别识别方法
CN111563447A (zh) 一种基于密度图的人群密度分析与检测定位方法
CN104320617B (zh) 一种基于深度学习的全天候视频监控方法
CN111709300B (zh) 基于视频图像的人群计数方法
CN110097028B (zh) 基于三维金字塔图像生成网络的人群异常事件检测方法
CN113822185A (zh) 一种群养生猪日常行为检测方法
CN113536972B (zh) 一种基于目标域伪标签的自监督跨域人群计数方法
CN109903339B (zh) 一种基于多维融合特征的视频群体人物定位检测方法
CN111639577A (zh) 一种监控视频多人人脸检测和表情识别方法
CN114821299B (zh) 一种遥感图像变化检测方法
CN106845434A (zh) 一种基于支持向量机的图像型机房漏水监测方法
CN113158983A (zh) 一种基于红外视频序列图像的机场场面活动行为识别方法
CN115346149A (zh) 基于时空图卷积网络的跳绳计数方法和系统
CN111540203B (zh) 基于Faster-RCNN调节绿灯通行时间的方法
CN109492615A (zh) 基于cnn低层语义特征密度图的人群密度估计方法
CN115953736A (zh) 一种基于视频监控与深度神经网络的人群密度估计方法
CN114445765A (zh) 一种基于编解码结构的人群计数和密度估计方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20220506

WW01 Invention patent application withdrawn after publication