CN110263849A - 一种基于多尺度注意力机制的人群密度估计方法 - Google Patents

一种基于多尺度注意力机制的人群密度估计方法 Download PDF

Info

Publication number
CN110263849A
CN110263849A CN201910531606.0A CN201910531606A CN110263849A CN 110263849 A CN110263849 A CN 110263849A CN 201910531606 A CN201910531606 A CN 201910531606A CN 110263849 A CN110263849 A CN 110263849A
Authority
CN
China
Prior art keywords
picture
trained
network model
formula
crowd density
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910531606.0A
Other languages
English (en)
Other versions
CN110263849B (zh
Inventor
郭丹
李坤
汪萌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hefei University of Technology
Original Assignee
Hefei University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hefei University of Technology filed Critical Hefei University of Technology
Priority to CN201910531606.0A priority Critical patent/CN110263849B/zh
Publication of CN110263849A publication Critical patent/CN110263849A/zh
Application granted granted Critical
Publication of CN110263849B publication Critical patent/CN110263849B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于多尺度注意力机制的人群密度估计方法,其步骤包括:1、先从图片提取低维特征;2、使用多尺度空洞卷积来生成丰富的上下文特征;3、通过注意力机制对丰富的上下文特征进行融合;4、根据融合特征生成高清晰人群密度图。本发明能快速准确地识别出图片中的人群区域特征,基于注意力机制可以有效的融合多尺度特征,并提高人群密度估计的准确度。

Description

一种基于多尺度注意力机制的人群密度估计方法
技术领域
本发明属于图像处理、计算机视觉领域,主要涉及一种基于多尺度注意力机制的人群密度估计方法。
背景技术
随着中国的社会不断发展,人们出行也越来越方便,公共场所(如火车站、机场、公交站、地铁站等)往往会产生人群拥挤的现象,拥挤的人群会造成人群骚乱、踩踏事件的发生。公共场所的安全越来越受到重视,因此人群密度统计对预防踩踏事件具有重大意义。人群密度估计是一种智能的图像分析方法,其目的就是估计出拥挤图片中的人群密度和人群数量,是计算机视觉领域中热门的研究课题之一。人群密度估计可应用于公共场所安防监控、人流统计与控制等方面。
随着现代图像处理技术的发展,人群密度估计方法也取得了巨大的发展,但是仍面临以下几点问题:
一:现有的方法中,不能有效的适应人群图片中尺度的变化,因此不能真实的反映出人群的密度分布和人群数量,不利于实际场景中的应用。
例如2016年,Yingying Zhang等作者在顶级国际会议IEEE Conference onComputer Vision and Pattern Recognition上发表的文章《Single-image crowdcounting via multi-column convolutional neural network》提出的一种人群密度估计方法,该方法采用多路具有不同卷积核大小的卷积提取多尺度图像特征,直接将不同尺度拼接在一起实现密度图估计,然而方法并未考虑到不同尺度特征之间是存在差异的,缺乏对多尺度特征的精细处理,使得生成的人群密度不够清晰,从而导致不能准确的估计出人群的密度分布和人群数量。
二:很多多尺度特征融合人群密度估计算法,忽略了密度图中像素之间的重要性,因此不能有效估计人群密度。
例如2018年,Yihong Li等作者在顶级国际会议IEEE Conference onComputerVision and Pattern Recognition发表的文章《CSRNet:Dilated ConvolutionalNeural Networks for Understanding the Highly Congested Scenes》。这篇论文提出使用连续的空洞卷积来融合多尺度特征,但是该方法仅使用了单一尺度的空洞卷积,使得生成人群密度图不够清晰,不能有效的估计人群密度。
发明内容
本发明为解决上述现有方法存在的不足之处,提出了一种基于多尺度注意力机制的人群密度估计方法,以期能生成高清晰的人群密度估计图,并提高人群密度估计的准确性。
本发明为解决方法问题采用如下的方法方案:
本发明一种基于多尺度注意力机制的人群密度估计方法的特点是按如下步骤进行:
步骤1、数据预处理:
步骤1.1、获取人群密度估计数据集,并将所述人群密度估计数据集中的任意一张图片记为Ii,1≤i≤N,N为所述人群密度估计数据集中的图片数目;
对于第i张图片Ii,标定人头位置的坐标集为其中,表示第i张图片Ii中的第j个人头位置坐标,j∈Ni,Ni表示第i张图片Ii中人头位置坐标的总数;
步骤1.2、令第i张图片Ii所对应的标签矩阵记为Mi,且标签矩阵Mi和第i张图片Ii的尺寸相同,若第i张图片Ii中的像素点为人头位置的像素点,则将标签矩阵Mi中相应像素点设置为1,反之设置为0;
步骤1.3、对第i张标签矩阵Mi进行归一化高斯卷积操作,得到第i张图片Ii对应的密度图Yi,从而获得所述人群密度估计数据集中每张图片所对应的密度图;
步骤1.4、对第i张图片Ii和对应的密度图Yi随机截取相同位置上的m张大小为k×k的区域,从而对所述人群密度估计数据集中所有的图片及其对应的密度图进行截取操作,并构成网络模型的训练数据集;
步骤2、网络模型训练:
步骤2.1、建立网络模型为Y=F(I,ξ),I为输入所述网络模型的图片,ξ为所述网络模型的参数,Y为所述网络模型输出的密度图;
定义当前训练次数为t,并初始化t=1;令第t次训练时网络模型的参数为ξt
步骤2.2、采用VGGNet-16网络的前10层作为第t次训练时的特征提取器将所述训练数据集中m×N个图片区域及其对应的密度图区域以数目B为批次依次输入所述第t次训练时的特征提取器中进行处理,从而依次提取到B×m个低维特征,进而得到第t次训练时的m×N个低维特征
步骤2.3、利用式(1)所示的多尺度空洞卷积提取所述第t次训练时的低维特征中第r个尺度上下文特征其中,H×W×ch表示第r个尺度上下文特征的维度:
式(1)中,r=[r1,r2,…,rn],rn表示第n种尺度,表示膨胀率为r的空洞卷积操作;
步骤2.4、利用式(2)计算第t次训练时第r个尺度上下文特征的信息特征图
式(2)中,Sigmoid(·)表示Sigmoid激活函数,表示第t次训练时第r个尺度上卷积核为1×1的卷积操作;
步骤2.5、利用式(3)对第t次训练时的信息特征图进行归一化处理,得到第t次训练时第r个尺度上下文特征对应的二维注意力图
式(3)中,“./”表示点除运算;
步骤2.6、利用式(4)对不同尺度的特征进行融合,从而得到第t次训练时的融合特征
式(4)中,⊙表示点乘运算,H×W×ch表示融合特征的维度大小;
步骤2.7、利用式(5)所示的第t次训练时的可变核密度图估计器对融合特征进行解码,得到第t次训练时预测的人群密度图Yt
式(5)中,第t次训练时的可变核密度图估计器由m个卷积层构成,且前m-1个卷积层的卷积操作为可变核卷积,第m个卷积层为卷积核大小为1×1的单通道卷积操作;
步骤2.8、对所述第t次训练时的人群密度图Yt中所有像素点进行求和,从而得到第t次训练时估计的人数;
步骤2.9、利用式(6)计算第t次训练时人群密度与真实的人群密度之间误差Loss(ξt),并作为所述网络模型的损失函数:
式(6)中,I′p为训练数据集中第p张图片区域,Y′p为第p张图片区域I′p对应的密度图区域;
步骤2.10、判断所述第t次训练时的误差Loss(ξt),是否收敛,若收敛,则表示所述第t次训练时网络模型的参数ξt为最优参数ξ*,并以最优参数ξ*所对应的网络模型作为最终用于估计人群密度的模型;否则,对所述网络模型进行第t次梯度反向传播,从而更新第t次训练时网络模型的参数ξt,得到更新后的网络模型参数记为ξt+1,再执行步骤2.11;
步骤2.11、将t+1赋值给t,返回步骤2.2顺序执行。
与现有的技术相比,本发明有益效果体现在:
1、本发明使用空洞卷积和多尺度注意力机制,不同的注意力图可以学习到不同尺度特征间的感兴趣区域,提高了人群密度估计的准确性。
2、本发明中的网络模型具有能学习不同尺度特征的能力,因此具有良好的鲁棒性,能够适应实际应用中的真实情景(如:人群图片中的噪音,人群遮挡等)。
3、本发明使用可变核卷积进行特征的解码,可以生成高质量的人群密度图,能更好反映出人群分布和人群数量。
附图说明
图1为本发明的网络模型示意图;
图2为本发明的网络模型训练示意图;
图3为本发明的多尺度注意力机制特征融合示意图。
具体实施方式
本实施例中,一种基于多尺度注意力机制的人群密度估计方法是按如下步骤进行:
步骤1、数据预处理:
步骤1.1、从网上获取人群密度估计数据集,网上公开的人群密度数据集主要有:
1)ShanghaiTech Dataset,这个数据集分为A,B两部分,A部分的图片来源于网上,B部分的图片来源于上海的街头。
2)UCF_CC_50,这个数据集是佛罗里达大学制作的人群密度估计的数据集。
3)UCF_QNRF Dataset,这个数据集是目前图片质量最高,人头标记数量最多的人群密度估计数据集。
并将人群密度估计数据集中的任意一张图片记为Ii,1≤i≤N,N为人群密度估计数据集中的图片数目;对于第i张图片Ii,标定人头位置的坐标集为其中,表示第i张图片Ii中的第j个人头位置坐标,j∈Ni,Ni表示第i张图片Ii中人头位置坐标的总数;
步骤1.2、令第i张图片Ii所对应的标签矩阵记为Mi,且标签矩阵Mi和第i张图片Ii的尺寸相同,若第i张图片Ii中的像素点为人头位置的像素点,则将标签矩阵Mi中相应像素点设置为1,反之设置为0;
步骤1.3、对第i张标签矩阵Mi进行归一化高斯卷积操作,得到第i张图片Ii对应的密度图Yi,从而获得人群密度估计数据集中每张图片所对应的密度图;对于所有使用的人群密度估计数据集,归一化高斯卷积操作均是卷积核大小为15,标准差为4。
步骤1.4、对第i张图片Ii和对应的密度图Yi随机截取相同位置上的4张大小为256×256的区域,从而对人群密度估计数据集中所有的图片及其对应的密度图进行截取操作,并构成网络模型的训练数据集;
步骤2、如图2所示,对网络模型训练:
步骤2.1、如图1所示,建立人群密度估计的网络模型,网络模型为Y=F(I,ξ),I为输入网络模型的图片,ξ为网络模型的参数,Y为网络模型输出的密度图;初始化网络模型F(,),将卷积核的标准差设置为0.01的高斯核初始化,偏置设置为0;
定义当前训练次数为t,并初始化t=1;令第t次训练时网络模型的参数为ξt
步骤2.2、采用VGGNet-16网络的前10层作为第t次训练时的特征提取器将训练数据集中4N个图片区域及其对应的密度图区域以数目40为批次依次输入第t次训练时的特征提取器中进行处理,从而依次提取到4B个低维特征,进而得到第t次训练时的4N个低维特征
步骤2.3、如图3所示,利用式(1)所示的多尺度空洞卷积提取第t次训练时的低维特征中第r个尺度上下文特征其中,H×W×ch表示第r个尺度上下文特征的维度:
式(1)中,r=[1,3,6,9],rn表示第n种尺度,表示膨胀率为r的空洞卷积操作,的过滤器的个数设置为512;
步骤2.4、利用式(2)计算第t次训练时第r个尺度上下文特征的信息特征图
式(2)中,Sigmoid(·)表示Sigmoid激活函数,表示第t次训练时第r个尺度上卷积核为1×1的卷积操作;
步骤2.5、利用式(3)对第t次训练时的信息特征图进行归一化处理,得到第t次训练时第r个尺度上下文特征对应的二维注意力图
式(3)中,“./”表示点除运算;
步骤2.6、利用式(4)对不同尺度的特征进行融合,从而得到第t次训练时的融合特征
式(4)中,⊙表示点乘运算,H×W×ch表示融合特征的维度大小;
步骤2.7、利用式(5)所示的第t次训练时的可变核密度图估计器对融合特征进行解码,得到第t次训练时预测的人群密度图Yt
式(5)中,第t次训练时的可变核密度图估计器由4个卷积层构成,且前3个卷积层的卷积操作为可变核卷积,第4个卷积层为卷积核大小为1×1的单通道卷积操作;
步骤2.8、对第t次训练时的人群密度图Yt中所有像素点进行求和,从而得到第t次训练时估计的人数;
步骤2.9、利用式(6)计算第t次训练时人群密度与真实的人群密度之间误差Loss(ξt),并作为网络模型的损失函数:
式(6)中,I′p为训练数据集中第p张图片区域,Y′p为I′p对应的密度图区域;
步骤2.10、判断第t次训练时的误差Loss(ξt),是否收敛,若收敛,则表示第t次训练时网络模型的参数ξt为最优参数ξ*,并以最优参数ξ*所对应的网络模型作为最终用于估计人群密度的模型;否则,对网络模型进行第t次梯度反向传播,从而更新第t次训练时网络模型的参数ξt,得到更新后的网络模型参数记为ξt+1,再执行步骤2.11;
步骤2.11、将t+1赋值给t,返回步骤2.2顺序执行。

Claims (1)

1.一种基于多尺度注意力机制的人群密度估计方法,其特征是按如下步骤进行:
步骤1、数据预处理:
步骤1.1、获取人群密度估计数据集,并将所述人群密度估计数据集中的任意一张图片记为Ii,1≤i≤N,N为所述人群密度估计数据集中的图片数目;
对于第i张图片Ii,标定人头位置的坐标集为其中,表示第i张图片Ii中的第j个人头位置坐标,j∈Ni,Ni表示第i张图片Ii中人头位置坐标的总数;
步骤1.2、令第i张图片Ii所对应的标签矩阵记为Mi,且标签矩阵Mi和第i张图片Ii的尺寸相同,若第i张图片Ii中的像素点为人头位置的像素点,则将标签矩阵Mi中相应像素点设置为1,反之设置为0;
步骤1.3、对第i张标签矩阵Mi进行归一化高斯卷积操作,得到第i张图片Ii对应的密度图Yi,从而获得所述人群密度估计数据集中每张图片所对应的密度图;
步骤1.4、对第i张图片Ii和对应的密度图Yi随机截取相同位置上的m张大小为k×k的区域,从而对所述人群密度估计数据集中所有的图片及其对应的密度图进行截取操作,并构成网络模型的训练数据集;
步骤2、网络模型训练:
步骤2.1、建立网络模型为Y=F(I,ξ),I为输入所述网络模型的图片,ξ为所述网络模型的参数,Y为所述网络模型输出的密度图;
定义当前训练次数为t,并初始化t=1;令第t次训练时网络模型的参数为ξt
步骤2.2、采用VGGNet-16网络的前10层作为第t次训练时的特征提取器将所述训练数据集中m×N个图片区域及其对应的密度图区域以数目B为批次依次输入所述第t次训练时的特征提取器中进行处理,从而依次提取到B×m个低维特征,进而得到第t次训练时的m×N个低维特征
步骤2.3、利用式(1)所示的多尺度空洞卷积提取所述第t次训练时的低维特征中第r个尺度上下文特征其中,H×W×ch表示第r个尺度上下文特征的维度:
式(1)中,r=[r1,r2,…,rn],rn表示第n种尺度,表示膨胀率为r的空洞卷积操作;
步骤2.4、利用式(2)计算第t次训练时第r个尺度上下文特征的信息特征图
式(2)中,Sigmoid(·)表示Sigmoid激活函数,表示第t次训练时第r个尺度上卷积核为1×1的卷积操作;
步骤2.5、利用式(3)对第t次训练时的信息特征图进行归一化处理,得到第t次训练时第r个尺度上下文特征对应的二维注意力图
式(3)中,“./”表示点除运算;
步骤2.6、利用式(4)对不同尺度的特征进行融合,从而得到第t次训练时的融合特征
式(4)中,⊙表示点乘运算,H×W×ch表示融合特征的维度大小;
步骤2.7、利用式(5)所示的第t次训练时的可变核密度图估计器对融合特征进行解码,得到第t次训练时预测的人群密度图Yt
式(5)中,第t次训练时的可变核密度图估计器由m个卷积层构成,且前m-1个卷积层的卷积操作为可变核卷积,第m个卷积层为卷积核大小为1×1的单通道卷积操作;
步骤2.8、对所述第t次训练时的人群密度图Yt中所有像素点进行求和,从而得到第t次训练时估计的人数;
步骤2.9、利用式(6)计算第t次训练时人群密度与真实的人群密度之间误差Loss(ξt),并作为所述网络模型的损失函数:
式(6)中,I′p为训练数据集中第p张图片区域,Y′p为第p张图片区域I′p对应的密度图区域;
步骤2.10、判断所述第t次训练时的误差Loss(ξt),是否收敛,若收敛,则表示所述第t次训练时网络模型的参数ξt为最优参数ξ*,并以最优参数ξ*所对应的网络模型作为最终用于估计人群密度的模型;否则,对所述网络模型进行第t次梯度反向传播,从而更新第t次训练时网络模型的参数ξt,得到更新后的网络模型参数记为ξt+1,再执行步骤2.11;
步骤2.11、将t+1赋值给t,返回步骤2.2顺序执行。
CN201910531606.0A 2019-06-19 2019-06-19 一种基于多尺度注意力机制的人群密度估计方法 Active CN110263849B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910531606.0A CN110263849B (zh) 2019-06-19 2019-06-19 一种基于多尺度注意力机制的人群密度估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910531606.0A CN110263849B (zh) 2019-06-19 2019-06-19 一种基于多尺度注意力机制的人群密度估计方法

Publications (2)

Publication Number Publication Date
CN110263849A true CN110263849A (zh) 2019-09-20
CN110263849B CN110263849B (zh) 2021-03-09

Family

ID=67919362

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910531606.0A Active CN110263849B (zh) 2019-06-19 2019-06-19 一种基于多尺度注意力机制的人群密度估计方法

Country Status (1)

Country Link
CN (1) CN110263849B (zh)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110837786A (zh) * 2019-10-30 2020-02-25 汇纳科技股份有限公司 基于空间通道的密度图产生方法、装置、电子终端及介质
CN110852267A (zh) * 2019-11-11 2020-02-28 复旦大学 基于光流融合型深度神经网络的人群密度估计方法及装置
CN111071298A (zh) * 2019-12-30 2020-04-28 湖南酷客轨道装备有限公司 一种轨道交通用客流智能引导系统
CN111401163A (zh) * 2020-03-04 2020-07-10 南京林业大学 基于多尺度注意力感知卷积网络的目标数量统计方法
CN111507183A (zh) * 2020-03-11 2020-08-07 杭州电子科技大学 一种基于多尺度密度图融合空洞卷积的人群计数方法
CN111523449A (zh) * 2020-04-22 2020-08-11 山东师范大学 基于金字塔注意力网络的人群计数方法及系统
CN111626184A (zh) * 2020-05-25 2020-09-04 齐鲁工业大学 一种人群密度估计方法及系统
CN111709290A (zh) * 2020-05-18 2020-09-25 杭州电子科技大学 基于编解码-跳跃连接尺度金字塔网络的人群计数方法
CN111783589A (zh) * 2020-06-23 2020-10-16 西北工业大学 基于场景分类和多尺度特征融合的复杂场景人群计数方法
CN112001274A (zh) * 2020-08-06 2020-11-27 腾讯科技(深圳)有限公司 人群密度确定方法、装置、存储介质和处理器
CN112132023A (zh) * 2020-09-22 2020-12-25 上海应用技术大学 基于多尺度上下文增强网络的人群计数方法
CN112133087A (zh) * 2020-08-12 2020-12-25 苏州思扬智慧科技有限公司 一种轨道交通智慧客流分析与导引系统及其客流分析与导引的方法
CN112541459A (zh) * 2020-12-21 2021-03-23 山东师范大学 基于多尺度感知注意力网络的人群计数方法及系统
CN112541891A (zh) * 2020-12-08 2021-03-23 山东师范大学 一种基于空洞卷积高分辨率网络的人群计数方法及系统
CN112597964A (zh) * 2020-12-30 2021-04-02 上海应用技术大学 分层多尺度人群计数的方法
CN112784685A (zh) * 2020-12-28 2021-05-11 山东师范大学 基于多尺度引导注意力机制网络的人群计数方法及系统
CN112966600A (zh) * 2021-03-04 2021-06-15 上海应用技术大学 用于拥挤人群计数的自适应多尺度上下文聚合方法
CN113762009A (zh) * 2020-11-18 2021-12-07 四川大学 一种基于多尺度特征融合及双注意力机制的人群计数方法

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150063629A1 (en) * 2013-08-29 2015-03-05 Digitalglobe, Inc. Generation of high resolution population density estimation cells through exploitation of high resolution satellite image data and low resolution population density data sets
CN106326937A (zh) * 2016-08-31 2017-01-11 郑州金惠计算机系统工程有限公司 基于卷积神经网络的人群密度分布估计方法
US20170103264A1 (en) * 2014-06-24 2017-04-13 Sportlogiq Inc. System and Method for Visual Event Description and Event Analysis
US20180005071A1 (en) * 2013-06-25 2018-01-04 University Of Central Florida Research Foundation, Inc. Multi-Source, Multi-Scale Counting in Dense Crowd Images
US20180107893A1 (en) * 2014-04-29 2018-04-19 International Business Machines Corporation Extracting motion saliency features from video using a neurosynaptic system
CN108596054A (zh) * 2018-04-10 2018-09-28 上海工程技术大学 一种基于多尺度全卷积网络特征融合的人群计数方法
CN108710830A (zh) * 2018-04-20 2018-10-26 浙江工商大学 一种结合密集连接注意力金字塔残差网络和等距限制的人体3d姿势估计方法
CN108717528A (zh) * 2018-05-15 2018-10-30 苏州平江历史街区保护整治有限责任公司 一种基于深度网络的多策略全局人群分析方法
CN109271960A (zh) * 2018-10-08 2019-01-25 燕山大学 一种基于卷积神经网络的人数统计方法
CN109543695A (zh) * 2018-10-26 2019-03-29 复旦大学 基于多尺度深度学习的泛密度人群计数方法
CN109635763A (zh) * 2018-12-19 2019-04-16 燕山大学 一种人群密度估计方法
CN109815867A (zh) * 2019-01-14 2019-05-28 东华大学 一种人群密度估计和人流量统计方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180005071A1 (en) * 2013-06-25 2018-01-04 University Of Central Florida Research Foundation, Inc. Multi-Source, Multi-Scale Counting in Dense Crowd Images
US20150063629A1 (en) * 2013-08-29 2015-03-05 Digitalglobe, Inc. Generation of high resolution population density estimation cells through exploitation of high resolution satellite image data and low resolution population density data sets
US20180107893A1 (en) * 2014-04-29 2018-04-19 International Business Machines Corporation Extracting motion saliency features from video using a neurosynaptic system
US20170103264A1 (en) * 2014-06-24 2017-04-13 Sportlogiq Inc. System and Method for Visual Event Description and Event Analysis
CN106326937A (zh) * 2016-08-31 2017-01-11 郑州金惠计算机系统工程有限公司 基于卷积神经网络的人群密度分布估计方法
CN108596054A (zh) * 2018-04-10 2018-09-28 上海工程技术大学 一种基于多尺度全卷积网络特征融合的人群计数方法
CN108710830A (zh) * 2018-04-20 2018-10-26 浙江工商大学 一种结合密集连接注意力金字塔残差网络和等距限制的人体3d姿势估计方法
CN108717528A (zh) * 2018-05-15 2018-10-30 苏州平江历史街区保护整治有限责任公司 一种基于深度网络的多策略全局人群分析方法
CN109271960A (zh) * 2018-10-08 2019-01-25 燕山大学 一种基于卷积神经网络的人数统计方法
CN109543695A (zh) * 2018-10-26 2019-03-29 复旦大学 基于多尺度深度学习的泛密度人群计数方法
CN109635763A (zh) * 2018-12-19 2019-04-16 燕山大学 一种人群密度估计方法
CN109815867A (zh) * 2019-01-14 2019-05-28 东华大学 一种人群密度估计和人流量统计方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JIANG LIU等: "DecideNet: Counting Varying Density Crowds Through Attention Guided Detection and Density Estimation", 《2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *
MOHAMMAD ASIFUL HOSSAIN等: "Crowd Counting Using Scale-Aware Attention Networks", 《2019 IEEE WINTER CONFERENCE ON APPLICATIONS OF COMPUTER VISION》 *
赵传强等: "面向密集人群计数的两列串行空洞卷积神经网络", 《电脑知识与技术》 *

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110837786B (zh) * 2019-10-30 2022-07-08 汇纳科技股份有限公司 基于空间通道的密度图产生方法、装置、电子终端及介质
CN110837786A (zh) * 2019-10-30 2020-02-25 汇纳科技股份有限公司 基于空间通道的密度图产生方法、装置、电子终端及介质
CN110852267A (zh) * 2019-11-11 2020-02-28 复旦大学 基于光流融合型深度神经网络的人群密度估计方法及装置
CN110852267B (zh) * 2019-11-11 2022-06-14 复旦大学 基于光流融合型深度神经网络的人群密度估计方法及装置
CN111071298A (zh) * 2019-12-30 2020-04-28 湖南酷客轨道装备有限公司 一种轨道交通用客流智能引导系统
CN111401163A (zh) * 2020-03-04 2020-07-10 南京林业大学 基于多尺度注意力感知卷积网络的目标数量统计方法
CN111401163B (zh) * 2020-03-04 2022-04-15 南京林业大学 基于多尺度注意力感知卷积网络的目标数量统计方法
CN111507183B (zh) * 2020-03-11 2021-02-02 杭州电子科技大学 一种基于多尺度密度图融合空洞卷积的人群计数方法
CN111507183A (zh) * 2020-03-11 2020-08-07 杭州电子科技大学 一种基于多尺度密度图融合空洞卷积的人群计数方法
CN111523449A (zh) * 2020-04-22 2020-08-11 山东师范大学 基于金字塔注意力网络的人群计数方法及系统
CN111709290A (zh) * 2020-05-18 2020-09-25 杭州电子科技大学 基于编解码-跳跃连接尺度金字塔网络的人群计数方法
CN111626184A (zh) * 2020-05-25 2020-09-04 齐鲁工业大学 一种人群密度估计方法及系统
CN111626184B (zh) * 2020-05-25 2022-04-15 齐鲁工业大学 一种人群密度估计方法及系统
CN111783589A (zh) * 2020-06-23 2020-10-16 西北工业大学 基于场景分类和多尺度特征融合的复杂场景人群计数方法
CN112001274B (zh) * 2020-08-06 2023-11-17 腾讯科技(深圳)有限公司 人群密度确定方法、装置、存储介质和处理器
CN112001274A (zh) * 2020-08-06 2020-11-27 腾讯科技(深圳)有限公司 人群密度确定方法、装置、存储介质和处理器
CN112133087A (zh) * 2020-08-12 2020-12-25 苏州思扬智慧科技有限公司 一种轨道交通智慧客流分析与导引系统及其客流分析与导引的方法
CN112132023A (zh) * 2020-09-22 2020-12-25 上海应用技术大学 基于多尺度上下文增强网络的人群计数方法
CN112132023B (zh) * 2020-09-22 2024-05-17 上海应用技术大学 基于多尺度上下文增强网络的人群计数方法
CN113762009A (zh) * 2020-11-18 2021-12-07 四川大学 一种基于多尺度特征融合及双注意力机制的人群计数方法
CN113762009B (zh) * 2020-11-18 2023-06-16 四川大学 一种基于多尺度特征融合及双注意力机制的人群计数方法
CN112541891A (zh) * 2020-12-08 2021-03-23 山东师范大学 一种基于空洞卷积高分辨率网络的人群计数方法及系统
CN112541459A (zh) * 2020-12-21 2021-03-23 山东师范大学 基于多尺度感知注意力网络的人群计数方法及系统
CN112784685A (zh) * 2020-12-28 2021-05-11 山东师范大学 基于多尺度引导注意力机制网络的人群计数方法及系统
CN112784685B (zh) * 2020-12-28 2022-08-26 山东师范大学 基于多尺度引导注意力机制网络的人群计数方法及系统
CN112597964B (zh) * 2020-12-30 2021-10-22 上海应用技术大学 分层多尺度人群计数的方法
CN112597964A (zh) * 2020-12-30 2021-04-02 上海应用技术大学 分层多尺度人群计数的方法
CN112966600A (zh) * 2021-03-04 2021-06-15 上海应用技术大学 用于拥挤人群计数的自适应多尺度上下文聚合方法
CN112966600B (zh) * 2021-03-04 2024-04-16 上海应用技术大学 用于拥挤人群计数的自适应多尺度上下文聚合方法

Also Published As

Publication number Publication date
CN110263849B (zh) 2021-03-09

Similar Documents

Publication Publication Date Title
CN110263849A (zh) 一种基于多尺度注意力机制的人群密度估计方法
CN109829443B (zh) 基于图像增强与3d卷积神经网络的视频行为识别方法
CN109543695B (zh) 基于多尺度深度学习的泛密度人群计数方法
CN105512624B (zh) 一种人脸图像的笑脸识别方法及其装置
CN108921822A (zh) 基于卷积神经网络的图像目标计数方法
CN109815867A (zh) 一种人群密度估计和人流量统计方法
CN104992223A (zh) 基于深度学习的密集人数估计方法
CN105426850A (zh) 一种基于人脸识别的关联信息推送设备及方法
CN109874053A (zh) 基于视频内容理解和用户动态兴趣的短视频推荐方法
Peng et al. Rgb-t crowd counting from drone: A benchmark and mmccn network
CN108960404B (zh) 一种基于图像的人群计数方法及设备
CN111783589B (zh) 基于场景分类和多尺度特征融合的复杂场景人群计数方法
CN106960176B (zh) 一种基于超限学习机和颜色特征融合的行人性别识别方法
CN108280397A (zh) 基于深度卷积神经网络的人体图像头发检测方法
CN108921119A (zh) 一种障碍物实时检测和分类方法
CN111626116A (zh) 基于融合多注意力机制和Graph的视频语义分析方法
CN108983980A (zh) 一种移动机器人基本运动手势控制方法
TW201308254A (zh) 適用複雜場景的移動偵測方法
CN113963032A (zh) 一种融合目标重识别的孪生网络结构目标跟踪方法
CN103336835A (zh) 基于权值color-sift特征字典的图像检索方法
CN112487981A (zh) 基于双路分割的ma-yolo动态手势快速识别方法
CN110096991A (zh) 一种基于卷积神经网络的手语识别方法
CN115937758A (zh) 一种基于多尺度动态图卷积的弱监督人群计数方法
CN113808166B (zh) 基于聚类差分和深度孪生卷积神经网络的单目标跟踪方法
CN108009512A (zh) 一种基于卷积神经网络特征学习的人物再识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant