CN114973112B - 一种基于对抗学习网络的尺度自适应密集人群计数方法 - Google Patents

一种基于对抗学习网络的尺度自适应密集人群计数方法 Download PDF

Info

Publication number
CN114973112B
CN114973112B CN202110189510.8A CN202110189510A CN114973112B CN 114973112 B CN114973112 B CN 114973112B CN 202110189510 A CN202110189510 A CN 202110189510A CN 114973112 B CN114973112 B CN 114973112B
Authority
CN
China
Prior art keywords
target detection
loss function
branch
network
density map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110189510.8A
Other languages
English (en)
Other versions
CN114973112A (zh
Inventor
严华
陈欣钥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan University
Original Assignee
Sichuan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan University filed Critical Sichuan University
Priority to CN202110189510.8A priority Critical patent/CN114973112B/zh
Publication of CN114973112A publication Critical patent/CN114973112A/zh
Application granted granted Critical
Publication of CN114973112B publication Critical patent/CN114973112B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于对抗学习网络的尺度自适应密集人群计数方法。密集人群计数普遍存在两大难题:一是对象的尺度变化大;二是可使用的数据集的规模小。为了解决这两个难题,本发明提出了以下技术方案:首先,构建对抗学习网络ASANet,使密集人群计数与目标检测形成博弈关系;然后,输入图像经过多层次的特征融合模块和多尺度的膨胀卷积模块后,提取出多层次多尺度的特征,再经过上采样层输出预测密度图,同时由回归器输出目标检测框;然后,基于预测密度图,联合使用归一化的欧几里得距离损失函数和对抗损失函数对网络ASANet进行训练,同时基于目标检测框,使用Focal损失函数对网络ASANet进行训练。实验结果表明,本发明方法能够有效地进行密集人群计数。

Description

一种基于对抗学习网络的尺度自适应密集人群计数方法
技术领域
本发明涉及一种计算机视觉技术领域的密集人群计数方法,具体涉及一种基于对抗学习网络的尺度自适应密集人群计数方法。
背景技术
密集人群计数旨在自动估计图像或视频中的人数。近年来,随着密集人群计数任务中的人群密度不断增大且场景复杂化,大量的密集人群计数方法涌现出来。密集人群计数可以应用在很多实际任务中,比如人流量监测、交通管控和空间设计等,所以人群计数任务具有很大的研究价值。
现有的密集人群计数方法分为传统方法和深度学习方法,传统方法包括基于检测的方法和基于回归的方法。基于检测的人群计数方法大多采用滑动窗口来检测行人并计数,它们通常是利用从行人身上提取到的小波、HOG、边缘等低级特征来检测行人。但基于检测的方法仅在稀疏人群场景中取得了较好的效果,根本无法处理密集人群场景。因为密集人群场景中存在着严重的遮挡现象,所以无法通过滑动窗口检测到行人的整体特征。虽然前人提出了具有低阈值的头部滤波器,可以通过检测图像中的人头来检测行人,从而减轻了人群遮挡对人群计数任务造成的影响,但基于检测的方法始终依赖于对物体的准确检测和分割,所以此算法仍然无法应对高密度人群场景中存在的严重的遮挡现象。基于回归的人群计数方法的中心思想是建立一种从特征到人群数量的映射关系,其实现步骤分为两步:(1)从图像中提取有效的低级特征,比如边缘、前景、纹理等特征。(2)根据提取到的低级特征,通过回归模型计算人群数量。基于回归的方法虽然可以解决密集场景,但忽略了对象的位置信息。
深度学习方法包括基于卷积神经网络(CNN)的方法,由于CNN被成功地应用于分类和识别任务中,所以近年来CNN被引入密集人群计数领域,其对非线性关系有着强大的学习能力,因此非常适合于密集人群计数。目前,针对单帧图像的密集人群计数仍存在两大研究难点:一是图像中存在较大范围的尺度变化,对特征提取造成了极大的困难;二是可使用的密集人群计数数据集的规模太小,导致训练得到的模型通常只适应特定场景。
发明内容
本发明的目的是为了解决密集人群计数中对象的尺度变化和训练样本少的问题。本发明提出的多层次特征融合模块和多尺度膨胀卷积模块,通过融合多层次多尺度的特征图,解决了尺度变化的问题,同时提出的对抗学习模型利用博弈思想,引入目标检测,与密集人群计数形成对抗学习结构,从而解决了训练样本少的问题。
为了达到上述发明目的,本发明采用的技术方案为:一种基于对抗学习网络的尺度自适应密集人群计数方法,包括以下步骤:
(1)通过构建对抗学习网络ASANet,密集人群计数与目标检测形成博弈关系,两者在训练过程中自动更新进化;
(2)将密集人群计数的RGB图像输入密集人群计数分支的特征提取器,输出多层次多尺度的特征图,再经过四倍上采样,输出高质量的预测密度图,同时将目标检测的RGB图像输入目标检测分支的特征提取器,输出多层次多尺度的特征图,再经过回归器,输出目标检测框坐标;
(3)将密集人群计数和目标检测的RGB图像同时输入共享分支的特征提取器,输出两个多层次多尺度的特征图,再由鉴别器鉴别两个特征图是源于密集人群计数还是目标检测的图像;
(4)基于步骤(2)中得到的密度图,联合使用归一化的欧几里得距离损失函数和对抗损失函数对网络ASANet进行训练;基于步骤(2)中得到的目标检测框坐标,使用Focal损失函数对网络ASANet进行训练;
(5)将测试图像输入经过步骤(4)训练后的网络ASANet,输出具有与输入图像相同分辨率的预测密度图,再用平均绝对误差和均方误差对网络进行评估。
附图说明
图1是本发明实施例中尺度自适应对抗学习网络ASANet结构示意图。
图2是本发明实施例中多层次特征融合模块FFB结构示意图。
图3是本发明实施例中多尺度膨胀卷积模块SDCB结构示意图。
图4是本发明的预测密度图示意图。
具体实施方式
下面结合实施例对本发明作进一步的详细说明,有必要指出的是,以下的实施例只用于对本发明做进一步的说明,不能理解为对本发明保护范围的限制,所属领域技术熟悉人员根据上述发明内容,对本发明做出一些非本质的改进和调整进行具体实施,应仍属于本发明的保护范围。
本发明提出了一种基于对抗学习网络的尺度自适应密集人群计数方法,包括以下步骤:
(1)通过构建对抗学习网络ASANet,密集人群计数与目标检测形成博弈关系,两者在训练过程中自动更新进化;
(2)将密集人群计数的RGB图像输入密集人群计数分支的特征提取器,输出多层次多尺度的特征图,再经过四倍上采样,输出高质量的预测密度图,同时将目标检测的RGB图像输入目标检测分支的特征提取器,输出多层次多尺度的特征图,再经过回归器,输出目标检测框坐标;
(3)将密集人群计数和目标检测的RGB图像同时输入共享分支的特征提取器,输出两个多层次多尺度的特征图,再由鉴别器鉴别两个特征图是源于密集人群计数还是目标检测的图像;
(4)基于步骤(2)中得到的密度图,联合使用归一化的欧几里得距离损失函数和对抗损失函数对网络ASANet进行训练;基于步骤(2)中得到的目标检测框坐标,使用Focal损失函数对网络ASANet进行训练;
(5)将测试图像输入经过步骤(4)训练后的网络ASANet,输出具有与输入图像相同分辨率的预测密度图,再用平均绝对误差和均方误差对网络进行评估。
具体地,所述步骤(1)中,构建对抗学习网络ASANet,其结构如图1所示,包括一个密集人群计数分支CCPB,一个目标检测分支ODPB和一个共享分支。
所述步骤(2)中,密集人群计数分支结构如图1第一行所示,目标检测分支结构如图1第三行所示。密集人群计数分支与目标检测分支的特征提取器相同,皆由一个图2所示的多层次特征融合模块FFB和一个图3所示的多尺度膨胀卷积模块SDCB组成。FFB包含14层卷积核大小为3×3的卷积层和4层步长为2的最大池化层,堆叠顺序为2层卷积层、1层最大池化层、2层卷积层、1层最大池化层、4层卷积层、1层最大池化层、4层卷积层、1层最大池化层、2层卷积层。图像输入FFB后,通过将第8、12和14层卷积层的特征图融合起来,得到多层次的特征信息。SDCB将膨胀系数分别为1、2、3且卷积核大小为3×3的三个卷积层并列排布,根据膨胀系数不同的卷积拥有不同的感受野这一特性,FFB输出的特征图再经过SDCB可得到多尺度的特征信息。通常来说,每个通道上的特征图对预测密度图的贡献不等,所以在三个并排的卷积层后面分别添加一个通道注意力组件,从而提高预测密度图的准确度。不同的是,在密集人群计数分支中,特征提取器的后面连接一个亚像素卷积层,目的是为了将特征图上采样四倍,还原到输入时的分辨率大小;在目标检测分支中,特征提取器后面连接一个包含三个可分离卷积层的回归器,目的是为了将特征图上的信息进行映射,从而回归出目标检测框的坐标信息。
所述步骤(3)中,共享分支由特征提取器和鉴别器组成,结构如图1中间分支所示。共享分支的特征提取器与步骤(2)所述的特征提取器相同,包括一个FFB和一个SDCB;共享分支的鉴别器包括一个梯度反转层、三个3×3的卷积层、一个全连接层和一个softmax层。将密集人群计数和目标检测的RGB图像同时输入共享分支的特征提取器后,分别输出了两个多层次多尺度的特征图,再将这两个特征图输入鉴别器,输出0~1之间的值,根据预先设定的密集人群计数任务为0,目标检测任务为1,鉴别器需要通过最小化损失函数使密集人群计数图像生成的值接近0,同时使目标检测图像生成的值接近1。
所述步骤(4)中,联合损失函数由归一化的欧几里得距离损失函数和对抗损失函数加权求和得到。在训练过程中,ASANet分为两部分进行训练,第一部分由密集人群计数分支与共享分支组成,第二部分由目标检测分支与共享分支组成,两个部分进行交替训练,即最小化联合损失函数来更新第一部分,最小化Focal损失函数来更新第二部分,从而实现了提取密集人群计数和目标检测的相似特征来辅助密集人群计数任务的目的,且得到的相似特征排除了目标检测的特异性。
归一化的欧几里得距离损失函数由公式(1)定义,
其中,崈表示样本数,Xi表示输入图像,θ表示网络参数,D(Xi;θ)表示预测密度图,表示标记密度图,(m,n)表示密度图中像素点的坐标,W和H表示标记密度图的宽和高;
对抗损失函数由公式(2)定义,
其中,xi表示第i个类别,xj表示第j个类别;
联合损失函数由公式(3)定义,
L=Lnel(θ)+λLadv (3)
其中,λ为所加权重;
Focal损失函数由公式(4)定义,
FL(pt)=-αt(1-pt)2log(pt) (4)
其中,α∈[0,1]是权重因子。
所述步骤(5)中,测试图像输入经过步骤(4)训练后的网络ASANet,然后输出具有与输入图像相同分辨率的预测密度图。测试图像经过密集人群计数分支的特征提取器后输出64通道的特征图,再利用亚像素卷积层将64通道的特征图扩大四倍,输出单通道的预测密度图,其目的在于通过扩大预测密度图的分辨率而保持标记密度图的分辨率,从而保证了标记密度图的真实性,最后基于上采样后的预测密度图和标记密度图计算平均绝对误差和均方误差,以此来评估该密集人群计数方法的有效性。
为了更好地说明本发明的有效性,图4可视化了本发明和两种其他方法生成的预测密度图,便于直观地比较各种方法的优劣。从图4中可以看出,CMTL方法生成的预测密度图效果最差,本发明生成的预测密度图效果最好。除此之外,表1、2、3展示了平均绝对误差MAE和均方误差MSE两个指标,定量地说明了本发明的优势。表1展示了本发明在ShanghaiTech数据集上与其他方法的结果对比;表2展示了本发明在UCF_CC_50数据集上与其他方法的结果对比;表3展示了本发明在UCF_QNRF数据集上与其他方法的结果对比。
对比的方法为:
【1】MCNN:参考文献“Y.Zhang,D.Zhou,S.Chen,S.Gao,Y.Ma,Single-image crowdcounting via multi-column convolutional neural network,in:The IEEE Conferenceon Computer Vision and Pattern Recognition(CVPR),2016.doi:doi:https://doi.org/10.1109/cvpr.2016.70.”;
【2】Switching-CNN:参考文献“D.Babu Sam,S.Surya,R.Venkatesh Babu,Switching convolutional neural network for crowd counting,in:The IEEEConference on Computer Vision and Pattern Recognition(CVPR),2017.doi:doi:https://doi.org/10.1109/cvpr.2017.429.”;
【3】CMTL:参考文献“V.A.Sindagi,V.M.Patel,Cnn-based cascaded multi-tasklearning of high-level prior and density estimation for crowd counting,in:2017 14th IEEE International Conference on Advanced Video and Signal BasedSurveillance(AVSS),2017.doi:doi:https://doi.org/10.1109/avss.2017.8078491.”;
【4】SaCNN:参考文献“L.Zhang,M.Shi,Q.Chen,Crowd counting viascaleadaptive convolutional neural network,in:IEEE Winter Conference onApplications of Computer Vision,2018.doi:doi:https://doi.org/10.1109/wacv.2018.00127.”;
【5】CSRNet:参考文献“Y.Li,X.Zhang,D.Chen,Csrnet:Dilated convolutionalneural networks for understanding the highly congested scenes,in:The IEEEConference on Computer Vision and Pattern Recognition(CVPR),2018.doi:doi:https://doi.org/10.1109/cvpr.2018.00120.”;
【6】PCCNet:参考文献“J.Gao,Q.Wang,X.Li,Pcc net:Perspective crowdcounting via spatial convolutional network,IEEE Transactions on Circuits andSystems for Video Technology(2019).”;
【7】DADNet:参考文献“D.Guo,K.Li,Z.-J.Zha,M.Wang,Dadnet:Dilated-attentiondeformable convnet for crowd counting,in:Proceedings of the 27th ACMInternational Conference on Multimedia,2019,pp.1823–1832.”;
【8】CAT-CNN:参考文献“J.Chen,W.Su,Z.Wang,Crowd counting with crowdattention convolutional neural network,Neurocomputing 382(2020)210–220.”;
【9】RRP:参考文献“X.Chen,Y.Bin,C.Gao,N.Sang,H.Tang,Relevant regionprediction for crowd counting,Neurocomputing(2020).”。
表1本发明与其他方法在ShanghaiTech数据集上得到的MAE和MSE
表2本发明与其他方法在UCF_CC_50数据集上得到的MAE和MSE
表3本发明与其他方法在UCF_QNRF数据集上得到的MAE和MSE

Claims (3)

1.一种基于对抗学习网络的尺度自适应密集人群计数方法,其特征在于,包括以下步骤:
(1)构建对抗学习网络ASANet,该网络包括一个密集人群计数分支CCPB,一个目标检测分支ODPB和一个共享分支,其中密集人群计数分支与目标检测分支形成博弈关系,两者在训练过程中自动更新进化;密集人群计数分支由一个多层次特征融合模块FFB、一个多尺度膨胀卷积模块SDCB和一个上采样层组成,目标检测分支由一个FFB、一个SDCB和一个回归器组成;多层次特征融合模块FFB包含14层卷积和3层最大池化层,该模块将图像中的轮廓信息与高级语义信息相融合,从而得到多层次的特征信息;多尺度膨胀卷积模块SDBC包含三层具有不同膨胀系数的卷积和三个通道注意力组件,将三层卷积并排,每层卷积后面连接一个通道注意力组件,再将三个并排的分支融合起来,从而获取多尺度的特征信息;
(2)将密集人群计数的RGB图像输入密集人群计数分支的特征提取器,输出多层次多尺度的特征图,再经过四倍上采样,输出预测密度图,同时将目标检测的RGB图像输入目标检测分支的特征提取器,输出多层次多尺度的特征图,再经过回归器,输出目标检测框坐标;
(3)将密集人群计数和目标检测的RGB图像同时输入共享分支的特征提取器,输出两个多层次多尺度的特征图,再由鉴别器鉴别两个特征图是源于密集人群计数还是目标检测的图像;共享分支包括一个FFB、一个SDCB和一个鉴别器,将两张图像输入由FFB和SDCB组成的特征提取器后,输出对应的两张特征图,再将这两张特征图输入鉴别器,输出0~1之间的值,然后利用softmax损失函数更新共享分支的权重;鉴别器包括梯度反转、三个卷积层、一个全连接层和一个softmax层;
(4)基于步骤(2)中得到的密度图,联合使用归一化的欧几里得距离损失函数和对抗损失函数对网络ASANet进行训练;基于步骤(2)中得到的目标检测框坐标,使用Focal损失函数对网络ASANet进行训练;
(5)将测试图像输入经过步骤(4)训练后的网络ASANet,输出具有与输入图像相同分辨率的预测密度图,再用平均绝对误差和均方误差对网络进行评估。
2.如权利要求1所述的一种基于对抗学习网络的尺度自适应密集人群计数方法,其特征在于步骤(4)中所述的联合损失函数,该联合损失函数由归一化的欧几里得距离损失函数和对抗损失函数加权求和得到,训练过程中网络ASANet根据最小化联合损失函数更新权重;
所述的归一化的欧几里得距离损失函数由公式(1)定义,
其中,N表示样本数,Xi表示输入图像,θ表示网络参数,D(Xi;θ)表示预测密度图,表示标记密度图,(m,n)表示密度图中像素点的坐标,W和H表示标记密度图的宽和高;
对抗损失函数由公式(2)定义,
其中,xi表示第i个类别,xj表示第j个类别;
联合损失函数由公式(3)定义,
L=Lnel(θ)+λLadv (3)
其中,λ为所加权重;
Focal损失函数由公式(4)定义,
FL(pt)=-αt(1-pt)2log(pt) (4)
其中,α∈[0,1]是权重因子。
3.如权利要求1所述的一种基于对抗学习网络的尺度自适应密集人群计数方法,其特征在于步骤(5)中所述的具有与输入图像相同分辨率的预测密度图,其目的在于将预测密度图的分辨率扩大而保持标记密度图的分辨率,然后基于上采样后的预测密度图和标记密度图计算平均绝对误差和均方误差,以此来评估该密集人群计数方法的有效性,所述的上采样操作采用亚像素卷积层来实现。
CN202110189510.8A 2021-02-19 2021-02-19 一种基于对抗学习网络的尺度自适应密集人群计数方法 Active CN114973112B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110189510.8A CN114973112B (zh) 2021-02-19 2021-02-19 一种基于对抗学习网络的尺度自适应密集人群计数方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110189510.8A CN114973112B (zh) 2021-02-19 2021-02-19 一种基于对抗学习网络的尺度自适应密集人群计数方法

Publications (2)

Publication Number Publication Date
CN114973112A CN114973112A (zh) 2022-08-30
CN114973112B true CN114973112B (zh) 2024-04-05

Family

ID=82954544

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110189510.8A Active CN114973112B (zh) 2021-02-19 2021-02-19 一种基于对抗学习网络的尺度自适应密集人群计数方法

Country Status (1)

Country Link
CN (1) CN114973112B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115984783B (zh) * 2023-03-20 2023-08-18 成都须弥云图建筑设计有限公司 人群计数方法及装置
CN115983142B (zh) * 2023-03-21 2023-08-29 之江实验室 基于深度生成对抗式网络的区域人口演化模型构造方法
CN117789140A (zh) * 2024-02-23 2024-03-29 潍坊先进光电芯片研究院 基于端到端网络的车流识别与计数方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109543695A (zh) * 2018-10-26 2019-03-29 复旦大学 基于多尺度深度学习的泛密度人群计数方法
CN110163060A (zh) * 2018-11-07 2019-08-23 腾讯科技(深圳)有限公司 图像中人群密度的确定方法及电子设备
CN111353433A (zh) * 2020-02-28 2020-06-30 江南大学 一种基于对抗尺度一致性追求特征自学习的人群计数方法
CN111476188A (zh) * 2020-04-14 2020-07-31 山东师范大学 基于特征金字塔的人群计数方法、系统、介质及电子设备
WO2020169043A1 (zh) * 2019-02-21 2020-08-27 苏州大学 一种密集人群计数的方法、装置、设备以及存储介质
CN111626134A (zh) * 2020-04-28 2020-09-04 上海交通大学 一种基于隐密度分布的密集人群计数方法、系统及终端
CN111723693A (zh) * 2020-06-03 2020-09-29 云南大学 一种基于小样本学习的人群计数方法
CN112329685A (zh) * 2020-11-16 2021-02-05 常州大学 一种融合型卷积神经网络人群异常行为检测的方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200285856A1 (en) * 2019-02-19 2020-09-10 Amaris.Ai Pte. Ltd. Video robot systems

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109543695A (zh) * 2018-10-26 2019-03-29 复旦大学 基于多尺度深度学习的泛密度人群计数方法
CN110163060A (zh) * 2018-11-07 2019-08-23 腾讯科技(深圳)有限公司 图像中人群密度的确定方法及电子设备
WO2020169043A1 (zh) * 2019-02-21 2020-08-27 苏州大学 一种密集人群计数的方法、装置、设备以及存储介质
CN111353433A (zh) * 2020-02-28 2020-06-30 江南大学 一种基于对抗尺度一致性追求特征自学习的人群计数方法
CN111476188A (zh) * 2020-04-14 2020-07-31 山东师范大学 基于特征金字塔的人群计数方法、系统、介质及电子设备
CN111626134A (zh) * 2020-04-28 2020-09-04 上海交通大学 一种基于隐密度分布的密集人群计数方法、系统及终端
CN111723693A (zh) * 2020-06-03 2020-09-29 云南大学 一种基于小样本学习的人群计数方法
CN112329685A (zh) * 2020-11-16 2021-02-05 常州大学 一种融合型卷积神经网络人群异常行为检测的方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Adversarial scale-adaptive neural network for crowd counting;Xinyue Chen等;《Neurocomputing》;20210825;14-24 *
Zan Shen等.Crowd Counting via Adversarial Cross-Scale Consistency Pursuit.《2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition》.5245-5254. *
基于多尺度多列卷积神经网络的密集人群计数模型;陆金刚;张莉;;计算机应用;20190903(12);全文 *
基于深度学习的视频人群计数系统;向东;卿粼波;何小海;吴晓红;;太赫兹科学与电子信息学报;20200625(03);全文 *

Also Published As

Publication number Publication date
CN114973112A (zh) 2022-08-30

Similar Documents

Publication Publication Date Title
CN114973112B (zh) 一种基于对抗学习网络的尺度自适应密集人群计数方法
Bouwmans et al. Scene background initialization: A taxonomy
CN108241849B (zh) 基于视频的人体交互动作识别方法
Yin et al. Recurrent convolutional network for video-based smoke detection
CN109543695B (zh) 基于多尺度深度学习的泛密度人群计数方法
CN111951212A (zh) 对铁路的接触网图像进行缺陷识别的方法
CN109064484B (zh) 基于子群组划分与动量特征融合的人群运动行为识别方法
CN107330390B (zh) 一种基于图像分析和深度学习的人数统计方法
CN111626128A (zh) 一种基于改进YOLOv3的果园环境下行人检测方法
CN111260738A (zh) 基于相关滤波和自适应特征融合的多尺度目标跟踪方法
CN111882586B (zh) 一种面向剧场环境的多演员目标跟踪方法
CN113536972B (zh) 一种基于目标域伪标签的自监督跨域人群计数方法
CN113011329A (zh) 一种基于多尺度特征金字塔网络及密集人群计数方法
Zhang et al. Coarse-to-fine object detection in unmanned aerial vehicle imagery using lightweight convolutional neural network and deep motion saliency
CN107909044A (zh) 一种结合卷积神经网络和轨迹预测的人数统计方法
CN111639571A (zh) 基于轮廓卷积神经网络的视频动作识别方法
Roy et al. A comprehensive survey on computer vision based approaches for moving object detection
CN111027542A (zh) 一种基于Faster RCNN算法改进的目标检测方法
CN113014923B (zh) 一种基于压缩域表征运动向量的行为识别方法
Liang et al. Coarse-to-fine foreground segmentation based on co-occurrence pixel-block and spatio-temporal attention model
CN110111358B (zh) 一种基于多层时序滤波的目标跟踪方法
CN113505812A (zh) 一种基于双流卷积网络的高压断路器轨迹动作识别方法
Marie et al. Dynamic background subtraction using moments
Pardas et al. Refinement Network for unsupervised on the scene Foreground Segmentation
Ekanayake et al. Crowd estimation using key‐point matching with support vector regression

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant