CN112818849A - 基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法 - Google Patents

基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法 Download PDF

Info

Publication number
CN112818849A
CN112818849A CN202110132529.9A CN202110132529A CN112818849A CN 112818849 A CN112818849 A CN 112818849A CN 202110132529 A CN202110132529 A CN 202110132529A CN 112818849 A CN112818849 A CN 112818849A
Authority
CN
China
Prior art keywords
neural network
convolutional neural
crowd density
image
convolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110132529.9A
Other languages
English (en)
Other versions
CN112818849B (zh
Inventor
朱艾春
黄耀影
李义丰
胡方强
段国秀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Tech University
Original Assignee
Nanjing Tech University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Tech University filed Critical Nanjing Tech University
Priority to CN202110132529.9A priority Critical patent/CN112818849B/zh
Publication of CN112818849A publication Critical patent/CN112818849A/zh
Application granted granted Critical
Publication of CN112818849B publication Critical patent/CN112818849B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • G06V10/464Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于人群密度检测方面的技术领域,具体为基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法,该基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法包括以下步骤:S1:选取训练集,读取人群密度数据集中的图片,并设置卷积神经网络模型的训练参数;S2:根据卷积神经网络模型以及其训练参数,以损失函数最小化为目标来训练卷积神经网络模型。通过深度学习的手段采用更为密集的方式连接一组扩张卷积,在没有显著增加模型大小的情况下提升了人群密度检测的效果,并且也利用注意力机制提高了模型的效率。

Description

基于对抗学习的上下文注意力卷积神经网络的人群密度检测 算法
技术领域
本发明涉及人群密度检测方面的技术领域,具体为基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法。
背景技术
近年来随着经济水平发展,人口快速增长,由于人群聚集引起的骚乱已经不止一次的发生,人群监控也变得越来越重要,但是靠人力来实现人群监控容易产生疲劳并且容易受到个人主观因素影响,与此同时,计算机视觉技术日趋成熟,它在工程中的应用范围已经扩展到车牌识别、人脸检测、指纹识别等生活的方方面面,由此更加促进了人群密度自动估计方法的研究。人群密度等级估计和人群流量统计是人群监控的2个重要研究方向。人群密度等级估计将人群按照密集程度划分为不同等级,通过特征分析及分类手段估计人群密度,常应用于人群密度的预警。而人群流量统计侧重于统计人数,要求结果能精确到人数。人群密度估计主要分为特征提取和人群密度分类两步。
人群密度估计与密集人群计数是当前计算机视觉领域的研究热点之一,具有非常广泛的应用。随着国家经济的持续高速发展,城镇化不断推进,城市人口规模越来越大,人群密集行为越来越多,由此带来的恐怖事件、踩踏事件也日趋增多。目前通过监控视频实现人群密度估计和准确人群计数是一个至关重要的任务,其结果对人群检测、人群异常行为分析等有重要的参考作用。深度学习是一种由多个处理层组成的计算模型,它不需要人工标注各种特征,可以通过学习获得数据的多抽象层表示。近年来,深度学习方法的广泛应用显著提高了语音识别、视觉目标识别和检测结果。卷积神经网络是目前深度学习中最为流行的学习算法,其主要优势体现在局部连接和权值共享,不仅降低了网络模型的复杂度,减少了权值数量,而且这种网络结构对平抑、旋转、倾斜、比例缩放等具有高度不变形。
现有的关于人群密度估计算法还存在着很多问题,例如场景中人群过于密集,受遮挡严重以及其他因素导致的结果不是很准确。
发明内容
本发明的目的在于提供基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法,以解决上述背景技术中提出的现有的关于人群密度估计算法还存在着很多问题,例如场景中人群过于密集,受遮挡严重以及其他因素导致的结果不是很准确的问题。
为实现上述目的,本发明提供如下技术方案:基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法,该基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法包括以下步骤:
S1:选取训练集,读取人群密度数据集中的图片,并设置卷积神经网络模型的训练参数;
S2:根据卷积神经网络模型以及其训练参数,以损失函数最小化为目标来训练卷积神经网络模型;
S3:将待处理的图像输入到卷积神经网络模型中进行训练和测试,用Ci表示图像中的人群数量,并输出最终的人群密度图,记作Mi;
S4:输入原始图像I之后,可以对原始图像I进行多尺度的缩放以及旋转或镜像操作,得到新的图像,由此来进行制定的特征提取,将这些新的图像集合记作Ii,并对新的图像集合Ii中的图像的人头位置进行标注,得到新的人群集合C;
S5:训练图像集合Ii的图片时,由图像集合Ii中标注文件生成真实密度图样本;
S6:首先利用VGG-16的前十层来构建卷积神经网络前端;
S7:经过上下文卷积模块,将提取出来的VGG特征值,针对不同的卷积特征图,采用不同的池化尺度来对此进行池化;
S8:接着对生成对抗网络进行训练,生成对抗网络网络包含生成器G和鉴别器D以及回归网络R,生成器G提取图片的语义信息,生成器G解码网络生成人群密度分布图,而鉴别器D则用于判别得到的人群密度分布图是属于S5得到的真实密度图样本还是属于生成器G生成,在不断逼近中得到更真实的人群密度图;
S9:对于整个结构的Loss计算使用的公式如下:
Figure BDA0002925896680000031
其中,Loss表示损失函数的值,λ1表示鉴别器产生的误差所占的比重,G(I)表示图像I经过生成器G的输出,λ2表示生成器所产生的误差所占的比重,D(G(I))表示G(I)经过鉴别器D的输出,m表示训练集样本数量,I表示输入原始图像,ci表示图像中人群数量,Mi表示图像对应的人群密度图,为了使Loss尽可能的小,当数据集图片尺寸不固定的时候,选择batch size为1的SGD作为优化器,而当尺寸固定时,则选择batch size为32的Adam作为优化器;
S10:将测试图像作为网络的输入,网络直接输出图像中的人数;
S11:最后的结果用均方误差MSE和平均绝对误差MAE来显示出来,均方误差MSE是最常用的回归损失函数,计算方法是求预测值与真实值之间距离的平方和,平均绝对误差MAE是另一种用于回归模型的损失函数,平均绝对误差MAE是目标值和预测值之差的绝对值之和;
Figure BDA0002925896680000032
Figure BDA0002925896680000033
优选的,所述人群密度数据集为ShTech数据集,path_sets中保存的就是part_B中的训练集和测试集,然后依次读取数据集中的每一张图片将其放到列表img_paths中,由于原始图片和其对应的mat文件在两个不同的文件夹下面,文件名和后缀名有一定的区别,所以通过replace()方法将图片的路径img_path转换成mat文件的路径并读取。
优选的,所述S5中标注文件生成真实密度图样本的过程具体为:首先构造一个和原始图片大小相同的矩阵,并将其全部置为0,然后将每个被标记的人头对应的位置为1,这样就得到了一个只有0和1的矩阵,最后通过高斯核函数进行卷积得到一个连续的密度图。
优选的,所述S7中这里选择的三个卷积核大小分别为:1x1,2x2,3x3,6x6,分别可以得到不同大小的kxk的块。
优选的,所述kxk的块与卷积核为1的卷积层进行卷积操作,选用卷积核为1进行卷积的好处是不会改变原始特征图的维度,从而可以确保卷积的过程中会增加冗余信息或是漏掉一些信息,接着将不同尺寸的特征图分别使用通过双线性插值的方法扩大到原始特征大小,最后通过通道拼接法对四个同样尺度的特征图进行特征融合,以形成对比度特征,进一步使用对比功能来学习比例感知功能的权重W,然后将其反馈到后端网络。
与现有技术相比,本发明的有益效果是:
通过深度学习的手段采用更为密集的方式连接一组扩张卷积,在没有显著增加模型大小的情况下提升了人群密度检测的效果,并且也利用注意力机制提高了模型的效率。其次,使用生成对抗学习可以直接进行新样本的采样和推断,提高了新样本的生成效率,对抗训练方法摒弃了直接对真实数据的复制或平均,增加了生成样本的多样性,GAN在生成样本的实践中,生成的样本易于人类理解。例如,能够生成十分锐利清晰的图像,为创造性地生成对人类有意义的数据提供了可能的解决方法。并且由于前面加入使用的注意力机制,也使得GAN可以生产细粒度的高质量图像以进行人群计数。
附图说明
图1:本发明的整个网络的结构流程图;
图2:本发明的上下文卷积网络图;
图3:本发明的基于注意力机制的密集扩张连接模块图;
图4:本发明的对抗学习中的鉴别器结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本发明的描述中,需要理解的是,术语“上”、“下”、“前”、“后”、“左”、“右”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
实施例:
请参阅图1-4,本发明提供技术方案:基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法,该基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法包括以下步骤:
S1:选取训练集,读取人群密度数据集中的图片,并设置卷积神经网络模型的训练参数;
以ShTech数据集为例,path_sets中保存的就是part_B中的训练集和测试集,然后依次读取数据集中的每一张图片将其放到列表img_paths中,由于原始图片和其对应的mat文件在两个不同的文件夹下面,文件名和后缀名有一定的区别,所以通过replace()方法将图片的路径img_path转换成mat文件的路径并读取;
S2:根据卷积神经网络模型以及其训练参数,以损失函数最小化为目标来训练卷积神经网络模型;
S3:将待处理的图像输入到卷积神经网络中进行训练和测试,用Ci表示图像中的人群数量,并输出最终的人群密度图,记作Mi;
S4:以ShTech数据集图片为例,输入原始图像I之后,以对原始图像I进行多尺度的缩放以及旋转或镜像操作,得到新的图像,由此来进行制定的特征提取,将这些新的图像集合记作Ii,并对新的图像集合Ii中的图像的人头位置进行标注,得到新的人群集合C,这对一些人群集中的地方,能够做到及时分析,避免造成意外;
S5:训练数据集图片时,由图像集合Ii中标注文件生成真实密度图样本,标注文件生成真实密度图样本的过程具体为:首先构造一个和原始图片大小相同的矩阵,并将其全部置为0,然后将每个被标记的人头对应的位置为1,这样就得到了一个只有0和1的矩阵,最后通过高斯核函数进行卷积得到一个连续的密度图;
S6:根据上述步骤的需求,首先利用VGG-16的前十层来构建卷积神经网络前端,主要作用是用来提取网络特征;
S7:如图2所示,经过上下文卷积模块,将提取出来的VGG特征值,针对不同的卷积特征图,采用不同的池化尺度来对此进行池化,这里选择的三个卷积核大小分别为:1x1,2x2,3x3,6x6,分别可以得到不同大小的kxk的块;
将这些kxk的块与卷积核为1的卷积层进行卷积操作,选用卷积核为1进行卷积的好处是不会改变原始特征图的维度,从而可以确保卷积的过程中会增加冗余信息或是漏掉一些信息,接着将不同尺寸的特征图分别使用通过双线性插值的方法扩大到原始特征大小,最后通过通道拼接法对四个同样尺度的特征图进行特征融合,以形成对比度特征,进一步使用对比功能来学习比例感知功能的权重W,然后将其反馈到后端网络;
如图3所示,扩张卷积密集连接模块注意力机制的加入,主要是利用扩张卷积在不增加参数的情况下增大感受野的作用,可以得到更多的信息。堆叠方法可以使无用的卷积层通过跳过连接来共享信息,具有较小膨胀比和较大膨胀比的层相互依存地工作,其中前馈过程不仅构成更密集的特征金字塔,而且提出更大的过滤器以感知更大的环境,在此模块后加入注意力机制则可以对得到的信息进行筛选,选出最需要的信息,提高模型的可行性,此模块主要作用是生成人群计数的注意力图Attention Map;
S8:接着对生成对抗网络进行训练,生成对抗网络网络包含生成器G和鉴别器D以及回归网络R,生成器G提取图片的语义信息,生成器G解码网络生成人群密度分布图,而鉴别器D则用于判别得到的人群密度分布图是属于S5得到的真实密度图样本还是属于生成器G生成,在不断逼近中得到更真实的人群密度图,鉴别器结构如图4所示;
S9:对于整个结构的Loss计算使用的公式如下:
Figure BDA0002925896680000071
其中,Loss表示损失函数的值,λ1表示鉴别器产生的误差所占的比重,G(I)表示原始图像I经过生成器G的输出,λ2表示生成器所产生的误差所占的比重,D(G(I))表示G(I)经过鉴别器D的输出,m表示训练集样本数量,I表示输入的原始图像,ci表示图像中人的数量,Mi表示图像对应的密度图,为了使Loss尽可能的小,当数据集图片尺寸不固定的时候,选择batch size为1的SGD作为优化器,而当尺寸固定时,则选择batch size为32的Adam作为优化器;
S10:测试过程则是将测试图像作为网络的输入,网络直接输出图像中的人数;
S11:最后的结果用均方误差MSE和平均绝对误差MAE来显示出来,均方误差MSE是最常用的回归损失函数,计算方法是求预测值与真实值之间距离的平方和,平均绝对误差MAE是另一种用于回归模型的损失函数,平均绝对误差MAE是目标值和预测值之差的绝对值之和;
Figure BDA0002925896680000081
Figure BDA0002925896680000082
扩张卷积密集连接的建模
神经网络中,池化层通常存在内部数据结构丢失、空间层级化信息丢失以及小物体信息无法重建等问题。为了改善这些问题,本课题采用扩张卷积代替池化层,加入扩展卷积进行训练可以在保持参数个数不变的情况下增大卷积核的感受野,同时它可以保证输出的特征映射(feature map)的大小保持不变。一个扩张率为2的3×3卷积核,感受野与5×5的卷积核相同,但参数数量仅为9个,是5×5卷积参数数量的36%。本课题中,采用更为密集的方式连接一组扩张卷积,在没有显著增加模型大小的情况下获得更大的范围的扩张率。
基于注意力机制的卷积神经网络
注意力机制从字面意思来看和人类的注意力机制类似。人类通过快速扫描全局文本,获得需要重点关注的区域,也就是一般所说的注意力焦点,而后对这一区域投入更多注意力资源,以获取更多所需要关注目标的细节信息,而抑制其他无用信息。这一机制的存在,极大提高了人类从大量的信息中筛选出高价值信息的手段,是人类在长期进化中形成的一种生存机制。深度学习中的注意力机制从本质上讲和人类的选择性机制类似,核心目标也是从众多信息中选择出对当前任务目标更关键的信息。
生成对抗学习网络
生成对抗网络GAN简单的想法就是用两个模型,一个生成模型,一个判别模型。判别模型用于判断一个给定的图片是不是真实的图片,生成模型的任务是去创造一个看起来像真的图片一样的图片。由此,两个网络在对抗中进步,在进步后继续对抗,由生成式网络得到的数据也就越来越完美,逼近真实数据,而注意力机制的提出,也使得生成对抗网GAN可以生成细粒度的高质量图像以进行人群计数。
以上显示和描述了本发明的基本原理和主要特征和本发明的优点,对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明;因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内,不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。

Claims (5)

1.基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法,其特征在于:该基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法包括以下步骤:
S1:选取训练集,读取人群密度数据集中的图片,并设置卷积神经网络模型的训练参数;
S2:根据卷积神经网络模型以及其训练参数,以损失函数最小化为目标来训练卷积神经网络模型;
S3:将待处理的图像输入到卷积神经网络模型中进行训练和测试,用Ci表示图像中的人群数量,并输出最终的人群密度图,记作Mi;
S4:以ShTech数据集图片为例,输入原始图像I之后,可以对原始图像I进行多尺度的缩放以及旋转或镜像操作,得到新的图像,由此来进行制定的特征提取,将这些新的图像集合记作Ii,并对新的图像集合Ii中的图像的人头位置进行标注,得到新的人群集合C;
S5:训练图像集合Ii的图片时,由图像集合Ii中标注文件生成真实密度图样本;
S6:首先利用VGG-16的前十层来构建卷积神经网络前端;
S7:经过上下文卷积模块,将提取出来的VGG特征值,针对不同的卷积特征图,采用不同的池化尺度来对此进行池化;
S8:接着对生成对抗网络进行训练,生成对抗网络网络包含生成器G和鉴别器D以及回归网络R,生成器G提取图片的语义信息,生成器G解码网络生成人群密度分布图,而鉴别器D则用于判别得到的人群密度分布图是属于S5得到的真实密度图样本还是属于生成器G生成,在不断逼近中得到更真实的人群密度图;
S9:对于整个结构的Loss计算使用的公式如下:
Figure FDA0002925896670000021
其中,Loss表示损失函数的值,λ1表示鉴别器产生的误差所占的比重,G(I)表示图像I经过生成器G的输出,λ2表示生成器所产生的误差所占的比重,D(G(I))表示G(I)经过鉴别器D的输出,m表示训练集样本数量,I表示输入原始图像,ci表示图像中人群数量,Mi表示图像对应的人群密度图,为了使Loss尽可能的小,当数据集图片尺寸不固定的时候,选择batchsize为1的SGD作为优化器,而当尺寸固定时,则选择batch size为32的Adam作为优化器;
S10:将测试图像作为网络的输入,网络直接输出图像中的人数;
S11:最后的结果用均方误差MSE和平均绝对误差MAE来显示出来,均方误差MSE是最常用的回归损失函数,计算方法是求预测值与真实值之间距离的平方和,平均绝对误差MAE是另一种用于回归模型的损失函数,平均绝对误差MAE是目标值和预测值之差的绝对值之和;
Figure FDA0002925896670000022
Figure FDA0002925896670000023
2.根据权利要求1所述的基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法,其特征在于:所述人群密度数据集为ShTech数据集,path_sets中保存的就是part_B中的训练集和测试集,然后依次读取数据集中的每一张图片将其放到列表img_paths中,由于原始图片和其对应的mat文件在两个不同的文件夹下面,文件名和后缀名有一定的区别,所以通过replace()方法将图片的路径img_path转换成mat文件的路径并读取。
3.根据权利要求2所述的基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法,其特征在于:所述S5中标注文件生成真实密度图样本的过程具体为:首先构造一个和原始图片大小相同的矩阵,并将其全部置为0,然后将每个被标记的人头对应的位置为1,这样就得到了一个只有0和1的矩阵,最后通过高斯核函数进行卷积得到一个连续的密度图。
4.根据权利要求3所述的基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法,其特征在于:所述S7中这里选择的三个卷积核大小分别为:1x1,2x2,3x3,6x6,分别可以得到不同大小的kxk的块。
5.根据权利要求4所述的基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法,其特征在于:所述kxk的块与卷积核为1的卷积层进行卷积操作,选用卷积核为1进行卷积的好处是不会改变原始特征图的维度,从而可以确保卷积的过程中会增加冗余信息或是漏掉一些信息,接着将不同尺寸的特征图分别使用通过双线性插值的方法扩大到原始特征大小,最后通过通道拼接法对四个同样尺度的特征图进行特征融合,以形成对比度特征,进一步使用对比功能来学习比例感知功能的权重W,然后将其反馈到后端网络。
CN202110132529.9A 2021-01-31 2021-01-31 基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法 Active CN112818849B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110132529.9A CN112818849B (zh) 2021-01-31 2021-01-31 基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110132529.9A CN112818849B (zh) 2021-01-31 2021-01-31 基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法

Publications (2)

Publication Number Publication Date
CN112818849A true CN112818849A (zh) 2021-05-18
CN112818849B CN112818849B (zh) 2024-03-08

Family

ID=75860675

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110132529.9A Active CN112818849B (zh) 2021-01-31 2021-01-31 基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法

Country Status (1)

Country Link
CN (1) CN112818849B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113255526A (zh) * 2021-05-28 2021-08-13 华中科技大学 基于动量的对人群计数模型的对抗样本生成方法及系统
CN113361374A (zh) * 2021-06-02 2021-09-07 燕山大学 一种人群密度估计方法及系统
CN113627249A (zh) * 2021-07-05 2021-11-09 中山大学·深圳 基于对抗对比学习的导航系统训练方法、装置及导航系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110889343A (zh) * 2019-11-15 2020-03-17 复旦大学 基于注意力型深度神经网络的人群密度估计方法及装置
CN111209892A (zh) * 2020-01-19 2020-05-29 浙江中创天成科技有限公司 一种基于卷积神经网络的人群密度及数量估计方法
WO2020169043A1 (zh) * 2019-02-21 2020-08-27 苏州大学 一种密集人群计数的方法、装置、设备以及存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020169043A1 (zh) * 2019-02-21 2020-08-27 苏州大学 一种密集人群计数的方法、装置、设备以及存储介质
CN110889343A (zh) * 2019-11-15 2020-03-17 复旦大学 基于注意力型深度神经网络的人群密度估计方法及装置
CN111209892A (zh) * 2020-01-19 2020-05-29 浙江中创天成科技有限公司 一种基于卷积神经网络的人群密度及数量估计方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
刘文杰: "人群计数和人群异常行为检测方法研究", 《中国优秀硕士学位论文全文数据库 社会科学Ⅰ辑》, pages 1 - 36 *
段仪浓: "基于深度学习的人群分析及其在航站楼的应用", 《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》, pages 16 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113255526A (zh) * 2021-05-28 2021-08-13 华中科技大学 基于动量的对人群计数模型的对抗样本生成方法及系统
CN113255526B (zh) * 2021-05-28 2021-09-21 华中科技大学 基于动量的对人群计数模型的对抗样本生成方法及系统
CN113361374A (zh) * 2021-06-02 2021-09-07 燕山大学 一种人群密度估计方法及系统
CN113361374B (zh) * 2021-06-02 2024-01-05 燕山大学 一种人群密度估计方法及系统
CN113627249A (zh) * 2021-07-05 2021-11-09 中山大学·深圳 基于对抗对比学习的导航系统训练方法、装置及导航系统

Also Published As

Publication number Publication date
CN112818849B (zh) 2024-03-08

Similar Documents

Publication Publication Date Title
You et al. Relative CNN-RNN: Learning relative atmospheric visibility from images
CN111047548B (zh) 姿态变换数据处理方法、装置、计算机设备和存储介质
CN112818849A (zh) 基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法
Li et al. Adaptive deep convolutional neural networks for scene-specific object detection
CN110879982B (zh) 一种人群计数系统及方法
CN109360178A (zh) 基于融合图像的无参考立体图像质量评价方法
CN108389192A (zh) 基于卷积神经网络的立体图像舒适度评价方法
CN113762138B (zh) 伪造人脸图片的识别方法、装置、计算机设备及存储介质
CN108960260B (zh) 一种分类模型生成方法、医学影像图像分类方法及装置
CN109919252A (zh) 利用少数标注图像生成分类器的方法
CN108961308A (zh) 一种漂移检测的残差深度特征目标跟踪方法
CN111666852A (zh) 一种基于卷积神经网络的微表情双流网络识别方法
Zhang et al. Online modeling of esthetic communities using deep perception graph analytics
Li et al. Image manipulation localization using attentional cross-domain CNN features
CN115439694A (zh) 一种基于深度学习的高精度点云补全方法及装置
Liu et al. Student abnormal behavior recognition in classroom video based on deep learning
CN114881286A (zh) 一种基于深度学习的短时降水预测方法
Sun et al. Two-stage deep regression enhanced depth estimation from a single RGB image
CN112668675B (zh) 一种图像处理方法、装置、计算机设备及存储介质
CN114332473A (zh) 目标检测方法、装置、计算机设备、存储介质及程序产品
CN112149528A (zh) 一种全景图目标检测方法、系统、介质及设备
CN111178275A (zh) 一种基于卷积神经网络的火灾检测方法
Raihan et al. CNN modeling for recognizing local fish
CN115761888A (zh) 基于nl-c3d模型的塔吊操作人员异常行为检测方法
Xia et al. Media quality assessment by perceptual gaze-shift patterns discovery

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant