CN112818849A - 基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法 - Google Patents
基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法 Download PDFInfo
- Publication number
- CN112818849A CN112818849A CN202110132529.9A CN202110132529A CN112818849A CN 112818849 A CN112818849 A CN 112818849A CN 202110132529 A CN202110132529 A CN 202110132529A CN 112818849 A CN112818849 A CN 112818849A
- Authority
- CN
- China
- Prior art keywords
- neural network
- convolutional neural
- crowd density
- image
- convolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 32
- 238000001514 detection method Methods 0.000 title claims abstract description 20
- 238000004422 calculation algorithm Methods 0.000 title claims abstract description 16
- 238000012549 training Methods 0.000 claims abstract description 30
- 230000006870 function Effects 0.000 claims abstract description 24
- 230000003042 antagnostic effect Effects 0.000 claims abstract description 9
- 238000000034 method Methods 0.000 claims description 21
- 238000010586 diagram Methods 0.000 claims description 20
- 238000012360 testing method Methods 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 8
- 238000011176 pooling Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 4
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 3
- 230000004927 fusion Effects 0.000 claims description 3
- 238000013528 artificial neural network Methods 0.000 claims description 2
- 230000007246 mechanism Effects 0.000 abstract description 14
- 238000013135 deep learning Methods 0.000 abstract description 6
- 230000000694 effects Effects 0.000 abstract description 2
- 241000282414 Homo sapiens Species 0.000 description 6
- 238000012544 monitoring process Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000010339 dilation Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 206010000117 Abnormal behaviour Diseases 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000004083 survival effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
- G06V10/464—Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明属于人群密度检测方面的技术领域,具体为基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法,该基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法包括以下步骤:S1:选取训练集,读取人群密度数据集中的图片,并设置卷积神经网络模型的训练参数;S2:根据卷积神经网络模型以及其训练参数,以损失函数最小化为目标来训练卷积神经网络模型。通过深度学习的手段采用更为密集的方式连接一组扩张卷积,在没有显著增加模型大小的情况下提升了人群密度检测的效果,并且也利用注意力机制提高了模型的效率。
Description
技术领域
本发明涉及人群密度检测方面的技术领域,具体为基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法。
背景技术
近年来随着经济水平发展,人口快速增长,由于人群聚集引起的骚乱已经不止一次的发生,人群监控也变得越来越重要,但是靠人力来实现人群监控容易产生疲劳并且容易受到个人主观因素影响,与此同时,计算机视觉技术日趋成熟,它在工程中的应用范围已经扩展到车牌识别、人脸检测、指纹识别等生活的方方面面,由此更加促进了人群密度自动估计方法的研究。人群密度等级估计和人群流量统计是人群监控的2个重要研究方向。人群密度等级估计将人群按照密集程度划分为不同等级,通过特征分析及分类手段估计人群密度,常应用于人群密度的预警。而人群流量统计侧重于统计人数,要求结果能精确到人数。人群密度估计主要分为特征提取和人群密度分类两步。
人群密度估计与密集人群计数是当前计算机视觉领域的研究热点之一,具有非常广泛的应用。随着国家经济的持续高速发展,城镇化不断推进,城市人口规模越来越大,人群密集行为越来越多,由此带来的恐怖事件、踩踏事件也日趋增多。目前通过监控视频实现人群密度估计和准确人群计数是一个至关重要的任务,其结果对人群检测、人群异常行为分析等有重要的参考作用。深度学习是一种由多个处理层组成的计算模型,它不需要人工标注各种特征,可以通过学习获得数据的多抽象层表示。近年来,深度学习方法的广泛应用显著提高了语音识别、视觉目标识别和检测结果。卷积神经网络是目前深度学习中最为流行的学习算法,其主要优势体现在局部连接和权值共享,不仅降低了网络模型的复杂度,减少了权值数量,而且这种网络结构对平抑、旋转、倾斜、比例缩放等具有高度不变形。
现有的关于人群密度估计算法还存在着很多问题,例如场景中人群过于密集,受遮挡严重以及其他因素导致的结果不是很准确。
发明内容
本发明的目的在于提供基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法,以解决上述背景技术中提出的现有的关于人群密度估计算法还存在着很多问题,例如场景中人群过于密集,受遮挡严重以及其他因素导致的结果不是很准确的问题。
为实现上述目的,本发明提供如下技术方案:基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法,该基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法包括以下步骤:
S1:选取训练集,读取人群密度数据集中的图片,并设置卷积神经网络模型的训练参数;
S2:根据卷积神经网络模型以及其训练参数,以损失函数最小化为目标来训练卷积神经网络模型;
S3:将待处理的图像输入到卷积神经网络模型中进行训练和测试,用Ci表示图像中的人群数量,并输出最终的人群密度图,记作Mi;
S4:输入原始图像I之后,可以对原始图像I进行多尺度的缩放以及旋转或镜像操作,得到新的图像,由此来进行制定的特征提取,将这些新的图像集合记作Ii,并对新的图像集合Ii中的图像的人头位置进行标注,得到新的人群集合C;
S5:训练图像集合Ii的图片时,由图像集合Ii中标注文件生成真实密度图样本;
S6:首先利用VGG-16的前十层来构建卷积神经网络前端;
S7:经过上下文卷积模块,将提取出来的VGG特征值,针对不同的卷积特征图,采用不同的池化尺度来对此进行池化;
S8:接着对生成对抗网络进行训练,生成对抗网络网络包含生成器G和鉴别器D以及回归网络R,生成器G提取图片的语义信息,生成器G解码网络生成人群密度分布图,而鉴别器D则用于判别得到的人群密度分布图是属于S5得到的真实密度图样本还是属于生成器G生成,在不断逼近中得到更真实的人群密度图;
S9:对于整个结构的Loss计算使用的公式如下:
其中,Loss表示损失函数的值,λ1表示鉴别器产生的误差所占的比重,G(I)表示图像I经过生成器G的输出,λ2表示生成器所产生的误差所占的比重,D(G(I))表示G(I)经过鉴别器D的输出,m表示训练集样本数量,I表示输入原始图像,ci表示图像中人群数量,Mi表示图像对应的人群密度图,为了使Loss尽可能的小,当数据集图片尺寸不固定的时候,选择batch size为1的SGD作为优化器,而当尺寸固定时,则选择batch size为32的Adam作为优化器;
S10:将测试图像作为网络的输入,网络直接输出图像中的人数;
S11:最后的结果用均方误差MSE和平均绝对误差MAE来显示出来,均方误差MSE是最常用的回归损失函数,计算方法是求预测值与真实值之间距离的平方和,平均绝对误差MAE是另一种用于回归模型的损失函数,平均绝对误差MAE是目标值和预测值之差的绝对值之和;
优选的,所述人群密度数据集为ShTech数据集,path_sets中保存的就是part_B中的训练集和测试集,然后依次读取数据集中的每一张图片将其放到列表img_paths中,由于原始图片和其对应的mat文件在两个不同的文件夹下面,文件名和后缀名有一定的区别,所以通过replace()方法将图片的路径img_path转换成mat文件的路径并读取。
优选的,所述S5中标注文件生成真实密度图样本的过程具体为:首先构造一个和原始图片大小相同的矩阵,并将其全部置为0,然后将每个被标记的人头对应的位置为1,这样就得到了一个只有0和1的矩阵,最后通过高斯核函数进行卷积得到一个连续的密度图。
优选的,所述S7中这里选择的三个卷积核大小分别为:1x1,2x2,3x3,6x6,分别可以得到不同大小的kxk的块。
优选的,所述kxk的块与卷积核为1的卷积层进行卷积操作,选用卷积核为1进行卷积的好处是不会改变原始特征图的维度,从而可以确保卷积的过程中会增加冗余信息或是漏掉一些信息,接着将不同尺寸的特征图分别使用通过双线性插值的方法扩大到原始特征大小,最后通过通道拼接法对四个同样尺度的特征图进行特征融合,以形成对比度特征,进一步使用对比功能来学习比例感知功能的权重W,然后将其反馈到后端网络。
与现有技术相比,本发明的有益效果是:
通过深度学习的手段采用更为密集的方式连接一组扩张卷积,在没有显著增加模型大小的情况下提升了人群密度检测的效果,并且也利用注意力机制提高了模型的效率。其次,使用生成对抗学习可以直接进行新样本的采样和推断,提高了新样本的生成效率,对抗训练方法摒弃了直接对真实数据的复制或平均,增加了生成样本的多样性,GAN在生成样本的实践中,生成的样本易于人类理解。例如,能够生成十分锐利清晰的图像,为创造性地生成对人类有意义的数据提供了可能的解决方法。并且由于前面加入使用的注意力机制,也使得GAN可以生产细粒度的高质量图像以进行人群计数。
附图说明
图1:本发明的整个网络的结构流程图;
图2:本发明的上下文卷积网络图;
图3:本发明的基于注意力机制的密集扩张连接模块图;
图4:本发明的对抗学习中的鉴别器结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本发明的描述中,需要理解的是,术语“上”、“下”、“前”、“后”、“左”、“右”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
实施例:
请参阅图1-4,本发明提供技术方案:基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法,该基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法包括以下步骤:
S1:选取训练集,读取人群密度数据集中的图片,并设置卷积神经网络模型的训练参数;
以ShTech数据集为例,path_sets中保存的就是part_B中的训练集和测试集,然后依次读取数据集中的每一张图片将其放到列表img_paths中,由于原始图片和其对应的mat文件在两个不同的文件夹下面,文件名和后缀名有一定的区别,所以通过replace()方法将图片的路径img_path转换成mat文件的路径并读取;
S2:根据卷积神经网络模型以及其训练参数,以损失函数最小化为目标来训练卷积神经网络模型;
S3:将待处理的图像输入到卷积神经网络中进行训练和测试,用Ci表示图像中的人群数量,并输出最终的人群密度图,记作Mi;
S4:以ShTech数据集图片为例,输入原始图像I之后,以对原始图像I进行多尺度的缩放以及旋转或镜像操作,得到新的图像,由此来进行制定的特征提取,将这些新的图像集合记作Ii,并对新的图像集合Ii中的图像的人头位置进行标注,得到新的人群集合C,这对一些人群集中的地方,能够做到及时分析,避免造成意外;
S5:训练数据集图片时,由图像集合Ii中标注文件生成真实密度图样本,标注文件生成真实密度图样本的过程具体为:首先构造一个和原始图片大小相同的矩阵,并将其全部置为0,然后将每个被标记的人头对应的位置为1,这样就得到了一个只有0和1的矩阵,最后通过高斯核函数进行卷积得到一个连续的密度图;
S6:根据上述步骤的需求,首先利用VGG-16的前十层来构建卷积神经网络前端,主要作用是用来提取网络特征;
S7:如图2所示,经过上下文卷积模块,将提取出来的VGG特征值,针对不同的卷积特征图,采用不同的池化尺度来对此进行池化,这里选择的三个卷积核大小分别为:1x1,2x2,3x3,6x6,分别可以得到不同大小的kxk的块;
将这些kxk的块与卷积核为1的卷积层进行卷积操作,选用卷积核为1进行卷积的好处是不会改变原始特征图的维度,从而可以确保卷积的过程中会增加冗余信息或是漏掉一些信息,接着将不同尺寸的特征图分别使用通过双线性插值的方法扩大到原始特征大小,最后通过通道拼接法对四个同样尺度的特征图进行特征融合,以形成对比度特征,进一步使用对比功能来学习比例感知功能的权重W,然后将其反馈到后端网络;
如图3所示,扩张卷积密集连接模块注意力机制的加入,主要是利用扩张卷积在不增加参数的情况下增大感受野的作用,可以得到更多的信息。堆叠方法可以使无用的卷积层通过跳过连接来共享信息,具有较小膨胀比和较大膨胀比的层相互依存地工作,其中前馈过程不仅构成更密集的特征金字塔,而且提出更大的过滤器以感知更大的环境,在此模块后加入注意力机制则可以对得到的信息进行筛选,选出最需要的信息,提高模型的可行性,此模块主要作用是生成人群计数的注意力图Attention Map;
S8:接着对生成对抗网络进行训练,生成对抗网络网络包含生成器G和鉴别器D以及回归网络R,生成器G提取图片的语义信息,生成器G解码网络生成人群密度分布图,而鉴别器D则用于判别得到的人群密度分布图是属于S5得到的真实密度图样本还是属于生成器G生成,在不断逼近中得到更真实的人群密度图,鉴别器结构如图4所示;
S9:对于整个结构的Loss计算使用的公式如下:
其中,Loss表示损失函数的值,λ1表示鉴别器产生的误差所占的比重,G(I)表示原始图像I经过生成器G的输出,λ2表示生成器所产生的误差所占的比重,D(G(I))表示G(I)经过鉴别器D的输出,m表示训练集样本数量,I表示输入的原始图像,ci表示图像中人的数量,Mi表示图像对应的密度图,为了使Loss尽可能的小,当数据集图片尺寸不固定的时候,选择batch size为1的SGD作为优化器,而当尺寸固定时,则选择batch size为32的Adam作为优化器;
S10:测试过程则是将测试图像作为网络的输入,网络直接输出图像中的人数;
S11:最后的结果用均方误差MSE和平均绝对误差MAE来显示出来,均方误差MSE是最常用的回归损失函数,计算方法是求预测值与真实值之间距离的平方和,平均绝对误差MAE是另一种用于回归模型的损失函数,平均绝对误差MAE是目标值和预测值之差的绝对值之和;
扩张卷积密集连接的建模
神经网络中,池化层通常存在内部数据结构丢失、空间层级化信息丢失以及小物体信息无法重建等问题。为了改善这些问题,本课题采用扩张卷积代替池化层,加入扩展卷积进行训练可以在保持参数个数不变的情况下增大卷积核的感受野,同时它可以保证输出的特征映射(feature map)的大小保持不变。一个扩张率为2的3×3卷积核,感受野与5×5的卷积核相同,但参数数量仅为9个,是5×5卷积参数数量的36%。本课题中,采用更为密集的方式连接一组扩张卷积,在没有显著增加模型大小的情况下获得更大的范围的扩张率。
基于注意力机制的卷积神经网络
注意力机制从字面意思来看和人类的注意力机制类似。人类通过快速扫描全局文本,获得需要重点关注的区域,也就是一般所说的注意力焦点,而后对这一区域投入更多注意力资源,以获取更多所需要关注目标的细节信息,而抑制其他无用信息。这一机制的存在,极大提高了人类从大量的信息中筛选出高价值信息的手段,是人类在长期进化中形成的一种生存机制。深度学习中的注意力机制从本质上讲和人类的选择性机制类似,核心目标也是从众多信息中选择出对当前任务目标更关键的信息。
生成对抗学习网络
生成对抗网络GAN简单的想法就是用两个模型,一个生成模型,一个判别模型。判别模型用于判断一个给定的图片是不是真实的图片,生成模型的任务是去创造一个看起来像真的图片一样的图片。由此,两个网络在对抗中进步,在进步后继续对抗,由生成式网络得到的数据也就越来越完美,逼近真实数据,而注意力机制的提出,也使得生成对抗网GAN可以生成细粒度的高质量图像以进行人群计数。
以上显示和描述了本发明的基本原理和主要特征和本发明的优点,对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明;因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内,不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (5)
1.基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法,其特征在于:该基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法包括以下步骤:
S1:选取训练集,读取人群密度数据集中的图片,并设置卷积神经网络模型的训练参数;
S2:根据卷积神经网络模型以及其训练参数,以损失函数最小化为目标来训练卷积神经网络模型;
S3:将待处理的图像输入到卷积神经网络模型中进行训练和测试,用Ci表示图像中的人群数量,并输出最终的人群密度图,记作Mi;
S4:以ShTech数据集图片为例,输入原始图像I之后,可以对原始图像I进行多尺度的缩放以及旋转或镜像操作,得到新的图像,由此来进行制定的特征提取,将这些新的图像集合记作Ii,并对新的图像集合Ii中的图像的人头位置进行标注,得到新的人群集合C;
S5:训练图像集合Ii的图片时,由图像集合Ii中标注文件生成真实密度图样本;
S6:首先利用VGG-16的前十层来构建卷积神经网络前端;
S7:经过上下文卷积模块,将提取出来的VGG特征值,针对不同的卷积特征图,采用不同的池化尺度来对此进行池化;
S8:接着对生成对抗网络进行训练,生成对抗网络网络包含生成器G和鉴别器D以及回归网络R,生成器G提取图片的语义信息,生成器G解码网络生成人群密度分布图,而鉴别器D则用于判别得到的人群密度分布图是属于S5得到的真实密度图样本还是属于生成器G生成,在不断逼近中得到更真实的人群密度图;
S9:对于整个结构的Loss计算使用的公式如下:
其中,Loss表示损失函数的值,λ1表示鉴别器产生的误差所占的比重,G(I)表示图像I经过生成器G的输出,λ2表示生成器所产生的误差所占的比重,D(G(I))表示G(I)经过鉴别器D的输出,m表示训练集样本数量,I表示输入原始图像,ci表示图像中人群数量,Mi表示图像对应的人群密度图,为了使Loss尽可能的小,当数据集图片尺寸不固定的时候,选择batchsize为1的SGD作为优化器,而当尺寸固定时,则选择batch size为32的Adam作为优化器;
S10:将测试图像作为网络的输入,网络直接输出图像中的人数;
S11:最后的结果用均方误差MSE和平均绝对误差MAE来显示出来,均方误差MSE是最常用的回归损失函数,计算方法是求预测值与真实值之间距离的平方和,平均绝对误差MAE是另一种用于回归模型的损失函数,平均绝对误差MAE是目标值和预测值之差的绝对值之和;
2.根据权利要求1所述的基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法,其特征在于:所述人群密度数据集为ShTech数据集,path_sets中保存的就是part_B中的训练集和测试集,然后依次读取数据集中的每一张图片将其放到列表img_paths中,由于原始图片和其对应的mat文件在两个不同的文件夹下面,文件名和后缀名有一定的区别,所以通过replace()方法将图片的路径img_path转换成mat文件的路径并读取。
3.根据权利要求2所述的基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法,其特征在于:所述S5中标注文件生成真实密度图样本的过程具体为:首先构造一个和原始图片大小相同的矩阵,并将其全部置为0,然后将每个被标记的人头对应的位置为1,这样就得到了一个只有0和1的矩阵,最后通过高斯核函数进行卷积得到一个连续的密度图。
4.根据权利要求3所述的基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法,其特征在于:所述S7中这里选择的三个卷积核大小分别为:1x1,2x2,3x3,6x6,分别可以得到不同大小的kxk的块。
5.根据权利要求4所述的基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法,其特征在于:所述kxk的块与卷积核为1的卷积层进行卷积操作,选用卷积核为1进行卷积的好处是不会改变原始特征图的维度,从而可以确保卷积的过程中会增加冗余信息或是漏掉一些信息,接着将不同尺寸的特征图分别使用通过双线性插值的方法扩大到原始特征大小,最后通过通道拼接法对四个同样尺度的特征图进行特征融合,以形成对比度特征,进一步使用对比功能来学习比例感知功能的权重W,然后将其反馈到后端网络。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110132529.9A CN112818849B (zh) | 2021-01-31 | 2021-01-31 | 基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110132529.9A CN112818849B (zh) | 2021-01-31 | 2021-01-31 | 基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112818849A true CN112818849A (zh) | 2021-05-18 |
CN112818849B CN112818849B (zh) | 2024-03-08 |
Family
ID=75860675
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110132529.9A Active CN112818849B (zh) | 2021-01-31 | 2021-01-31 | 基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112818849B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113255526A (zh) * | 2021-05-28 | 2021-08-13 | 华中科技大学 | 基于动量的对人群计数模型的对抗样本生成方法及系统 |
CN113361374A (zh) * | 2021-06-02 | 2021-09-07 | 燕山大学 | 一种人群密度估计方法及系统 |
CN113627249A (zh) * | 2021-07-05 | 2021-11-09 | 中山大学·深圳 | 基于对抗对比学习的导航系统训练方法、装置及导航系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110889343A (zh) * | 2019-11-15 | 2020-03-17 | 复旦大学 | 基于注意力型深度神经网络的人群密度估计方法及装置 |
CN111209892A (zh) * | 2020-01-19 | 2020-05-29 | 浙江中创天成科技有限公司 | 一种基于卷积神经网络的人群密度及数量估计方法 |
WO2020169043A1 (zh) * | 2019-02-21 | 2020-08-27 | 苏州大学 | 一种密集人群计数的方法、装置、设备以及存储介质 |
-
2021
- 2021-01-31 CN CN202110132529.9A patent/CN112818849B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020169043A1 (zh) * | 2019-02-21 | 2020-08-27 | 苏州大学 | 一种密集人群计数的方法、装置、设备以及存储介质 |
CN110889343A (zh) * | 2019-11-15 | 2020-03-17 | 复旦大学 | 基于注意力型深度神经网络的人群密度估计方法及装置 |
CN111209892A (zh) * | 2020-01-19 | 2020-05-29 | 浙江中创天成科技有限公司 | 一种基于卷积神经网络的人群密度及数量估计方法 |
Non-Patent Citations (2)
Title |
---|
刘文杰: "人群计数和人群异常行为检测方法研究", 《中国优秀硕士学位论文全文数据库 社会科学Ⅰ辑》, pages 1 - 36 * |
段仪浓: "基于深度学习的人群分析及其在航站楼的应用", 《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》, pages 16 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113255526A (zh) * | 2021-05-28 | 2021-08-13 | 华中科技大学 | 基于动量的对人群计数模型的对抗样本生成方法及系统 |
CN113255526B (zh) * | 2021-05-28 | 2021-09-21 | 华中科技大学 | 基于动量的对人群计数模型的对抗样本生成方法及系统 |
CN113361374A (zh) * | 2021-06-02 | 2021-09-07 | 燕山大学 | 一种人群密度估计方法及系统 |
CN113361374B (zh) * | 2021-06-02 | 2024-01-05 | 燕山大学 | 一种人群密度估计方法及系统 |
CN113627249A (zh) * | 2021-07-05 | 2021-11-09 | 中山大学·深圳 | 基于对抗对比学习的导航系统训练方法、装置及导航系统 |
Also Published As
Publication number | Publication date |
---|---|
CN112818849B (zh) | 2024-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
You et al. | Relative CNN-RNN: Learning relative atmospheric visibility from images | |
Zhang et al. | A gated peripheral-foveal convolutional neural network for unified image aesthetic prediction | |
CN111047548B (zh) | 姿态变换数据处理方法、装置、计算机设备和存储介质 | |
CN108764085B (zh) | 基于生成对抗网络的人群计数方法 | |
CN112818849A (zh) | 基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法 | |
Li et al. | Adaptive deep convolutional neural networks for scene-specific object detection | |
CN113762138B (zh) | 伪造人脸图片的识别方法、装置、计算机设备及存储介质 | |
CN108960260B (zh) | 一种分类模型生成方法、医学影像图像分类方法及装置 | |
CN114332578A (zh) | 图像异常检测模型训练方法、图像异常检测方法和装置 | |
CN108961308A (zh) | 一种漂移检测的残差深度特征目标跟踪方法 | |
CN111666852A (zh) | 一种基于卷积神经网络的微表情双流网络识别方法 | |
CN114332473A (zh) | 目标检测方法、装置、计算机设备、存储介质及程序产品 | |
CN115439694A (zh) | 一种基于深度学习的高精度点云补全方法及装置 | |
Zhang et al. | Online modeling of esthetic communities using deep perception graph analytics | |
CN115761888A (zh) | 基于nl-c3d模型的塔吊操作人员异常行为检测方法 | |
CN116977674A (zh) | 图像匹配方法、相关设备、存储介质及程序产品 | |
Liu et al. | Student abnormal behavior recognition in classroom video based on deep learning | |
CN114881286A (zh) | 一种基于深度学习的短时降水预测方法 | |
CN112668675B (zh) | 一种图像处理方法、装置、计算机设备及存储介质 | |
CN112149528A (zh) | 一种全景图目标检测方法、系统、介质及设备 | |
CN111178275A (zh) | 一种基于卷积神经网络的火灾检测方法 | |
Xia et al. | Media quality assessment by perceptual gaze-shift patterns discovery | |
CN114882580A (zh) | 一种基于深度学习的运动动作一致性的度量方法 | |
WO2023041969A1 (en) | Face-hand correlation degree detection method and apparatus, device and storage medium | |
Xu et al. | Recursive multi-relational graph convolutional network for automatic photo selection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |