CN114399728B - 一种雾天场景人群计数方法 - Google Patents
一种雾天场景人群计数方法 Download PDFInfo
- Publication number
- CN114399728B CN114399728B CN202111548521.7A CN202111548521A CN114399728B CN 114399728 B CN114399728 B CN 114399728B CN 202111548521 A CN202111548521 A CN 202111548521A CN 114399728 B CN114399728 B CN 114399728B
- Authority
- CN
- China
- Prior art keywords
- scale
- feature map
- enhancement
- attention
- result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 64
- 230000002708 enhancing effect Effects 0.000 claims abstract description 65
- 238000000605 extraction Methods 0.000 claims abstract description 4
- 238000011176 pooling Methods 0.000 claims description 94
- 230000008447 perception Effects 0.000 claims description 84
- 230000008569 process Effects 0.000 claims description 30
- 230000017105 transposition Effects 0.000 claims description 30
- 238000010586 diagram Methods 0.000 claims description 22
- 238000006243 chemical reaction Methods 0.000 claims description 12
- 239000011159 matrix material Substances 0.000 claims description 12
- 230000006870 function Effects 0.000 claims description 10
- 230000008859 change Effects 0.000 claims description 7
- 230000009466 transformation Effects 0.000 description 14
- 238000012549 training Methods 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种雾天场景人群计数方法,包括如下步骤:步骤101:将雾天场景图像输入主干网络进行初始特征提取,得到初始特征图;步骤102:将初始特征图输入跨尺度多方向注意增强模块,得到尺度感知多方向注意增强特征图;步骤103:将尺度感知多方向注意增强特征图与初始特征图进行融合,得到高级语义特征图;步骤104:将高级语义特征图输入密度图回归模块进行密度图回归,得到人群密度图;步骤105:将人群密度图的像素值求和,得到人群计数结果。本发明降低场景中雾等模糊现象对人群计数性能的负面影响,提升了设计的人群计数方法的普适性。
Description
技术领域
本发明涉及图像处理领域,尤其是一种雾天场景人群计数方法。
背景技术
随着经济的快速发展和居民生活水平的不断提高,人群密集现象越发频繁,人群过度拥挤随之带来的安全隐患也越发严重,例如节假日的旅游景点、新年回家和返工的火车站、大型体育比赛的场地、宗教活动以及明星的粉丝见面会和演唱会等。人群密集不仅会导致交通堵塞、给城市管理带来压力,更有可能导致踩踏事件。由于户外场景受天气因素的影响较大,雾天在全年的天气中占有很大比例,尤其在每年的春冬季(2月至4月、10月至12月)。因此在雾天场景下人们出行是不可能避免的。
人群计数作为人群分析等以人为研究对象的场景理解任务基本核心功能之一,历来受到学术界和工业界的广泛关注。已有人群计数方法主要分为三类:基于检测的方法、基于回归的方法以及基于密度图估计的方法。基于检测的方法和基于回归的方法易受到遮挡和复杂背景的影响,较适用于稀疏人群,也忽略了人群分布等空间分布信息。近年来的人群计数方法技术研究多采用基于密度图估计的方法。同时现有人群计数的相关方法及技术大多是针对晴朗天气场景下进行研究和设计的。雾天场景图像的能见度剧烈下降、颜色变化、人群轮廓模糊、外观辨识度显著降级导致在雾天场景的人群计数任务具有较大挑战性。已有技术对于雾天场景下人群计数的效果十分有限。
发明内容
本发明需要解决的技术问题是提供一种雾天场景人群计数方法,以提升雾天场景的特征表达能力进而具备较高的人群计数准确性。
为解决上述技术问题,本发明所采用的技术方案是:一种雾天场景人群计数方法,包括如下步骤:
步骤101:将雾天场景图像输入主干网络进行初始特征提取,得到初始特征图;
步骤102:将初始特征图输入跨尺度多方向注意增强模块,得到尺度感知多方向注意增强特征图;
步骤103:将尺度感知多方向注意增强特征图与初始特征图进行融合,得到高级语义特征图;
步骤104:将高级语义特征图输入密度图回归模块进行密度图回归,得到人群密度图;
步骤105:将人群密度图的像素值求和,得到人群计数结果。
本发明技术方案的进一步改进在于:所述步骤101中所述主干网络包括十层卷积层和三层池化层,所述主干网络从输入依次为:两个卷积层、一个池化层、两个卷积层、一个池化层、三个卷积层、一个池化层和三个卷积层,每个卷积层的卷积核尺寸均为3×3,从输入到输出方向各卷积层依次生成64张特征图、64张特征图、128张特征图、128张特征图、256张特征图、256张特征图、256张特征图、512张特征图、512张特征图和512张特征图,各池化层的类型为步长为2的最大池化层。
本发明技术方案的进一步改进在于:所述步骤102的具体步骤如下:
步骤1021:将步骤101中的初始特征图输入至第一扩张卷积层中,得到第一尺度特征图,所述第一扩张卷积层的卷积核尺寸为3×3,扩张率为1,输出通道数为512;
步骤1022:将第一尺度特征图输入二维方向感知增强模块,得到第一尺度二维方向感知增强特征图;将第一尺度特征图输入空间注意增强模块,得到第一尺度空间注意增强特征图,将第一尺度二维方向感知增强特征图和第一尺度空间注意增强特征图进行对应像素位置相加,得到第一尺度多方向注意特征增强特征图;
步骤1023:将初始特征图和第一尺度多方向注意特征增强特征图进行对应位置像素相加,相加结果输入至第二扩张卷积层中,得到第二尺度特征图,所述第二扩张卷积层的卷积核尺寸为3×3,扩张率为2,输出通道数为512;
步骤1024:将第二尺度特征图输入二维方向感知增强模块,得到第二尺度二维方向感知增强特征图;将第二尺度特征图输入空间注意增强模块,得到第二尺度空间注意增强特征图;将第二尺度二维方向感知增强特征图和第二尺度空间注意增强特征图进行对应像素位置相加,得到第二尺度多方向注意特征增强特征图;
步骤1025:将初始特征图和第二尺度多方向注意特征增强特征图进行应置像素相加,相加结果输入至第三扩张卷积层中,得到第三尺度特征图,所述第三扩张卷积层的卷积核尺寸为3×3,扩张率为3,输出通道数为512;
步骤1026:将第三尺度特征图输入二维方向感知增强模块,得到第三尺度二维方向感知增强特征图;将第三尺度特征图输入空间注意增强模块,得到第三尺度空间注意增强特征图;将第三尺度二维方向感知增强特征图和第三尺度空间注意增强特征图进行对应像素位置相加,得到第三尺度多方向注意特征增强特征图;
步骤1027:将初始特征图和第三尺度多方向注意特征增强特征图应置像素相加,相加结果输入至第四扩张卷积层中,得到第四尺度特征图,所述第四扩张卷积层的卷积核尺寸为3×3,扩张率为4,输出通道数为512;
步骤1028:将第四尺度特征图输入二维方向感知增强模块,得到第四尺度二维方向感知增强特征图;将第四尺度特征图输入空间注意增强模块,得到第四尺度空间注意增强特征图;将第四尺度二维方向感知增强特征图和第四尺度空间注意增强特征图进行对应像素位置相加,得到第四尺度多方向注意特征增强特征图;
步骤1029:将第一尺度多方向注意特征增强特征图、第二尺度多方向注意特征增强特征图、第三尺度多方向注意特征增强特征图和第四多方向注意特征增强特征图进行对应像素位置相加,得到尺度感知多方向注意增强特征图。
本发明技术方案的进一步改进在于:所述步骤1022中将第一尺度特征图输入二维方向感知增强模块,得到第一尺度二维方向感知增强特征图的具体过程为:
将所述第一尺度特征图沿着水平坐标方向和垂直坐标方向进行自适应平均池化,分别生成尺寸为(h,1,c)的第一尺度水平池化结果和尺寸为(1,w,c)的第一尺度垂直池化结果,所述第一尺度特征图的尺寸为(h,w,c);将第一尺度水平池化结果进行宽和高方向的转置,得到第一尺度水平池化转置结果;将第一尺度水平池化转置结果和第一尺度垂直池化结果进行通道链接,得到第一尺度通道链接结果;将第一尺度通道连接结果输入第一尺度卷积层,得到第一尺度卷积结果,所述第一尺度卷积层的卷积核尺寸为1×1;将第一尺度卷积结果进行切片,得到第一尺度水平切片结果和第一尺度垂直切片结果;将第一尺度水平切片结果进行转置,得到第一尺度水平切片转置结果;将第一尺度水平切片转置结果和第一尺度垂直切片结果分别输入Sigmoid函数,分别生成第一尺度水平切片转置Sigmoid变换结果和第一尺度垂直切片Sigmoid变换结果,将这两者及第一尺度特征图进行对应像素位置相乘,相乘后的结果为第一尺度二维方向感知增强特征图。
本发明技术方案的进一步改进在于:所述步骤1024中的将第二尺度特征图输入二维方向感知增强模块得到第二尺度二维方向感知增强特征图的过程、步骤1026中的将第三尺度特征图输入二维方向感知增强模块得到第三尺度二维方向感知增强特征图的过程、步骤1028中的将第四尺度特征图输入二维方向感知增强模块得到第四尺度二维方向感知增强特征图的过程,与步骤1022中的将第一尺度特征图输入二维方向感知增强模块得到第一尺度二维方向感知增强特征图的具体过程相同。
本发明技术方案的进一步改进在于:二维方向感知增强模块的最终输出的二维方向感知增强特征图表示为:
式中,xc(i,j)为输入特征图,为水平方向变换结果,/>为垂直方向换结果。
本发明技术方案的进一步改进在于:所述步骤1022中将第一尺度特征图输入空间注意增强模块,得到第一尺度空间注意增强特征图的具体过程为:将第一尺度特征图进行通道维度的最大池化,得到第一尺度通道最大池化结果;将第一尺度通道最大池化结果依次输入一个卷积层、一个Sigmoid操作,得到第一尺度空间注意矩阵,所述卷积层的卷积核尺寸为7×7,输出特征图的通道数为1;将第一尺度空间注意矩阵和第一尺度特征图进行对应位置相乘,相乘的结果为第一尺度空间注意增强特征图。
本发明技术方案的进一步改进在于:所述步骤1024中的将第二尺度特征图输入空间注意增强模块得到第二尺度空间注意增强特征图的过程、步骤1026中的将第三尺度特征图输入空间注意增强模块得到第三尺度空间注意增强特征图的过程、步骤1028中的将第四尺度特征图输入空间注意增强模块得到第四尺度空间注意增强特征图的过程,与步骤1022中的将第一尺度特征图输入空间注意增强模块得到第一尺度空间注意增强特征图的具体过程相同。
本发明技术方案的进一步改进在于:所述步骤103中将尺度感知多方向注意增强特征图与初始特征图进行通道链接,通道链接结果即为高级语义特征图。
本发明技术方案的进一步改进在于:所述步骤104中密度图回归模块依次包含六个扩张卷积层和一个卷积层,每个扩张卷积层的卷积核尺寸为3×3,扩张率均为2,各所述扩张卷积层生成的特征图通道数由输入至输出方向依次为512、512、512、256、128和64;所述卷积层的卷积核尺寸为1×1,输出通道数为1,输出特征图即为人群密度图。
由于采用了上述技术方案,本发明取得的技术进步是:
1、本发明利用多方向注意增强操作来降低雾对人群计数任务的负面影响,该模块将场景图像在水平和垂直方向对特征进行编码,可以捕捉到沿空间方向的长期依赖关系,同时保存空间方向的精确位置信息,进而突出感兴趣的目标,从而降低场景中雾等模糊现象对人群计数性能的负面影响,提升了设计的人群计数方法的普适性。
2、本发明在不增加参数的情况下,采用初始特征提供部分有益信息,有机地结合多列尺度感知特征图来使得提取的场景特征包含了具有对尺度变换更鲁棒的位置信息,进而实现雾天场景的有效特征建模,从而实现精准鲁棒的人群计数。
附图说明
图1为本发明雾天场景人群计数流程图;
图2是本发明雾天场景人群计数模型整体结构示意图;
图3是采用本发明对雾天场景图像进行人群计数的示意图。
具体实施方式
本发明的目的是提供一种雾天场景人群计数方法,通过多方向注意增强操作捕捉沿空间方向的长期依赖关系和空间位置信息,采用初始特征提供部分有益信息并有机地结合其他尺度感知特征图来使得提取的场景特征包含了具有对尺度变换更鲁棒的位置信息,共同实现雾天场景的有效特征建模,从而实现精准鲁棒的人群计数。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
图1为本发明雾天场景人群计数方法流程图。如图1所示,一种雾天场景人群计数方法包括:
步骤101:将雾天场景图像输入到主干网络进行初始特征提取,得到初始特征图。
所述的主干网络包括十层卷积层和三层池化层。所述的主干网络从输入依次为:两个卷积层、一个池化层、两个卷积层、一个池化层、三个卷积层、一个池化层和三个卷积层;各所述卷积层的卷积核尺寸均为3×3,从输入到输出方向各卷积层依次生成64张特征图、64张特征图、128张特征图、128张特征图、256张特征图、256张特征图、256张特征图、512张特征图、512张特征图和512张特征图;各所述池化层均为步长为2的最大池化层。
步骤102:将初始特征图输入跨尺度多方向注意增强模块,得到尺度感知多方向注意增强特征图。
步骤1021:将所述初始特征图输入至一个扩张卷积,得到输入至第一扩张卷积层中,得到第一尺度特征图,所述扩张第一卷积层的卷积核尺寸为3×3,扩张率为1,输出特征图的通道数为512。
步骤1022:将第一尺度特征图输入二维方向感知增强模块,得到第一尺度二维方向感知增强特征图;将第一尺度特征图输入空间注意增强模块,得到第一尺度空间注意增强特征图;将第一尺度二维方向感知增强特征图和第一尺度空间注意增强特征图进行对应像素位置相加,得到第一尺度多方向注意特征增强特征图。
所述第一尺度特征图输入二维方向感知增强模块,得到第一尺度二维方向感知增强特征图,具体过程为:将所述第一尺度特征图沿着水平坐标方向和垂直坐标方向进行自适应平均池化,分别生成尺寸为(h,1,c)的第一尺度水平池化结果和尺寸为(1,w,c)的第一尺度垂直池化结果,所述第一尺度特征图的尺寸为(h,w,c);将第一尺度水平池化结果进行宽和高方向的转置,得到第一尺度水平池化转置结果;将第一尺度水平池化转置结果和第一尺度垂直池化结果进行通道链接,得到第一尺度通道链接结果;将第一尺度通道连接结果输入第一尺度卷积层,得到第一尺度卷积结果,所述第一尺度卷积层的卷积核尺寸为1×1;将第一尺度卷积结果进行切片,得到第一尺度水平切片结果和第一尺度垂直切片结果;将第一尺度水平切片结果进行转置,得到第一尺度水平切片转置结果;将第一尺度水平切片转置结果和第一尺度垂直切片结果分别输入Sigmoid函数,分别生成第一尺度水平切片转置Sigmoid变换结果和第一尺度垂直切片Sigmoid变换结果,将这两者及第一尺度特征图进行对应像素位置相乘(三者连乘),相乘后的结果为第一尺度二维方向感知增强特征图。其中,二维方向感知增强模块的最终输出的二维方向感知增强特征图可以表示为
式中,xc(i,j)为输入特征图,为水平方向变换结果,/>为垂直方向换结果。
所述将第一尺度特征图输入空间注意增强模块,得到第一尺度空间注意增强特征图,具体过程为:将第一尺度特征图进行通道维度的最大池化,得到第一尺度通道最大池化结果;将第一尺度通道最大池化结果依次输入一个卷积层、一个Sigmoid操作,得到第一尺度空间注意矩阵,所述卷积层的卷积核尺寸为7×7,输出特征图的通道数为1;将第一尺度空间注意矩阵和第一尺度特征图进行对应像素位置相乘,相乘的结果为第一尺度空间注意增强特征图。
步骤1023:将初始特征图和第一尺度多方向注意特征增强特征图进行对应位置像素相加,相加结果输入至第二扩张卷积层中,得到第二尺度特征图,所述第二扩张卷积层的卷积核尺寸为3×3,扩张率为2,输出特征图的通道数为512。
步骤1024:将第二尺度特征图输入二维方向感知增强模块,得到第二尺度二维方向感知增强特征图;将第二尺度特征图输入空间注意增强模块,得到第二尺度空间注意增强特征图;将第二尺度二维方向感知增强特征图和第二尺度空间注意增强特征图进行对应像素位置相加,得到第二尺度多方向注意特征增强特征图。
所述第二尺度特征图输入二维方向感知增强模块,得到第二尺度二维方向感知增强特征图,具体过程为:将所述第二尺度特征图沿着水平坐标方向和竖直坐标方向进行自适应平均池化,分别生成尺寸为(h,1,c)的第二尺度水平池化结果和尺寸为(1,w,c)的第二尺度垂直池化结果,所述第二尺度特征图的尺寸为(h,w,c);将第二尺度水平池化结果进行宽和高方向的转置,得到第二尺度水平池化转置结果;将第二尺度水平池化转置结果和第二尺度垂直池化结果进行通道链接,得到第二尺度通道链接结果;将第二尺度通道连接结果输入第二尺度卷积层,得到第二尺度卷积结果,所述第二尺度卷积层的卷积核尺寸为1×1;将第二尺度卷积结果进行切片,得到第二尺度水平切片结果和第二尺度垂直切片结果;将第二尺度水平切片结果进行转置,得到第二尺度水平切片转置结果;将第二尺度水平切片转置结果和第二尺度垂直切片结果分别输入Sigmoid函数,分别生成第二尺度水平切片转置Sigmoid变换结果和第二尺度垂直切片Sigmoid变换结果,将这两者及第二尺度特征图进行对应像素位置相乘(三者连乘),相乘后的结果为第二尺度二维方向感知增强特征图。
所述将第二尺度特征图输入空间注意增强模块,得到第二尺度空间注意增强特征图,具体过程为:将第二尺度特征图进行通道维度的最大池化,得到第二尺度通道最大池化结果;将第二尺度通道最大池化结果依次输入一个卷积层、一个Sigmoid操作,得到第二尺度空间注意矩阵,所述卷积层的卷积核尺寸为7×7,输出特征图的通道数为1;将第二尺度空间注意矩阵和第二尺度特征图进行对应像素位置相乘,相乘的结果为第二尺度空间注意增强特征图。
步骤1025:将所述初始特征图和第二尺度多方向注意特征增强特征图进行对应位置像素相加,相加结果输入至第三扩张卷积层中,得到第三尺度特征图,所述第三扩张卷积层的卷积核尺寸为3×3,扩张率为3,输出特征图的通道数为512。
步骤1026:将第三尺度特征图输入二维方向感知增强模块,得到第三尺度二维方向感知增强特征图;将第三尺度特征图输入空间注意增强模块,得到第三尺度空间注意增强特征图;将第三尺度二维方向感知增强特征图和第三尺度空间注意增强特征图进行对应像素位置相加,得到第三尺度多方向注意特征增强特征图。
所述第三尺度特征图输入二维方向感知增强模块,得到第三尺度二维方向感知增强特征图,具体过程为:将所述第三尺度特征图沿着水平坐标方向和垂直坐标方向进行自适应平均池化,分别生成尺寸为(h,1,c)的第三尺度水平池化结果和尺寸为(1,w,c)的第三尺度垂直池化结果,所述第三尺度特征图的尺寸为(h,w,c);将第三尺度水平池化结果进行宽和高方向的转置,得到第三尺度水平池化转置结果;将第三尺度水平池化转置结果和第三尺度垂直池化结果进行通道链接,得到第三尺度通道链接结果;将第三尺度通道连接结果输入第三尺度卷积层,得到第三尺度卷积结果,所述第三尺度卷积层的卷积核尺寸为1×1;将第三尺度卷积结果进行切片,得到第三尺度水平切片结果和第三尺度垂直切片结果;将第三尺度水平切片结果进行转置,得到第三尺度水平切片转置结果;将第三尺度水平切片转置结果和第三尺度垂直切片结果分别输入Sigmoid函数,分别生成第三尺度水平切片转置Sigmoid变换结果和第三尺度垂直切片Sigmoid变换结果,将这两者及第三尺度特征图进行对应像素位置相乘(三者连乘),相乘后的结果为第三尺度二维方向感知增强特征图。
所述将第三尺度特征图输入空间注意增强模块,得到第三尺度空间注意增强特征图,具体过程为:将第三尺度特征图进行通道维度的最大池化,得到第三尺度通道最大池化结果;将第三尺度通道最大池化结果依次输入一个卷积层、一个Sigmoid操作,得到第三尺度空间注意矩阵,所述卷积层的卷积核尺寸为7×7,输出特征图的通道数为1;将第三尺度空间注意矩阵和第三尺度特征图进行对应像素位置相乘,相乘的结果为第三尺度空间注意增强特征图。
步骤1027:将所述初始特征图和第三尺度多方向注意特征增强特征图进行对应位置像素相加,相加结果输入至第四扩张卷积层中,得到第四尺度特征图,所述第四扩张卷积层的卷积核尺寸为3×3,扩张率为4,输出特征图的通道数为512。
步骤1028:将第四尺度特征图输入二维方向感知增强模块,得到第四尺度二维方向感知增强特征图;将第四尺度特征图输入空间注意增强模块,得到第四尺度空间注意增强特征图;将第四尺度二维方向感知增强特征图和第四尺度空间注意增强特征图进行对应像素位置相加,得到第四尺度多方向注意特征增强特征图。
所述第四尺度特征图输入二维方向感知增强模块,得到第四尺度二维方向感知增强特征图,具体过程为:将所述第四尺度特征图沿着水平坐标方向和垂直坐标方向进行自适应平均池化,分别生成尺寸为(h,1,c)的第四尺度水平池化结果和尺寸为(1,w,c)的第四尺度垂直池化结果,所述第四尺度特征图的尺寸为(h,w,c);将第四尺度水平池化结果进行宽和高方向的转置,得到第四尺度水平池化转置结果;将第四尺度水平池化转置结果和第四尺度垂直池化结果进行通道链接,得到第四尺度通道链接结果;将第四尺度通道连接结果输入第四尺度卷积层,得到第四尺度卷积结果,所述第四尺度卷积层的卷积核尺寸为1×1;将第四尺度卷积结果进行切片,得到第四尺度水平切片结果和第四尺度垂直切片结果;将第四尺度水平切片结果进行转置,得到第四尺度水平切片转置结果;将第四尺度水平切片转置结果和第四尺度垂直切片结果分别输入Sigmoid函数,分别生成第四尺度水平切片转置Sigmoid变换结果和第四尺度垂直切片Sigmoid变换结果,将这两者及第四尺度特征图进行对应像素位置相乘(三者连乘),相乘后的结果为第四尺度二维方向感知增强特征图。
所述将第四尺度特征图输入空间注意增强模块,得到第四尺度空间注意增强特征图,具体过程为:将第四尺度特征图进行通道维度的最大池化,得到第四尺度通道最大池化结果;将第四尺度通道最大池化结果依次输入一个卷积层、一个Sigmoid操作,得到第四尺度空间注意矩阵,所述卷积层的卷积核尺寸为7×7,输出特征图的通道数为1;将第四尺度空间注意矩阵和第四尺度特征图进行对应像素位置相乘,相乘的结果为第四尺度空间注意增强特征图。
步骤1029:将所述第一尺度多方向注意特征增强特征图、所述第二尺度多方向注意特征增强特征图、所述第三尺度多方向注意特征增强特征图、所述第四多方向注意特征增强特征图进行对应像素位置相加,得到尺度感知多方向注意增强特征图。
步骤103:将所述尺度感知多方向注意增强特征图与初始特征图进行通道链接,通道链接结果即为高级语义特征图。
步骤104:将所述高级语义特征图输入密度图回归模块进行密度图回归,得到人群密度图。
所述密度图回归模块从输入到输出方向依次包含六个扩张卷积层和一个卷积层,每个扩张卷积层的卷积核尺寸为3×3,扩张率均为2,各所述扩张卷积层生成的特征图通道数由输入至输出方向依次为512、512、512、256、128和64;所述卷积层的卷积核尺寸为1×1,输出结果的通道数为1,输出特征图即为人群密度图。
步骤105:将所述人群密度图的像素值求和,得到人群计数结果。
下面结合本发明的具体实施例来进一步说明本发明的方案。
步骤1:准备任意分辨率的雾天场景图像作为输入,由于本发明中模型不使用任何全连接层,所以可以接收任意尺寸的图像作为输入。
步骤2:建立雾天场景人群计数模型,整体结构如图2所示,图2为本发明雾天场景人群计数模型整体结构示意图。建立雾天场景人群计数模型的过程如下:
2.1)建立主干网络部分,将雾天场景图像输入到主干网络后,获得初始特征图。这一阶段从输入到输出依次包括2个卷积层、1个池化层、2个卷积层、1个池化层、3个卷积层、1个池化层和3个卷积层;各卷积层的卷积核尺寸均为3×3,从输入到输出方向生成的特征图通道数依次为:64、64、128、128、256、256、256、512、512和512;各池化层均为步长是2的最大池化层。
2.2)建立跨尺度多方向注意增强模块,如图2所示,跨尺度多方向注意增强模块共包含4列结构,每一列包含1个扩张卷积层、1个二维方向感知增强模块、1个空间注意增强模块;第1列、第2列、第3列和第4列扩张卷积层的卷积核尺寸均为3×3,扩张率依次为1、2、3和4;第1列、第2列、第3列和第4列的二维方向感知增强模块结构相同,包含:2个自适应平均池化层、1个卷积层、1个切片操作和2个Sigmoid变换,2个自适应平均池化层的窗口尺寸分别为:(窗口宽和输入特征图的宽相同,高为1)/(窗口宽为1,高和输入特征图的高相同),卷积层的卷积核尺寸为1×1;第1列、第2列、第3列和第4列的空间注意增强模块结构相同,包含:1个通道维度的最大池化层和1个卷积层,卷积层的卷积核尺寸为7×7。
2.2.1)建立跨尺度多方向注意增强模块的第1列结构,接收2.1)中初始特征图作为输入,经过扩张卷积层,生成第一尺度特征图;将第一尺度特征图输入二维方向感知增强模块,生成第一尺度二维方向感知增强特征图;将第一尺度特征图输入空间注意增强模块,生成第一尺度空间注意增强特征图;将第一尺度二维空间增强特征图和第一尺度空间增强特征图进行对应像素位置相加,得到第一尺度多方向注意特征增强特征图。
将第一尺度特征图输入二维方向感知增强模块,生成第一尺度二维方向感知增强特征图,具体包括:将第一尺度特征图分别输入2个自适应平均池化层,随后将池化结果进行通道链接;将通道链接结果输入卷积层并进行水平和垂直方向的切片,得到两个切片结果并分别进行Sigmoid变换,将两个变换结果分别进行维度扩展,使其具备和第一尺度特征图相同的维度,将两个维度扩展后的结果与第一尺度特征图进行对应像素位置相乘,相乘结果即为第一尺度二维方向感知增强特征图。
将第一尺度特征图输入空间注意增强模块,生成第一尺度空间注意增强特征图,具体包括:将第一尺度特征图依次输入最大池化层和卷积层,随后与第一尺度特征图进行对应像素位置相乘,相乘后的结果为第一尺度空间注意增强特征图。
2.2.2)建立跨尺度多方向注意增强模块的第2列结构,接收2.1)中初始特征图和2.2.1)中的第一尺度多方向注意特征增强特征图作为输入,将两者进行对应像素位置相加,将相加后的结果经过扩张卷积层,生成第二尺度特征图;将第二尺度特征图输入二维方向感知增强模块,生成第二尺度二维方向感知增强特征图;将第二尺度特征图输入空间注意增强模块,生成第二尺度空间注意增强特征图;将第二尺度二维空间增强特征图和第二尺度空间增强特征图进行对应像素位置相加,得到第二尺度多方向注意特征增强特征图。
将第二尺度特征图输入二维方向感知增强模块,生成第二尺度二维方向感知增强特征图,具体包括:将第二尺度特征图分别输入2个自适应平均池化层,随后将池化结果进行通道链接;将通道链接结果输入卷积层并进行水平和垂直方向的切片,得到两个切片结果并分别进行Sigmoid变换,将两个变换结果分别进行维度扩展,使其具备和第二尺度特征图相同的维度,将两个维度扩展后的结果与第二尺度特征图进行对应像素位置相乘,相乘结果即为第二尺度二维方向感知增强特征图。
将第二尺度特征图输入空间注意增强模块,生成第二尺度空间注意增强特征图,具体包括:将第二尺度特征图依次输入最大池化层和卷积层,随后与第二尺度特征图进行对应像素位置相乘,相乘后的结果为第二尺度空间注意增强特征图。
2.2.3)建立跨尺度多方向注意增强模块的第3列结构,接收2.1)中初始特征图和2.2.2)中的第二尺度多方向注意特征增强特征图作为输入,将两者进行对应像素位置相加,将相加后的结果经过扩张卷积层,生成第三尺度特征图;将第三尺度特征图输入二维方向感知增强模块,生成第三尺度二维方向感知增强特征图;将第三尺度特征图输入空间注意增强模块,生成第三尺度空间注意增强特征图;将第三尺度二维空间增强特征图和第三尺度空间增强特征图进行对应像素位置相加,得到第三尺度多方向注意特征增强特征图。
将第三尺度特征图输入二维方向感知增强模块,生成第三尺度二维方向感知增强特征图,具体包括:将第三尺度特征图分别输入2个自适应平均池化层,随后将池化结果进行通道链接;将通道链接结果输入卷积层并进行水平和垂直方向的切片,得到两个切片结果并分别进行Sigmoid变换,将两个变换结果分别进行维度扩展,使其具备和第三尺度特征图相同的维度,将两个维度扩展后的结果与第三尺度特征图进行对应像素位置相乘,相乘结果即为第三尺度二维方向感知增强特征图。
将第三尺度特征图输入空间注意增强模块,生成第三尺度空间注意增强特征图,具体包括:将第三尺度特征图依次输入最大池化层和卷积层,随后与第三尺度特征图进行对应像素位置相乘,相乘后的结果为第三尺度空间注意增强特征图。
2.2.4)建立跨尺度多方向注意增强模块的第4列结构,接收2.1)中初始特征图和2.2.3)中的第三尺度多方向注意特征增强特征图作为输入,将两者进行对应像素位置相加,将相加后的结果经过扩张卷积层,生成第四尺度特征图;将第四尺度特征图输入二维方向感知增强模块,生成第四尺度二维方向感知增强特征图;将第四尺度特征图输入空间注意增强模块,生成第四尺度空间注意增强特征图;将第四尺度二维空间增强特征图和第四尺度空间增强特征图进行对应像素位置相加,得到第四尺度多方向注意特征增强特征图。
将第四尺度特征图输入二维方向感知增强模块,生成第四尺度二维方向感知增强特征图,具体包括:将第四尺度特征图分别输入2个自适应平均池化层,随后将池化结果进行通道链接;将通道链接结果输入卷积层并进行水平和垂直方向的切片,得到两个切片结果并分别进行Sigmoid变换,将两个变换结果分别进行维度扩展,使其具备和第四尺度特征图相同的维度,将两个维度扩展后的结果与第四尺度特征图进行对应像素位置相乘,相乘结果即为第四尺度二维方向感知增强特征图。
将第四尺度特征图输入空间注意增强模块,生成第四尺度空间注意增强特征图,具体包括:将第四尺度特征图依次输入最大池化层和卷积层,随后与第四尺度特征图进行对应像素位置相乘,相乘后的结果为第四尺度空间注意增强特征图。
2.2.5)将2.2.1)中第一尺度多方向注意特征增强特征图、2.2.2)中第二尺度多方向注意特征增强特征图、2.2.3)中第三尺度多方向注意特征增强特征图和2.2.4)中第四尺度多方向注意特征增强特征图进行对应像素位置相加,得到尺度感知多方向注意增强特征图。
2.3)将2.1)中初始特征图和2.2.5)中尺度感知多方向注意增强特征图进行通道链接,得到高级语义特征图。
2.4)建立密度图回归模块,接收2.3)中高级语义特征图作为输入,输入至建立的密度图回归模块,得到人群密度图。密度图回归模块从输入到输出方向依次包含6个扩张卷积层和1个卷积层,扩张卷积层的卷积核尺寸均为3×3,扩张率均为2,各所述扩张卷积层生成的特征图通道数由输入至输出方向依次为512、512、512、256、128和64,卷积层的卷积核尺寸为1×1,输出结果的通道数为1,输出特征图即为人群密度图。
2.5)对2.4)中的人群密度图的像素值求和,得到预测的人群计数结果。
2.6)在建立的雾天场景人群计数模型使用前,需利用若干张雾天场景图像和真实人群密度图对建立的模型进行训练,训练过程中使用欧氏距离作为真实人群密度图和生成的人群密度图的损失函数,使其损失最小,训练步骤如下:
为建立的雾天场景人群计数模型的参数随机设定一个初始值,在每次使用模型得到图像样本的生成人群密度图之后,根据欧氏距离损失函数对比真实人群密度图和生成人群密度图确定模型的每一次迭代误差,将模型每一次的误差反向传播,调整所述人群计数模型的参数,对所述雾天场景人群计数模型进行优化。采用随机梯度下降优化算法在每一次优化迭代中更新参数,直到损失函数收敛到一个较小的值,保存参数及训练后的模型。
使用训练后的雾天场景人群计数模型对任意输入的雾天场景图像进行人群计数,将任意单张图像直接输入到人群计数模型中,即可得到人群计数结果,图3为采用本发明人群计数方法对雾天场景图像进行人群计数的示意图。
Claims (8)
1.一种雾天场景人群计数方法,其特征在于:包括如下步骤:
步骤101:将雾天场景图像输入主干网络进行初始特征提取,得到初始特征图;
步骤102:将初始特征图输入跨尺度多方向注意增强模块,得到尺度感知多方向注意增强特征图;
所述步骤102的具体步骤如下:
步骤1021:将步骤101中的初始特征图输入至第一扩张卷积层中,得到第一尺度特征图,所述第一扩张卷积层的卷积核尺寸为3×3,扩张率为1,输出通道数为512;
步骤1022:将第一尺度特征图输入二维方向感知增强模块,得到第一尺度二维方向感知增强特征图;将第一尺度特征图输入空间注意增强模块,得到第一尺度空间注意增强特征图,将第一尺度二维方向感知增强特征图和第一尺度空间注意增强特征图进行对应像素位置相加,得到第一尺度多方向注意特征增强特征图;
将第一尺度特征图输入二维方向感知增强模块,得到第一尺度二维方向感知增强特征图的具体过程为:
将所述第一尺度特征图沿着水平坐标方向和垂直坐标方向进行自适应平均池化,分别生成尺寸为(h,1,c)的第一尺度水平池化结果和尺寸为(1,w,c)的第一尺度垂直池化结果,所述第一尺度特征图的尺寸为(h,w,c);将第一尺度水平池化结果进行宽和高方向的转置,得到第一尺度水平池化转置结果;将第一尺度水平池化转置结果和第一尺度垂直池化结果进行通道链接,得到第一尺度通道链接结果;将第一尺度通道连接结果输入第一尺度卷积层,得到第一尺度卷积结果,所述第一尺度卷积层的卷积核尺寸为1×1;将第一尺度卷积结果进行切片,得到第一尺度水平切片结果和第一尺度垂直切片结果;将第一尺度水平切片结果进行转置,得到第一尺度水平切片转置结果;将第一尺度水平切片转置结果和第一尺度垂直切片结果分别输入Sigmoid函数,分别生成第一尺度水平切片转置Sigmoid变换结果和第一尺度垂直切片Sigmoid变换结果,将这两者及第一尺度特征图进行对应像素位置相乘,相乘后的结果为第一尺度二维方向感知增强特征图;
步骤1023:将初始特征图和第一尺度多方向注意特征增强特征图进行对应位置像素相加,相加结果输入至第二扩张卷积层中,得到第二尺度特征图,所述第二扩张卷积层的卷积核尺寸为3×3,扩张率为2,输出通道数为512;
步骤1024:将第二尺度特征图输入二维方向感知增强模块,得到第二尺度二维方向感知增强特征图;将第二尺度特征图输入空间注意增强模块,得到第二尺度空间注意增强特征图;将第二尺度二维方向感知增强特征图和第二尺度空间注意增强特征图进行对应像素位置相加,得到第二尺度多方向注意特征增强特征图;
步骤1025:将初始特征图和第二尺度多方向注意特征增强特征图进行应置像素相加,相加结果输入至第三扩张卷积层中,得到第三尺度特征图,所述第三扩张卷积层的卷积核尺寸为3×3,扩张率为3,输出通道数为512;
步骤1026:将第三尺度特征图输入二维方向感知增强模块,得到第三尺度二维方向感知增强特征图;将第三尺度特征图输入空间注意增强模块,得到第三尺度空间注意增强特征图;将第三尺度二维方向感知增强特征图和第三尺度空间注意增强特征图进行对应像素位置相加,得到第三尺度多方向注意特征增强特征图;
步骤1027:将初始特征图和第三尺度多方向注意特征增强特征图应置像素相加,相加结果输入至第四扩张卷积层中,得到第四尺度特征图,所述第四扩张卷积层的卷积核尺寸为3×3,扩张率为4,输出通道数为512;
步骤1028:将第四尺度特征图输入二维方向感知增强模块,得到第四尺度二维方向感知增强特征图;将第四尺度特征图输入空间注意增强模块,得到第四尺度空间注意增强特征图;将第四尺度二维方向感知增强特征图和第四尺度空间注意增强特征图进行对应像素位置相加,得到第四尺度多方向注意特征增强特征图;
步骤1029:将第一尺度多方向注意特征增强特征图、第二尺度多方向注意特征增强特征图、第三尺度多方向注意特征增强特征图和第四多方向注意特征增强特征图进行对应像素位置相加,得到尺度感知多方向注意增强特征图;
步骤103:将尺度感知多方向注意增强特征图与初始特征图进行融合,得到高级语义特征图;
步骤104:将高级语义特征图输入密度图回归模块进行密度图回归,得到人群密度图;
步骤105:将人群密度图的像素值求和,得到人群计数结果。
2.根据权利要求1所述的一种雾天场景人群计数方法,其特征在于:所述步骤101中所述主干网络包括十层卷积层和三层池化层,所述主干网络从输入依次为:两个卷积层、一个池化层、两个卷积层、一个池化层、三个卷积层、一个池化层和三个卷积层,每个卷积层的卷积核尺寸均为3×3,从输入到输出方向各卷积层依次生成64张特征图、64张特征图、128张特征图、128张特征图、256张特征图、256张特征图、256张特征图、512张特征图、512张特征图和512张特征图,各池化层的类型为步长为2的最大池化层。
3.根据权利要求1所述的一种雾天场景人群计数方法,其特征在于:所述步骤1024中的将第二尺度特征图输入二维方向感知增强模块得到第二尺度二维方向感知增强特征图的过程、步骤1026中的将第三尺度特征图输入二维方向感知增强模块得到第三尺度二维方向感知增强特征图的过程、步骤1028中的将第四尺度特征图输入二维方向感知增强模块得到第四尺度二维方向感知增强特征图的过程,与步骤1022中的将第一尺度特征图输入二维方向感知增强模块得到第一尺度二维方向感知增强特征图的具体过程相同。
4.根据权利要求3所述的一种雾天场景人群计数方法,其特征在于:二维方向感知增强模块的最终输出的二维方向感知增强特征图表示为:
式中,xc(i,j)为输入特征图,为水平方向变换结果,/>为垂直方向换结果。
5.根据权利要求4所述的一种雾天场景人群计数方法,其特征在于:所述步骤1022中将第一尺度特征图输入空间注意增强模块,得到第一尺度空间注意增强特征图的具体过程为:将第一尺度特征图进行通道维度的最大池化,得到第一尺度通道最大池化结果;将第一尺度通道最大池化结果依次输入一个卷积层、一个Sigmoid操作,得到第一尺度空间注意矩阵,所述卷积层的卷积核尺寸为7×7,输出特征图的通道数为1;将第一尺度空间注意矩阵和第一尺度特征图进行对应位置相乘,相乘的结果为第一尺度空间注意增强特征图。
6.根据权利要求5所述的一种雾天场景人群计数方法,其特征在于:所述步骤1024中的将第二尺度特征图输入空间注意增强模块得到第二尺度空间注意增强特征图的过程、步骤1026中的将第三尺度特征图输入空间注意增强模块得到第三尺度空间注意增强特征图的过程、步骤1028中的将第四尺度特征图输入空间注意增强模块得到第四尺度空间注意增强特征图的过程,与步骤1022中的将第一尺度特征图输入空间注意增强模块得到第一尺度空间注意增强特征图的具体过程相同。
7.根据权利要求6所述的一种雾天场景人群计数方法,其特征在于:所述步骤103中将尺度感知多方向注意增强特征图与初始特征图进行通道链接,通道链接结果即为高级语义特征图。
8.根据权利要求7所述的一种雾天场景人群计数方法,其特征在于:所述步骤104中密度图回归模块依次包含六个扩张卷积层和一个卷积层,每个扩张卷积层的卷积核尺寸为3×3,扩张率均为2,各所述扩张卷积层生成的特征图通道数由输入至输出方向依次为512、512、512、256、128和64;所述卷积层的卷积核尺寸为1×1,输出通道数为1,输出特征图即为人群密度图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111548521.7A CN114399728B (zh) | 2021-12-17 | 2021-12-17 | 一种雾天场景人群计数方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111548521.7A CN114399728B (zh) | 2021-12-17 | 2021-12-17 | 一种雾天场景人群计数方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114399728A CN114399728A (zh) | 2022-04-26 |
CN114399728B true CN114399728B (zh) | 2023-12-05 |
Family
ID=81226331
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111548521.7A Active CN114399728B (zh) | 2021-12-17 | 2021-12-17 | 一种雾天场景人群计数方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114399728B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117253184B (zh) * | 2023-08-25 | 2024-05-17 | 燕山大学 | 一种雾先验频域注意表征引导的雾天图像人群计数方法 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019114145A1 (zh) * | 2017-12-12 | 2019-06-20 | 深圳光启合众科技有限公司 | 监控视频中人数检测方法及装置 |
CN109948553A (zh) * | 2019-03-20 | 2019-06-28 | 北京航空航天大学 | 一种多尺度密集人群计数方法 |
CN110188685A (zh) * | 2019-05-30 | 2019-08-30 | 燕山大学 | 一种基于双注意力多尺度级联网络的目标计数方法及系统 |
CN110705340A (zh) * | 2019-08-12 | 2020-01-17 | 广东石油化工学院 | 一种基于注意力神经网络场的人群计数方法 |
CN110837786A (zh) * | 2019-10-30 | 2020-02-25 | 汇纳科技股份有限公司 | 基于空间通道的密度图产生方法、装置、电子终端及介质 |
CN111242036A (zh) * | 2020-01-14 | 2020-06-05 | 西安建筑科技大学 | 一种基于编码-解码结构多尺度卷积神经网络的人群计数方法 |
CN111429466A (zh) * | 2020-03-19 | 2020-07-17 | 北京航空航天大学 | 一种基于多尺度信息融合网络的空基人群计数与密度估计方法 |
CN111832413A (zh) * | 2020-06-09 | 2020-10-27 | 天津大学 | 基于时空多尺度网络的人流密度图估计、定位和跟踪方法 |
CN112084868A (zh) * | 2020-08-10 | 2020-12-15 | 北京航空航天大学 | 一种基于注意力机制的遥感图像中目标计数方法 |
CN112541466A (zh) * | 2020-12-21 | 2021-03-23 | 山东师范大学 | 基于上下文注意力机制网络的人群计数方法及系统 |
CN112541459A (zh) * | 2020-12-21 | 2021-03-23 | 山东师范大学 | 基于多尺度感知注意力网络的人群计数方法及系统 |
CN113011329A (zh) * | 2021-03-19 | 2021-06-22 | 陕西科技大学 | 一种基于多尺度特征金字塔网络及密集人群计数方法 |
CN113283356A (zh) * | 2021-05-31 | 2021-08-20 | 上海应用技术大学 | 多级注意力尺度感知人群计数方法 |
CN113538402A (zh) * | 2021-07-29 | 2021-10-22 | 燕山大学 | 一种基于密度估计的人群计数方法及系统 |
CN113591968A (zh) * | 2021-07-27 | 2021-11-02 | 中国人民解放军国防科技大学 | 一种基于非对称注意力特征融合的红外弱小目标检测方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11288820B2 (en) * | 2018-06-09 | 2022-03-29 | Lot Spot Inc. | System and method for transforming video data into directional object count |
CN109241895B (zh) * | 2018-08-28 | 2021-06-04 | 北京航空航天大学 | 密集人群计数方法及装置 |
-
2021
- 2021-12-17 CN CN202111548521.7A patent/CN114399728B/zh active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019114145A1 (zh) * | 2017-12-12 | 2019-06-20 | 深圳光启合众科技有限公司 | 监控视频中人数检测方法及装置 |
CN109948553A (zh) * | 2019-03-20 | 2019-06-28 | 北京航空航天大学 | 一种多尺度密集人群计数方法 |
CN110188685A (zh) * | 2019-05-30 | 2019-08-30 | 燕山大学 | 一种基于双注意力多尺度级联网络的目标计数方法及系统 |
CN110705340A (zh) * | 2019-08-12 | 2020-01-17 | 广东石油化工学院 | 一种基于注意力神经网络场的人群计数方法 |
CN110837786A (zh) * | 2019-10-30 | 2020-02-25 | 汇纳科技股份有限公司 | 基于空间通道的密度图产生方法、装置、电子终端及介质 |
CN111242036A (zh) * | 2020-01-14 | 2020-06-05 | 西安建筑科技大学 | 一种基于编码-解码结构多尺度卷积神经网络的人群计数方法 |
CN111429466A (zh) * | 2020-03-19 | 2020-07-17 | 北京航空航天大学 | 一种基于多尺度信息融合网络的空基人群计数与密度估计方法 |
CN111832413A (zh) * | 2020-06-09 | 2020-10-27 | 天津大学 | 基于时空多尺度网络的人流密度图估计、定位和跟踪方法 |
CN112084868A (zh) * | 2020-08-10 | 2020-12-15 | 北京航空航天大学 | 一种基于注意力机制的遥感图像中目标计数方法 |
CN112541466A (zh) * | 2020-12-21 | 2021-03-23 | 山东师范大学 | 基于上下文注意力机制网络的人群计数方法及系统 |
CN112541459A (zh) * | 2020-12-21 | 2021-03-23 | 山东师范大学 | 基于多尺度感知注意力网络的人群计数方法及系统 |
CN113011329A (zh) * | 2021-03-19 | 2021-06-22 | 陕西科技大学 | 一种基于多尺度特征金字塔网络及密集人群计数方法 |
CN113283356A (zh) * | 2021-05-31 | 2021-08-20 | 上海应用技术大学 | 多级注意力尺度感知人群计数方法 |
CN113591968A (zh) * | 2021-07-27 | 2021-11-02 | 中国人民解放军国防科技大学 | 一种基于非对称注意力特征融合的红外弱小目标检测方法 |
CN113538402A (zh) * | 2021-07-29 | 2021-10-22 | 燕山大学 | 一种基于密度估计的人群计数方法及系统 |
Non-Patent Citations (5)
Title |
---|
Cnn-based density estimation and crowd counting: A survey;Gao G等;《arXiv:2003.12783》;1-25 * |
Deeply scale aggregation network for object counting;Li He等;《 Knowledge-Based Systems》;第210卷;1-10 * |
Direction-aware attention aggregation for single-stage hazy-weather crowd counting;Kong W等;《Expert Systems with Applications》;第225卷;1-11 * |
基于多尺度感知注意力网络的人群计数算法研究;江计兵;《中国优秀硕士学位论文全文数据库信息科技辑》(第1期);I138-1189 * |
基于多尺度空间注意力特征融合的人群计数网络;杜培德等;《计算机应用》;第41卷(第2期);537-543 * |
Also Published As
Publication number | Publication date |
---|---|
CN114399728A (zh) | 2022-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111145174B (zh) | 基于图像语义特征进行点云筛选的3d目标检测方法 | |
CN111310773B (zh) | 一种高效的卷积神经网络的车牌定位方法 | |
CN109635511B (zh) | 一种基于条件生成对抗网络的高层居住区强排方案生成设计方法 | |
CN108537824B (zh) | 基于交替反卷积与卷积的特征图增强的网络结构优化方法 | |
CN111310861A (zh) | 一种基于深度神经网络的车牌识别和定位方法 | |
CN112487862B (zh) | 基于改进EfficientDet模型的车库行人检测方法 | |
CN110110578B (zh) | 一种室内场景语义标注方法 | |
CN110659664B (zh) | 一种基于ssd的高精度识别小物体的方法 | |
CN113536925B (zh) | 一种基于引导注意力机制的人群计数方法 | |
CN110334719B (zh) | 一种提取遥感影像中建筑物图像的方法及系统 | |
CN111582029A (zh) | 一种基于密集连接与注意力机制的交通标志识别方法 | |
CN113436210B (zh) | 一种融合上下文逐级采样的道路图像分割方法 | |
CN114155210B (zh) | 基于注意力机制与标准化密集空洞空间多尺度融合网络的人群计数方法 | |
CN113066089B (zh) | 一种基于注意力引导机制的实时图像语义分割方法 | |
CN115984850A (zh) | 基于改进Deeplabv3+的轻量级遥感影像语义分割方法 | |
CN114399728B (zh) | 一种雾天场景人群计数方法 | |
CN111640116A (zh) | 基于深层卷积残差网络的航拍图建筑物分割方法及装置 | |
CN110264483B (zh) | 一种基于深度学习的语义图像分割方法 | |
CN115965789A (zh) | 一种基于场景感知类注意力的遥感图像语义分割方法 | |
CN112215241B (zh) | 一种基于小样本学习的图像特征提取装置 | |
CN110059544B (zh) | 一种基于道路场景的行人检测方法和系统 | |
CN108197613B (zh) | 一种基于深度卷积级联网络的人脸检测优化方法 | |
CN113192204B (zh) | 单幅倾斜遥感图像中建筑物的三维重建方法 | |
CN114494284B (zh) | 一种基于显式监督区域关系的场景解析模型及方法 | |
CN115170803A (zh) | 一种基于e-solo的城市街景实例分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |