CN110188685B - 一种基于双注意力多尺度级联网络的目标计数方法及系统 - Google Patents

一种基于双注意力多尺度级联网络的目标计数方法及系统 Download PDF

Info

Publication number
CN110188685B
CN110188685B CN201910462177.6A CN201910462177A CN110188685B CN 110188685 B CN110188685 B CN 110188685B CN 201910462177 A CN201910462177 A CN 201910462177A CN 110188685 B CN110188685 B CN 110188685B
Authority
CN
China
Prior art keywords
feature map
branch
sub
feature
convolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910462177.6A
Other languages
English (en)
Other versions
CN110188685A (zh
Inventor
张世辉
李贺
孔维航
何欢
王爽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yanshan University
Original Assignee
Yanshan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yanshan University filed Critical Yanshan University
Priority to CN201910462177.6A priority Critical patent/CN110188685B/zh
Publication of CN110188685A publication Critical patent/CN110188685A/zh
Application granted granted Critical
Publication of CN110188685B publication Critical patent/CN110188685B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • G06V10/464Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Abstract

本发明公开一种基于双注意力多尺度级联网络的目标计数方法及系统。方法包括:将灰度化处理后的图像输入至双注意力多尺度级联网络的初始模块进行初始特征提取,得到初始特征图;将初始特征图输入至级联网络的第一分支网络,得到低层细节特征图和高层语义特征图;将上述特征图进行通道注意力变换,生成全局特征信息;将初始特征图输入至级联网络中的第二分支网络的空间注意力金字塔结构,生成图像的多尺度特征;将多尺度特征和全局特征信息进行融合,得到融合结果;将融合结果进行特征抽取,生成估计的目标分布密度图;将目标分布密度图进行像素求和,得到估计的目标计数结果。本发明可有效实现复杂场景下目标精确计数,具有较好的鲁棒性和泛化性。

Description

一种基于双注意力多尺度级联网络的目标计数方法及系统
技术领域
本发明涉及图像处理领域,特别是涉及一种基于双注意力多尺度级联网络的目标计数方法。
背景技术
目标计数是指对场景中某一类特定目标的数量进行估计。目标计数问题对于场景理解、视觉推理等任务中建立高层认知的过程至关重要。成熟的目标计数方法,可以用于监控视频中人群计数及车辆计数,显微镜下细胞计数,及野外开放场景下动植物计数等现实应用。
现有目标计数方法大多针对人群计数和车辆计数进行设计,这主要是由于安防监控技术的广泛应用。现有的目标计数方法主要采用基于密度分布图估计的方法,也就是估计图像中的目标密度分布图,将密度分布图的像素求和即可得到目标计数结果。由于密度分布图估计的方法除了可以提供目标计数结果,还可以提供目标分布的空间信息。现有的目标计数方法大多采用密度分布图估计的方法。但由于目标计数任务中存在外观多尺度和分布不均等因素的存在,现有目标计数方法的准确率和鲁棒性受到限制。
发明内容
本发明的目的是提供一种基于双注意力多尺度级联网络的目标计数方法及系统,通过空间注意力金字塔结构抽取图像的多尺度特征有效解决图像中目标外观多尺度导致计数偏差的问题,通过通道注意力加权融合结构抽取全局特征信息有效提高计数方法的鲁棒性,从而完成准确的目标计数任务。
为实现上述目的,本发明提供了如下方案:
一种基于双注意力多尺度级联网络的目标计数方法,包括:
获取灰度化处理后的图像;
将所述灰度化处理后的图像输入至双注意力多尺度级联网络的初始模块进行初始特征提取,得到初始特征图;所述初始模块包括两个卷积层;
将所述初始特征图输入至所述双注意力多尺度级联网络的第一分支网络,得到低层细节特征图和高层语义特征图;所述第一分支网络包括多个卷积层和多个池化层;
将所述低层细节特征图和所述高层语义特征图进行通道注意力变换,生成全局特征信息;
将所述初始特征图输入至所述双注意力多尺度级联网络中的第二分支网络的空间注意力金字塔结构,生成图像的多尺度特征;
将所述多尺度特征和所述全局特征信息进行融合,得到融合结果;
将所述融合结果进行特征抽取,生成估计的目标分布密度图;
将所述目标分布密度图进行像素求和,得到估计的目标计数结果。
可选的,所述将所述低层细节特征图和所述高层语义特征图进行通道注意力变换,生成全局特征信息,具体包括:
将所述高层语义特征图进行全局池化,得到全局池化后的特征图;
将所述全局池化后的特征图进行一个1×1的卷积,得到卷积后的高层语义特征图;
将所述卷积后的高层语义特征图和所述低层细节特征图进行对应元素相乘,得到全局特征信息。
可选的,所述空间注意力金字塔结构包括1个主分支和5个子分支,依次为第一子分支、第二子分支、第三子分支、第四子分支和第五子分支;所述主分支包括一个卷积层、一个池化层和两个卷积层,所述第一子分支依次包括一个卷积层和一个Sigmoid层;所述第二子分支包括一个扩张卷积层;所述第三子分支依次包括一个池化层和两个扩张卷积层;所述第四子分支依次包括一个池化层和两个扩张卷积层;所述第五子分支依次包括一个池化层和两个扩张卷积层。
可选的,所述主分支中每个卷积层的卷积核尺寸由输入至输出方向依次为7×7、5×5和5×5,各所述卷积层生成的特征图通道数由输入至输出方向依次为32、32和16;所述主分支中池化层的类型为步长为2的最大池化层;
所述第一子分支中卷积层的卷积核尺寸为1×1,生成的特征图通道数为24;
所述第二子分支中扩张卷积层的卷积核尺寸为1×1,采样率为1,生成的特征图通道数为24;
所述第三子分支中池化层的类型为步长为2的最大池化层;所述第三子分支中每个扩张卷积层的卷积核尺寸均为3×3,每个扩张卷积层的采样率均为4,每个卷积层生成的特征图通道数均为8;
所述第四子分支中池化层的类型为步长为2的最大池化层;所述第四子分支中每个扩张卷积层的卷积核尺寸均为3×3,每个扩张卷积层的采样率均为3,每个卷积层生成的特征图通道数均为8;
所述第五子分支中池化层的类型为步长为2的最大池化层;所述第五子分支中每个扩张卷积层的卷积核尺寸均为3×3,每个扩张卷积层的采样率均为2,每个卷积层生成的特征图通道数均为8。
可选的,所述将所述初始特征图输入至所述双注意力多尺度级联网络中的第二分支网络的空间注意力金字塔结构,生成图像的多尺度特征,具体包括:
将所述初始特征图输入至所述空间注意力金字塔结构的主分支中,得到主分支特征图;
将所述主分支特征图输入第一子分支,得到第一子分支特征图;
将所述主分支特征图输入第二子分支,得到第二子分支特征图;
将所述主分支特征图输入至第三子分支,经过所述第三子分支中的两个扩张卷积层依次得到第三子分支初步特征图和第三子分支特征图;
将所述第三子分支初步特征图输入至所述第四子分支,经过所述第四子分支中的两个扩张卷积层依次得到第四子分支初步特征图和第四子分支特征图;
将所述第四子分支初步特征图输入至所述第五子分支,得到第五子分支特征图;
将所述第五子分支特征图经过一个卷积核尺寸为4×4、步长为2的反卷积得到上采样后的第五子分支特征图;
将所述上采样后的第五子分支特征图和第四子分支特征图进行通道上的链接,得到四五子分支特征图;所述反卷积操作生成的特征图通道数为8;所述四五子分支特征图通道数为16;
将所述四五子分支特征图经过一个卷积核尺寸为4×4、步长为2的反卷积得到上采样后的四五子分支特征图;
将所述上采样后的四五子分支特征图和第三子分支特征图进行通道上的链接,得到三四五子分支特征图;所述反卷积操作生成的特征图通道数为16;所述三四五子分支特征图通道数为24;
将所述三四五子特征图和所述第二子分支特征图进行对应元素相乘,得到二三四五子特征图;
将所述第一子分支特征图和所述第二子分支特征图进行对应元素相乘,得到一二子特征图;
将所述二三四五子特征图和所述一二子特征图进行通道上的链接,得到多尺度特征。
可选的,所述将所述多尺度特征和所述全局特征信息进行融合,得到融合结果,具体包括:
将所述多尺度特征和所述全局特征信息进行通道上的链接,得到全局多尺度特征,所述全局多尺度特征为融合结果。
可选的,所述将所述融合结果进行特征抽取,生成估计的目标分布密度图,具体包括:
将所述融合结果进行特征抽取操作,依次经过三个卷积层、两个反卷积层和一个卷积层,得到目标分布密度图;所述特征抽取操作的四个卷积层的卷积核尺寸依次为3×3、3×3、3×3和1×1,生成的特征图通道数依次为32、24、16和1;所述特征抽取操作的两个反卷积层的卷积核尺寸均为4×4,生成的特征图通道数依次为16和8,步长均为2。
可选的,在所述将所述目标分布密度图进行像素求和,得到估计的目标计数结果之后,还包括:
获取全连接层和特征抽取操作的损失函数;
将所述全连接层和特征抽取操作的损失函数进行加权,得到级联网络的整体损失函数;所述全连接层的损失函数采用交叉熵函数,所述特征抽取操作的损失函数为估计的目标分布密度图和真实的目标分布密度图之间的欧氏距离;
根据所述级联网络的整体损失函数确定所述级联网络的误差;
将所述误差进行反向传播,更新所述级联网络的权重参数,经过多次迭代,得到训练好的用于目标计数的模型。
一种基于双注意力多尺度级联网络的目标计数系统,包括:
获取模块,用于获取灰度化处理后的图像;
第一特征提取模块,用于将所述灰度化处理后的图像输入至双注意力多尺度级联网络的初始模块进行初始特征提取,得到初始特征图;所述初始模块包括两个卷积层;
低层细节特征图、高层语义特征图确定模块,用于将所述初始特征图输入至所述双注意力多尺度级联网络的第一分支网络,得到低层细节特征图和高层语义特征图;所述第一分支网络包括多个卷积层和多个池化层;
变换模块,用于将所述低层细节特征图和所述高层语义特征图进行通道注意力变换,生成全局特征信息;
多尺度特征确定模块,用于将所述初始特征图输入至所述双注意力多尺度级联网络中的第二分支网络的空间注意力金字塔结构,生成图像的多尺度特征;
融合模块,用于将所述多尺度特征和所述全局特征信息进行融合,得到融合结果;
第二特征提取模块,将所述融合结果进行特征抽取,生成估计的目标分布密度图;
目标计数结果确定模块,用于将所述目标分布密度图进行像素求和,得到估计的目标计数结果。
可选的,所述变换模块,具体包括:
全局池化单元,用于将所述高层语义特征图进行全局池化,得到全局池化后的特征图;
卷积处理单元,用于将所述全局池化后的特征图进行一个1×1的卷积,得到卷积后的高层语义特征图;
相乘处理单元,用于将所述卷积后的高层语义特征图和所述低层细节特征图进行对应元素相乘,得到全局特征信息。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
(1)通过设计并使用空间注意力金字塔结构抽取场景目标的多尺度信息,可以有效改善由于目标外观尺度多样导致的目标计数偏差的问题。
(2)通过设计基于通道注意力加权方式的全局特征模块将低层细节特征和高层语义特征进行融合,进而得到并利用全局特征信息,可以有效提高目标计数任务的鲁棒性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明基于双注意力多尺度级联网络的目标计数方法流程图;
图2为本发明中双注意力多尺度级联网络的整体结构图;
图3为本发明中级联网络的第一分支网络和全连接层的结构示意图;
图4为本发明中高层语义特征图和低层细节特征图进行通道注意力变换的示意图;
图5为本发明中级联网络中第二分支网络的空间注意力金字塔结构的示意图;
图6为本发明中级联网络中第二分支网络的特征抽取操作的结构示意图;
图7为采用本发明目标计数方法进行车辆计数的示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种基于双注意力多尺度级联网络的目标计数方法及系统,通过空间注意力金字塔结构抽取图像的多尺度特征有效解决图像中目标外观多尺度导致计数偏差的问题,通过通道注意力加权融合结构抽取全局特征信息有效提高计数方法的鲁棒性,从而完成准确的目标计数任务。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
实施例1:
图1为本发明基于双注意力多尺度级联网络的目标计数方法流程图。如图1所示,一种基于双注意力多尺度级联网络的目标计数方法,包括:
步骤101:获取灰度化处理后的图像。
步骤102:将所述灰度化处理后的图像输入至双注意力多尺度级联网络的初始模块进行初始特征提取,得到初始特征图。
所述初始模块包括两个卷积层。将灰度化处理后的图形输入至所述级联网络中的第一卷积层,得到第一初始特征图;将所述第一初始特征图输入所述级联网络中的第二卷积层,得到初始特征图。所述第一卷积层和第二卷积层的卷积核尺寸均为9×9。图像经过第一卷积层生成16张特征图,再经过第二卷积层后生成32张特征图,即初始特征图。
步骤103:将所述初始特征图输入至所述双注意力多尺度级联网络的第一分支网络,得到低层细节特征图和高层语义特征图。
所述第一分支网络包括多个卷积层和多个池化层,具体的,所述第一分支网络中包括五个卷积层和两个池化层,依次为:一个卷积层、一个池化层、三个卷积层、一个池化层和一个卷积层;其中卷积层的核尺寸依次为9×9、7×7、7×7、7×7和7×7,生成的特征图通道数依次为16、32、16、20和8。两个池化层的类型均为步长为2的最大池化层。将所述初始特征图输入至所述级联网络中的第一分支网络后,依次经过一个卷积层和一个池化层生成低层细节特征图。将低层细节特征图依次经过三个卷积层、一个池化层和一个卷积层,生成高层语义特征图。
将高层语义特征图输入至级联网络的全连接层,生成目标尺度分级结果。全连接层的最后一层的不同神经元对应不同的目标尺度分级结果。全连接层的个数为3个,三个全连接层的神经元数量依次为512、256和10。本发明采用交叉熵函数作为全连接层的损失函数。
步骤104:将所述低层细节特征图和所述高层语义特征图进行通道注意力变换,生成全局特征信息,具体包括:
将所述高层语义特征图进行全局池化,得到全局池化后的特征图,全局池化是指将C×h×w的特征图(通道数为C,特征图尺寸为h×w)下采样为C×1×1的特征图,具体是将每个尺寸为h×w的特征图取平均值,也就是1×1的特征图。
将所述全局池化后的特征图进行一个1×1的卷积,得到卷积后的高层语义特征图,卷积后的高层语义特征图尺寸为C×h×w,通道数为16;;
将所述卷积后的高层语义特征图和所述低层细节特征图进行对应元素相乘,得到全局特征信息。
步骤105:将所述初始特征图输入至所述双注意力多尺度级联网络中的第二分支网络的空间注意力金字塔结构,生成图像的多尺度特征。
所述空间注意力金字塔结构包括1个主分支和5个子分支,依次为第一子分支、第二子分支、第三子分支、第四子分支和第五子分支;所述主分支包括一个卷积层、一个池化层和两个卷积层,所述第一子分支依次包括一个卷积层和一个Sigmoid层;所述第二子分支包括一个扩张卷积层;所述第三子分支依次包括一个池化层和两个扩张卷积层;所述第四子分支依次包括一个池化层和两个扩张卷积层;所述第五子分支依次包括一个池化层和两个扩张卷积层。
所述主分支中每个卷积层的卷积核尺寸由输入至输出方向依次为7×7、5×5和5×5,各所述卷积层生成的特征图通道数由输入至输出方向依次为32、32和16;所述主分支中池化层的类型为步长为2的最大池化层。
所述第一子分支依次包括一个卷积层和一个Sigmoid层,卷积层的卷积核尺寸为1×1,生成的特征图通道数为24;Sigmoid层的表达式为:
Figure BDA0002078382160000081
式中,z是特征图中的每个像素,此处是指经过卷积层后的特征图,f(z)为生成的第一子分支特征图的每个像素。
所述第二子分支中扩张卷积层的卷积核尺寸为1×1,采样率为1,生成的特征图通道数为24。
所述第三子分支中池化层的类型为步长为2的最大池化层;所述第三子分支中每个扩张卷积层的卷积核尺寸均为3×3,每个扩张卷积层的采样率均为4,每个卷积层生成的特征图通道数均为8。
所述第四子分支中池化层的类型为步长为2的最大池化层;所述第四子分支中每个扩张卷积层的卷积核尺寸均为3×3,每个扩张卷积层的采样率均为3,每个卷积层生成的特征图通道数均为8。
所述第五子分支中池化层的类型为步长为2的最大池化层;所述第五子分支中每个扩张卷积层的卷积核尺寸均为3×3,每个扩张卷积层的采样率均为2,每个卷积层生成的特征图通道数均为8。
其中,步骤105具体包括:
将所述初始特征图输入至所述空间注意力金字塔结构的主分支中,得到主分支特征图。
将所述主分支特征图输入第一子分支,得到第一子分支特征图。
将所述主分支特征图输入第二子分支,得到第二子分支特征图。
将所述主分支特征图输入至第三子分支,经过所述第三子分支中的两个扩张卷积层依次得到第三子分支初步特征图和第三子分支特征图。
将所述第三子分支初步特征图输入至所述第四子分支,经过所述第四子分支中的两个扩张卷积层依次得到第四子分支初步特征图和第四子分支特征图。
将所述第四子分支初步特征图输入至所述第五子分支,得到第五子分支特征图。
将所述第五子分支特征图经过一个卷积核尺寸为4×4、步长为2的反卷积得到上采样后的第五子分支特征图。
将所述上采样后的第五子分支特征图和第四子分支特征图进行通道上的链接,得到四五子分支特征图;所述反卷积操作生成的特征图通道数为8;所述四五子分支特征图通道数为16。
将所述四五子分支特征图经过一个卷积核尺寸为4×4、步长为2的反卷积得到上采样后的四五子分支特征图。
将所述上采样后的四五子分支特征图和第三子分支特征图进行通道上的链接,得到三四五子分支特征图;所述反卷积操作生成的特征图通道数为16;所述三四五子分支特征图通道数为24。
将所述三四五子特征图和所述第二子分支特征图进行对应元素相乘,得到二三四五子特征图。
将所述第一子分支特征图和所述第二子分支特征图进行对应元素相乘,得到一二子特征图。
将所述二三四五子特征图和所述一二子特征图进行通道上的链接,得到多尺度特征。
步骤106:将所述多尺度特征和所述全局特征信息进行融合,得到融合结果,具体包括:
将所述多尺度特征和所述全局特征信息进行通道上的链接,得到全局多尺度特征,所述全局多尺度特征为融合结果。
步骤107:将所述融合结果进行特征抽取,生成估计的目标分布密度图,具体包括:
将所述融合结果进行特征抽取操作,依次经过三个卷积层、两个反卷积层和一个卷积层,得到目标分布密度图;所述特征抽取操作的四个卷积层的卷积核尺寸依次为3×3、3×3、3×3和1×1,生成的特征图通道数依次为32、24、16和1;所述特征抽取操作的两个反卷积层的卷积核尺寸均为4×4,生成的特征图通道数依次为16和8,步长均为2。
步骤108:将所述目标分布密度图进行像素求和,得到估计的目标计数结果。
实施例2:
本发明实施例2除了包含实施例1所述的步骤以外,在步骤108之后,还包括:
获取全连接层和特征抽取操作的损失函数。
将所述全连接层和特征抽取操作的损失函数进行加权,得到级联网络的整体损失函数;所述全连接层的损失函数采用交叉熵函数,所述特征抽取操作的损失函数为估计的目标分布密度图和真实的目标分布密度图之间的欧氏距离。
根据所述级联网络的整体损失函数确定所述级联网络的误差。
将所述误差进行反向传播,更新所述级联网络的权重参数,经过多次迭代,得到训练好的用于目标计数的模型。
实施例3:
一种基于双注意力多尺度级联网络的目标计数系统,包括:
获取模块,用于获取灰度化处理后的图像。
第一特征提取模块,用于将所述灰度化处理后的图像输入至双注意力多尺度级联网络的初始模块进行初始特征提取,得到初始特征图;所述初始模块包括两个卷积层。
低层细节特征图、高层语义特征图确定模块,用于将所述初始特征图输入至所述双注意力多尺度级联网络的第一分支网络,得到低层细节特征图和高层语义特征图;所述第一分支网络包括多个卷积层和多个池化层。
变换模块,用于将所述低层细节特征图和所述高层语义特征图进行通道注意力变换,生成全局特征信息。
多尺度特征确定模块,用于将所述初始特征图输入至所述双注意力多尺度级联网络中的第二分支网络的空间注意力金字塔结构,生成图像的多尺度特征。
融合模块,用于将所述多尺度特征和所述全局特征信息进行融合,得到融合结果。
第二特征提取模块,将所述融合结果进行特征抽取,生成估计的目标分布密度图。
目标计数结果确定模块,用于将所述目标分布密度图进行像素求和,得到估计的目标计数结果。
所述变换模块,具体包括:
全局池化单元,用于将所述高层语义特征图进行全局池化,得到全局池化后的特征图。
卷积处理单元,用于将所述全局池化后的特征图进行一个1×1的卷积,得到卷积后的高层语义特征图。
相乘处理单元,用于将所述卷积后的高层语义特征图和所述低层细节特征图进行对应元素相乘,得到全局特征信息。
实施例4:
步骤1:对图像进行灰度化,设原始图像中位置为(i,j)的R、G和B通道的像素值分别为R(i,j)、G(i,j)和B(i,j),灰度化后的图像中位置为(i,j)的像素值为Gray(i,j),灰度化计算公式如下:
Figure BDA0002078382160000111
步骤2:建立用于目标计数的级联网络模型,整体结构如图2所示,图2为本发明中双注意力多尺度级联网络的整体结构图。建立级联网络模型的过程如下:
2.1)建立初始特征模块,任意输入灰度化后的图像样本x,获得初始特征图,这一阶段包含两次卷积操作,卷积核尺寸均为9×9,分别生成16张特征图和32张特征图,32张特征图为初始特征图。
2.2)建立第一分支网络,接收2.1)中初始特征图作为输入,经过特征抽取操作获得低层细节特征图和高层语义特征图,这一阶段包含了5次卷积和2次池化。图3为本发明中级联网络的第一分支网络和全连接层的结构示意图,如图3所示,依次为1次卷积、1次池化、3次卷积、1次池化和1次卷积,卷积核尺寸依次为9×9、7×7、7×7、7×7和7×7,生成的特征图通道数分别为16、32、16、20和8;两个池化层类型均为步长为2的最大池化层,第一个卷积层后生成低层细节特征图,第五个卷积层后生成高层语义特征图。
2.3)建立全连接层,接收2.2)中的高层语义特征图作为输入,获得任意输入灰度化后的图像样本x的目标尺度分级,将灰度化后的图像样本进行空间金字塔变换(SpatialPyramid Pooling,SPP)且获取相同长度的向量,并设置三个全连接层来输出目标尺度分级,神经元数量分别为512、256和10,如图3所示。
这一阶段采用的损失函数为交叉熵函数,训练样本数为N,待学习参数为Θ,实际目标尺度分级为yi,估计目标尺度分级为Fc(Xi,Θ),目标尺度分级总类别数为T,计算公式如下:
Figure BDA0002078382160000121
2.4)建立全局特征信息生成模块,图4为本发明中高层语义特征图和低层细节特征图进行通道注意力变换的示意图,如图4所示,接受2.2)中的低层细节特征图和高层语义特征图作为输入,对高层语义特征图进行一个全局池化操作,也就是将C×h×w的高层语义特征图(通道数为C,特征图尺寸为h×w)下采样为C×1×1的特征图,具体是将每个尺寸为h×w的特征图取平均值,也就是1×1的特征图,将全局池化结果(C×1×1的特征图)进行一个1×1的卷积,生成的特征图尺寸为C×h×w,通道数为16;将生成的特征图和低层细节特征图进行对应元素相乘,将处理后的特征图和2.2)中高层语义特征图进行通道上的链接,得到全局特征信息。
2.5)建立空间注意力金字塔结构,图5为本发明中级联网络中第二分支网络的空间注意力金字塔结构的示意图,如图5所示,空间注意力金字塔结构包括1个主分支和5个子分支,主分支包括一个卷积层、一个池化层和两个卷积层,卷积核尺寸为7×7、5×5和5×5,生成的特征图通道数为32、32和16,第一子分支依次包括一个卷积层和一个Sigmoid层,卷积核尺寸为1×1,生成的特征图通道数为24,第二子分支包括一个扩张卷积层,卷积核尺寸为1×1,采样率为1,生成的特征图通道数为24,第三子分支依次包括一个池化层和两个扩张卷积层,卷积核尺寸均为3×3,采样率均为4,生成的特征图通道数均为8,第四子分支依次包括一个池化层和两个扩张卷积层,卷积核尺寸均为3×3,采样率均为3,生成的特征图通道数均为8,第五子分支依次包括一个池化层和两个扩张卷积层,卷积核尺寸均为3×3,采样率均为2,每个卷积层生成的特征图通道数均为8,所有池化层的类型均为步长为2的最大池化层。
2.6)将2.1)中的初始特征图作为2.5)中建立的空间注意力金字塔结构的输入,将2.1)中的初始特征图输入主分支中,得到主分支特征图,将2.1)中的初始特征图输入第一子分支,得到第一子分支特征图,将主分支特征图输入第二子分支,得到第二子分支特征图,将主分支特征图输入至第三子分支,经过第三子分支中的两个扩张卷积层依次得到第三子分支初步特征图和第三子分支特征图,将第三子分支初步特征图输入至第四子分支,经过第四子分支中的两个扩张卷积层依次得到第四子分支初步特征图和第四子分支特征图,将第四子分支初步特征图输入至第五子分支,得到第五子分支特征图,将第五子分支特征图经过一个卷积核尺寸为4×4、步长为2的反卷积得到上采样后的第五子分支特征图,将上采样后的第五子分支特征图和第四子分支特征图进行通道上的链接,得到四五子分支特征图,反卷积操作生成的特征图通道数为8,四五子分支特征图通道数为16,将四五子分支特征图经过一个卷积核尺寸为4×4、步长为2的反卷积得到上采样后的四五子分支特征图,将上采样后的四五子分支特征图和第三子分支特征图进行通道上的链接,得到三四五子分支特征图,反卷积操作生成的特征图通道数为16,三四五子分支特征图通道数为24,将三四五子特征图和第二子分支特征图进行对应元素相乘,得到二三四五子特征图,将第一子分支特征图和第二子分支特征进行对应元素相乘,得到一二子特征图,将二三四五子特征图和一二子特征图进行通道上的链接,得到多尺度特征。
2.7)将2.4)中的全局特征信息FglobalContext和2.6)中的多尺度特征FmultiScale进行通道链接,得到全局多尺度特征Fmg,计算公式如下:
Figure BDA0002078382160000141
2.8)建立特征抽取模块,图6为本发明中级联网络中第二分支网络的特征抽取操作的结构示意图,如图6所示,接收2.7)中的全局多尺度特征作为输入,生成估计的目标密度分布图,特征抽取模块包括4个卷积层和2个反卷积层,依次为三个卷积层、两个反卷积层和一个卷积层,卷积核尺寸依次为3×3、3×3、3×3和1×1,生成的特征图通道数依次为32、24、16和1,两个反卷积层的卷积核尺寸均为4×4,生成的特征图通道数依次为16和8,步长均为2;使用估计的目标密度分布图和真实目标密度分布图的欧氏距离作为特征抽取操作的损失函数,N为训练样本数量,FD(Xi;Θ)为估计的目标密度分布图,Di为目标密度分布图x,对每一张单幅图像的目标密度估计图和目标密度图x求绝对差值,并对所有图像的绝对差值的总和求平均,得到损失函数的结果,计算公式如下:
Figure BDA0002078382160000142
2.9)对2.8)中的估计目标密度分布图进行像素求和,得到估计的目标计数结果。
2.10)在建立的级联网络模型使用前,需利用若干张图像和真实密度图对建立的模型进行训练,确定模型参数Θ,通过设置权重项ω将全连接层的交叉熵损失函数和特征抽取操作的欧氏距离损失函数进行联合训练,使其损失最小,训练步骤如下:
为建立的级联网络的参数随机设定一个初始值,设置权重项ω,使得交叉熵函数LC和欧氏距离LD加权和结果最小,计算公式如下:
L(Θ)=LD+ωLC(5)
在每次得到待估计图像对应的估计目标密度分布图之后,根据深度神经网络模型的整体损失函数确定深度神经网络模型的误差,将所述误差反向传播,调整所述深度神经网络模型的参数,对所述深度神经网络模型进行优化。待学习参数Θ采用随机梯度下降优化算法在每一次优化迭代中更新参数,直到加权和结果L(Θ)收敛到一个较小的值,保存参数及训练后的模型。本发明采用步骤2.3中交叉熵损失函数LC和步骤2.8中欧氏距离损失函数LD的加权和作为网络的整体损失函数。
使用训练后的级联网络模型对任意输入灰度化后的图像进行目标计数,将任意单张图像直接输入到训练后的模型中,即可得到目标计数结果,图7为采用本发明目标计数方法进行车辆计数的示意图。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。

Claims (9)

1.一种基于双注意力多尺度级联网络的目标计数方法,其特征在于,包括:
获取灰度化处理后的图像;
将所述灰度化处理后的图像输入至双注意力多尺度级联网络的初始模块进行初始特征提取,得到初始特征图;所述初始模块包括两个卷积层;
将所述初始特征图输入至所述双注意力多尺度级联网络的第一分支网络,得到低层细节特征图和高层语义特征图;所述第一分支网络包括多个卷积层和多个池化层;
将所述低层细节特征图和所述高层语义特征图进行通道注意力变换,生成全局特征信息;
将所述初始特征图输入至所述双注意力多尺度级联网络中的第二分支网络的空间注意力金字塔结构,生成图像的多尺度特征;
将所述多尺度特征和所述全局特征信息进行融合,得到融合结果;
将所述融合结果进行特征抽取,生成估计的目标分布密度图;
将所述目标分布密度图进行像素求和,得到估计的目标计数结果。
2.根据权利要求1所述的基于双注意力多尺度级联网络的目标计数方法,其特征在于,所述将所述低层细节特征图和所述高层语义特征图进行通道注意力变换,生成全局特征信息,具体包括:
将所述高层语义特征图进行全局池化,得到全局池化后的特征图;
将所述全局池化后的特征图进行一个1×1的卷积,得到卷积后的高层语义特征图;
将所述卷积后的高层语义特征图和所述低层细节特征图进行对应元素相乘,得到全局特征信息。
3.根据权利要求1所述的基于双注意力多尺度级联网络的目标计数方法,其特征在于,所述空间注意力金字塔结构包括1个主分支和5个子分支,依次为第一子分支、第二子分支、第三子分支、第四子分支和第五子分支;所述主分支依次包括一个卷积层、一个池化层和两个卷积层,所述第一子分支依次包括一个卷积层和一个Sigmoid层;所述第二子分支包括一个扩张卷积层;所述第三子分支依次包括一个池化层和两个扩张卷积层;所述第四子分支依次包括一个池化层和两个扩张卷积层;所述第五子分支依次包括一个池化层和两个扩张卷积层。
4.根据权利要求书3所述的基于双注意力多尺度级联网络的目标计数方法,其特征在于,所述主分支中每个卷积层的卷积核尺寸由输入至输出方向依次为7×7、5×5和5×5,各所述卷积层生成的特征图通道数由输入至输出方向依次为32、32和16;所述主分支中池化层的类型为步长为2的最大池化层;
所述第一子分支中卷积层的卷积核尺寸为1×1,生成的特征图通道数为24;
所述第二子分支中扩张卷积层的卷积核尺寸为1×1,采样率为1,生成的特征图通道数为24;
所述第三子分支中池化层的类型为步长为2的最大池化层;所述第三子分支中每个扩张卷积层的卷积核尺寸均为3×3,每个扩张卷积层的采样率均为4,每个卷积层生成的特征图通道数均为8;
所述第四子分支中池化层的类型为步长为2的最大池化层;所述第四子分支中每个扩张卷积层的卷积核尺寸均为3×3,每个扩张卷积层的采样率均为3,每个卷积层生成的特征图通道数均为8;
所述第五子分支中池化层的类型为步长为2的最大池化层;所述第五子分支中每个扩张卷积层的卷积核尺寸均为3×3,每个扩张卷积层的采样率均为2,每个卷积层生成的特征图通道数均为8。
5.根据权利要求书4所述的基于双注意力多尺度级联网络的目标计数方法,其特征在于,所述将所述初始特征图输入至所述双注意力多尺度级联网络中的第二分支网络的空间注意力金字塔结构,生成图像的多尺度特征,具体包括:
将所述初始特征图输入至所述空间注意力金字塔结构的主分支中,得到主分支特征图;
将所述主分支特征图输入第一子分支,得到第一子分支特征图;
将所述主分支特征图输入第二子分支,得到第二子分支特征图;
将所述主分支特征图输入至第三子分支,经过所述第三子分支中的两个扩张卷积层依次得到第三子分支初步特征图和第三子分支特征图;
将所述第三子分支初步特征图输入至所述第四子分支,经过所述第四子分支中的两个扩张卷积层依次得到第四子分支初步特征图和第四子分支特征图;
将所述第四子分支初步特征图输入至所述第五子分支,得到第五子分支特征图;
将所述第五子分支特征图经过一个卷积核尺寸为4×4、步长为2的反卷积得到上采样后的第五子分支特征图;
将所述上采样后的第五子分支特征图和第四子分支特征图进行通道上的链接,得到四五子分支特征图;所述反卷积操作生成的特征图通道数为8;所述四五子分支特征图通道数为16;
将所述四五子分支特征图经过一个卷积核尺寸为4×4、步长为2的反卷积得到上采样后的四五子分支特征图;
将所述上采样后的四五子分支特征图和第三子分支特征图进行通道上的链接,得到三四五子分支特征图;所述反卷积操作生成的特征图通道数为16;所述三四五子分支特征图通道数为24;
将所述三四五子特征图和所述第二子分支特征图进行对应元素相乘,得到二三四五子特征图;
将所述第一子分支特征图和所述第二子分支特征图进行对应元素相乘,得到一二子特征图;
将所述二三四五子特征图和所述一二子特征图进行通道上的链接,得到多尺度特征。
6.根据权利要求1所述的基于双注意力多尺度级联网络的目标计数方法,其特征在于,所述将所述多尺度特征和所述全局特征信息进行融合,得到融合结果,具体包括:
将所述多尺度特征和所述全局特征信息进行通道上的链接,得到全局多尺度特征,所述全局多尺度特征为融合结果。
7.根据权利要求1所述的基于双注意力多尺度级联网络的目标计数方法,其特征在于,所述将所述融合结果进行特征抽取,生成估计的目标分布密度图,具体包括:
将所述融合结果进行特征抽取操作,依次经过三个卷积层、两个反卷积层和一个卷积层,得到目标分布密度图;所述特征抽取操作的四个卷积层的卷积核尺寸依次为3×3、3×3、3×3和1×1,生成的特征图通道数依次为32、24、16和1;所述特征抽取操作的两个反卷积层的卷积核尺寸均为4×4,生成的特征图通道数依次为16和8,步长均为2。
8.一种基于双注意力多尺度级联网络的目标计数系统,其特征在于,包括:
获取模块,用于获取灰度化处理后的图像;
第一特征提取模块,用于将所述灰度化处理后的图像输入至双注意力多尺度级联网络的初始模块进行初始特征提取,得到初始特征图;所述初始模块包括两个卷积层;
低层细节特征图、高层语义特征图确定模块,用于将所述初始特征图输入至所述双注意力多尺度级联网络的第一分支网络,得到低层细节特征图和高层语义特征图;所述第一分支网络包括多个卷积层和多个池化层;
变换模块,用于将所述低层细节特征图和所述高层语义特征图进行通道注意力变换,生成全局特征信息;
多尺度特征确定模块,用于将所述初始特征图输入至所述双注意力多尺度级联网络中的第二分支网络的空间注意力金字塔结构,生成图像的多尺度特征;
融合模块,用于将所述多尺度特征和所述全局特征信息进行融合,得到融合结果;
第二特征提取模块,将所述融合结果进行特征抽取,生成估计的目标分布密度图;
目标计数结果确定模块,用于将所述目标分布密度图进行像素求和,得到估计的目标计数结果。
9.根据权利要求8所述的基于双注意力多尺度级联网络的目标计数系统,其特征在于,所述变换模块,具体包括:
全局池化单元,用于将所述高层语义特征图进行全局池化,得到全局池化后的特征图;
卷积处理单元,用于将所述全局池化后的特征图进行一个1×1的卷积,得到卷积后的高层语义特征图;
相乘处理单元,用于将所述卷积后的高层语义特征图和所述低层细节特征图进行对应元素相乘,得到全局特征信息。
CN201910462177.6A 2019-05-30 2019-05-30 一种基于双注意力多尺度级联网络的目标计数方法及系统 Active CN110188685B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910462177.6A CN110188685B (zh) 2019-05-30 2019-05-30 一种基于双注意力多尺度级联网络的目标计数方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910462177.6A CN110188685B (zh) 2019-05-30 2019-05-30 一种基于双注意力多尺度级联网络的目标计数方法及系统

Publications (2)

Publication Number Publication Date
CN110188685A CN110188685A (zh) 2019-08-30
CN110188685B true CN110188685B (zh) 2021-01-05

Family

ID=67718889

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910462177.6A Active CN110188685B (zh) 2019-05-30 2019-05-30 一种基于双注意力多尺度级联网络的目标计数方法及系统

Country Status (1)

Country Link
CN (1) CN110188685B (zh)

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110781893B (zh) * 2019-09-24 2022-06-07 浙江大华技术股份有限公司 特征图的处理方法、图像处理方法、装置以及存储介质
CN110750231B (zh) * 2019-09-27 2021-09-28 东南大学 一种面向卷积神经网络的双相系数可调模拟乘法计算电路
CN110738261B (zh) * 2019-10-16 2022-08-26 北京百度网讯科技有限公司 图像分类和模型训练方法、装置、电子设备及存储介质
CN110766632A (zh) * 2019-10-22 2020-02-07 广东启迪图卫科技股份有限公司 基于通道注意力机制和特征金字塔的图像去噪方法
CN110837786B (zh) * 2019-10-30 2022-07-08 汇纳科技股份有限公司 基于空间通道的密度图产生方法、装置、电子终端及介质
CN111027670B (zh) * 2019-11-04 2022-07-22 重庆特斯联智慧科技股份有限公司 特征图处理方法、装置、电子设备及存储介质
CN110889343B (zh) * 2019-11-15 2023-05-05 复旦大学 基于注意力型深度神经网络的人群密度估计方法及装置
CN112825122A (zh) * 2019-11-20 2021-05-21 北京眼神智能科技有限公司 基于二维人脸图像的种族判断方法、装置、介质及设备
CN111126561B (zh) * 2019-11-20 2022-07-08 江苏艾佳家居用品有限公司 一种基于多路并行卷积神经网络的图像处理方法
CN111062275A (zh) * 2019-12-02 2020-04-24 汇纳科技股份有限公司 一种多层次监督的人群计数方法、装置、介质及电子设备
CN111161201B (zh) * 2019-12-06 2022-05-31 北京理工大学 基于细节增强通道注意力的红外与可见光图像融合方法
CN111046781B (zh) * 2019-12-09 2022-05-27 华中科技大学 一种基于三元注意力机制的鲁棒三维目标检测方法
CN111178183B (zh) * 2019-12-16 2023-05-23 深圳市华尊科技股份有限公司 人脸检测方法及相关装置
CN111105415A (zh) * 2019-12-31 2020-05-05 北京理工大学重庆创新中心 一种基于深度学习的白细胞大视场图像检测系统及方法
CN111210432B (zh) * 2020-01-12 2023-07-25 湘潭大学 一种基于多尺度多级注意力机制的图像语义分割方法
CN111274900B (zh) * 2020-01-15 2021-01-01 北京航空航天大学 一种基于底层特征提取的空基人群计数方法
CN111310805B (zh) * 2020-01-22 2023-05-30 中能国际高新科技研究院有限公司 一种对图像中的目标进行密度预测的方法、装置及介质
CN111340077B (zh) * 2020-02-18 2024-04-12 平安科技(深圳)有限公司 基于注意力机制的视差图获取方法和装置
CN111539922B (zh) * 2020-04-17 2023-03-31 中山大学 基于多任务网络的单目深度估计与表面法向量估计方法
CN111523449A (zh) * 2020-04-22 2020-08-11 山东师范大学 基于金字塔注意力网络的人群计数方法及系统
CN111539316B (zh) * 2020-04-22 2023-05-05 中南大学 基于双注意力孪生网络的高分遥感影像变化检测方法
CN113674757A (zh) * 2020-05-13 2021-11-19 富士通株式会社 信息处理装置和信息处理方法
CN112084868B (zh) * 2020-08-10 2022-12-23 北京航空航天大学 一种基于注意力机制的遥感图像中目标计数方法
CN112131943B (zh) * 2020-08-20 2023-07-11 深圳大学 一种基于双重注意力模型的视频行为识别方法及系统
CN113762009B (zh) * 2020-11-18 2023-06-16 四川大学 一种基于多尺度特征融合及双注意力机制的人群计数方法
CN112541466A (zh) * 2020-12-21 2021-03-23 山东师范大学 基于上下文注意力机制网络的人群计数方法及系统
CN112541459A (zh) * 2020-12-21 2021-03-23 山东师范大学 基于多尺度感知注意力网络的人群计数方法及系统
CN112560733B (zh) * 2020-12-23 2022-06-17 上海交通大学 面向两期遥感影像的多任务处理系统及方法
CN112784779A (zh) * 2021-01-28 2021-05-11 武汉大学 一种基于特征金字塔多级特征融合的遥感影像场景分类方法
CN112975957A (zh) * 2021-02-07 2021-06-18 深圳市广宁股份有限公司 目标提取方法、系统、机器人及存储介质
CN112990299B (zh) * 2021-03-11 2023-10-17 五邑大学 基于多尺度特征的深度图获取方法、电子设备、存储介质
CN113139585B (zh) * 2021-03-30 2022-03-29 太原科技大学 一种基于统一多尺度密集连接网络的红外与可见光图像融合方法
CN113239952B (zh) * 2021-03-30 2023-03-24 西北工业大学 一种基于空间尺度注意力机制和矢量地图的航空图像地理定位方法
CN113191390B (zh) * 2021-04-01 2022-06-14 华中科技大学 一种图像分类模型的构建方法、图像分类方法及存储介质
CN113283356B (zh) * 2021-05-31 2024-04-05 上海应用技术大学 多级注意力尺度感知人群计数方法
CN113239904B (zh) * 2021-07-09 2021-09-28 南京理工大学 基于卷积神经网络的高分辨率密集目标计数方法
CN113538401B (zh) * 2021-07-29 2022-04-05 燕山大学 一种复杂场景下结合跨模态信息的人群计数方法及系统
CN113313091B (zh) * 2021-07-29 2021-11-02 山东建筑大学 仓储物流下的基于多重注意力和拓扑约束的密度估计方法
CN113658114A (zh) * 2021-07-29 2021-11-16 南京理工大学 基于多尺度交叉注意力的接触网开口销缺陷目标检测方法
CN113538402B (zh) * 2021-07-29 2022-06-07 燕山大学 一种基于密度估计的人群计数方法及系统
CN114399728B (zh) * 2021-12-17 2023-12-05 燕山大学 一种雾天场景人群计数方法
CN114418003B (zh) * 2022-01-20 2022-09-16 北京科技大学 基于注意力机制及多尺寸信息提取的双图像识别分类方法
CN114511636B (zh) * 2022-04-20 2022-07-12 科大天工智能装备技术(天津)有限公司 一种基于双滤注意力模块的果实计数方法及系统
CN115527159B (zh) * 2022-09-02 2024-01-12 燕山大学 一种基于跨模态间尺度注意聚合特征的计数系统及方法
CN115187603A (zh) * 2022-09-13 2022-10-14 国网浙江省电力有限公司 一种基于深度神经网络的电力设备检测方法及装置
CN116468889B (zh) * 2023-04-04 2023-11-07 中国航天员科研训练中心 一种基于多分支特征提取的全景分割方法及系统
CN116309595B (zh) * 2023-05-23 2023-08-01 杭州华得森生物技术有限公司 Ctc智能全自动检测一体机及其方法
CN116433675B (zh) * 2023-06-15 2023-08-15 武汉理工大学三亚科教创新园 基于残差信息增强的车辆计数方法、电子设备和可读介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10929674B2 (en) * 2016-08-29 2021-02-23 Nec Corporation Dual stage attention based recurrent neural network for time series prediction
CN107564025B (zh) * 2017-08-09 2020-05-29 浙江大学 一种基于深度神经网络的电力设备红外图像语义分割方法

Also Published As

Publication number Publication date
CN110188685A (zh) 2019-08-30

Similar Documents

Publication Publication Date Title
CN110188685B (zh) 一种基于双注意力多尺度级联网络的目标计数方法及系统
CN109584248B (zh) 基于特征融合和稠密连接网络的红外面目标实例分割方法
CN110135366B (zh) 基于多尺度生成对抗网络的遮挡行人重识别方法
CN109035149B (zh) 一种基于深度学习的车牌图像去运动模糊方法
CN109685072B (zh) 一种基于生成对抗网络的复合降质图像高质量重建方法
CN110427846B (zh) 一种利用卷积神经网络对不平衡小样本的人脸识别方法
CN108711141B (zh) 利用改进的生成式对抗网络的运动模糊图像盲复原方法
CN110598600A (zh) 一种基于unet神经网络的遥感图像云检测方法
CN112861729B (zh) 一种基于伪深度图引导的实时深度补全方法
CN109635763B (zh) 一种人群密度估计方法
CN112257794A (zh) 一种基于yolo的轻量级的目标检测方法
CN111861906B (zh) 一种路面裂缝图像虚拟增广模型建立及图像虚拟增广方法
CN110246148B (zh) 多模态的深度信息融合和注意力学习的显著性检测方法
CN110570363A (zh) 基于带有金字塔池化与多尺度鉴别器的Cycle-GAN的图像去雾方法
CN112084934B (zh) 基于骨骼数据双通道深度可分离卷积的行为识别方法
CN114692509B (zh) 基于多阶段退化神经网络的强噪声单光子三维重建方法
CN112560733B (zh) 面向两期遥感影像的多任务处理系统及方法
CN112419171A (zh) 一种多残差块条件生成对抗网络的图像复原方法
CN111695640A (zh) 地基云图识别模型训练方法及地基云图识别方法
CN111832228A (zh) 基于cnn-lstm的振动传递系统
CN113421237A (zh) 基于深度特征迁移学习的无参考图像质量评价方法
CN114021704B (zh) 一种ai神经网络模型的训练方法及相关装置
CN113538402B (zh) 一种基于密度估计的人群计数方法及系统
CN111179272A (zh) 一种面向道路场景的快速语义分割方法
CN114092803A (zh) 基于遥感图像的云检测方法、装置、电子设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant