CN115527159B - 一种基于跨模态间尺度注意聚合特征的计数系统及方法 - Google Patents

一种基于跨模态间尺度注意聚合特征的计数系统及方法 Download PDF

Info

Publication number
CN115527159B
CN115527159B CN202211072215.5A CN202211072215A CN115527159B CN 115527159 B CN115527159 B CN 115527159B CN 202211072215 A CN202211072215 A CN 202211072215A CN 115527159 B CN115527159 B CN 115527159B
Authority
CN
China
Prior art keywords
scale
visible light
aggregation
initial
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211072215.5A
Other languages
English (en)
Other versions
CN115527159A (zh
Inventor
李贺
张俊歌
孔维航
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yanshan University
Original Assignee
Yanshan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yanshan University filed Critical Yanshan University
Priority to CN202211072215.5A priority Critical patent/CN115527159B/zh
Publication of CN115527159A publication Critical patent/CN115527159A/zh
Application granted granted Critical
Publication of CN115527159B publication Critical patent/CN115527159B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/766Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

本发明公开一种基于跨模态间尺度注意聚合特征的计数系统及方法,属于图像处理领域。所述方法包括:获取包括待计数可见光和红外热图像;将可见光图像进行初始特征提取;将红外热图像进行初始特征提取;将可见光初始特征进行尺度通道注意聚合,得到可见光尺度通道聚合特征;将红外热初始特征进行尺度通道注意聚合,得到红外热尺度通道聚合特征;将可见光尺度通道聚合特征和红外热尺度通道聚合特征进行跨模态间尺度空间注意聚合,得到跨模态尺度空间聚合特征;将跨模态尺度空间聚合特征进行密度图回归,将密度图像素值进行求和,得到人群计数结果。本发明能够有效解决人群尺度变换对跨模态特征融合的负面影响,从而提高跨模态人群计数性能。

Description

一种基于跨模态间尺度注意聚合特征的计数系统及方法
技术领域
本发明涉及图像处理领域,尤其是一种基于跨模态间尺度注意聚合特征学习的人群计数方法及系统。
背景技术
近年来,智能视频监控技术为社会公共安全管理提供了很大的保障。人群计数作为智能视频监控应用中的人群分析和人群异常检测等现实场景应用的核心算法之一,受到了学术界和工业界的广泛关注。现有大部分人群计数方法主要利用可见光图像(RGB图像)作为场景信息进行人群数量预测。虽然可见光图像能够较好描述强光线及白天场景的场景细节信息,但由于其自身依靠光线反射的成像原理在弱光线及夜间场景下常常无法提供足够的场景信息,少量的一些人群计数方法引入面向热源体敏感的红外热图像作为人群计数过程中可见光图像的互补数据源,形成跨模态人群计数解决方案。现有面向可见光-红外热图像的跨模态人群计数方法主要侧重于将可见光图像和红外热图像进行不同模态信息融合的过程设计,忽视了人群场景中由于“远小近大”产生的尺度变换现象对跨模态特征有效融合的负面影响,这种负面影响将导致跨模态人群计数的准确率剧烈下降。
发明内容
本发明需要解决的技术问题是提供一种基于跨模态间尺度注意聚合特征的计数系统及方法,以降低人群场景中尺度变换对跨模态特征融合的负面影响,从而提高面向可见光-红外热图像跨模态信息的人群计数的准确性。
为解决上述技术问题,本发明所采用的技术方案是:一种基于跨模态间尺度注意聚合特征的计数系统包括:获取模块、可见光初始特征提取模块、红外热初始特征提取模块、可见光尺度通道聚合特征提取模块、红外热尺度通道聚合特征提取模块、跨模态尺度感知特征融合模块、人群密度图回归模块和人群计数模块。
本发明技术方案的进一步改进在于:所述模块具体组成为:
可见光初始特征提取模块:从输入到输出方向依次为两个卷积层、一个池化层、两个卷积层、一个池化层、四个卷积层、一个池化层、四个卷积层、一个池化层和四个卷积层,每个卷积层的卷积核尺寸均为3×3,各所述卷积层生成的特征图通道数由输入至输出方向依次为64、64、128、128、256、256、256、256、512、512、512、512、512、512、512和512,各所述池化层均为步长为2的最大池化层;
红外热初始特征提取模块:从输入到输出方向依次为两个卷积层、一个池化层、两个卷积层、一个池化层、四个卷积层、一个池化层、四个卷积层、一个池化层和四个卷积层,每个卷积层的卷积核尺寸均为3×3,各所述卷积层生成的特征图通道数由输入至输出方向依次为64、64、128、128、256、256、256、256、512、512、512、512、512、512、512和512,各所述池化层均为步长为2的最大池化层;
可见光尺度通道聚合特征提取模块:包括可见光初始第一尺度卷积层至可见光初始第六卷积层等六个卷积层、一个全局平均池化层、两个全连接层和一个Softmax层;六个卷积层输出通道数均为512,各所述卷积层卷积核尺寸由第一至第六依次为3×3、5×5、7×7、9×9、11×11和13×13,全局平均池化层特征图空间方向的窗口尺寸为1×1;
红外热尺度通道聚合特征提取模块:包括红外热初始第一尺度卷积层至红外热初始第六卷积层等六个卷积层、一个全局平均池化层、两个全连接层和一个Softmax层;六个卷积层输出通道数均为512,各所述卷积层卷积核尺寸由第一至第六依次为3×3、5×5、7×7、9×9、11×11和13×13,全局平均池化层特征图空间方向的窗口尺寸为1×1;
跨模态尺度感知特征融合模块:包括可见光第一尺度卷积层至可见光第六尺度卷积层等六个尺度卷积层、第一全局平均池化层、可见光空间注意变换卷积层、Sigmoid层、红外热第一尺度卷积层至红外热第六尺度卷积层等六个尺度卷积层、第二全局平均池化层和红外热空间注意变换卷积层;所述可见光第一至第六尺度卷积层,六个卷积层输出通道数均为512,各所述卷积层卷积核尺寸由第一至第六依次为3×3、5×5、7×7、9×9、11×11和13×13,所述红外热第一至第六尺度卷积层,六个卷积层输出通道数均为512,各所述卷积层卷积核尺寸由第一至第六依次为3×3、5×5、7×7、9×9、11×11和13×13,所述第一平均池化层和第二平均池化层均为特征图通道方向的窗口尺寸为1×1的全局平均池化层;所述可见光空间注意变换卷积层和红外热空间注意变换卷积层均为一个卷积核尺寸为7×7和输出通道数为1的卷积层;
人群密度图回归模块:从输入到输出方向依次为三个卷积层,卷积核尺寸均为3×3,生成的特征图通道数依次为256、128和1。
一种基于跨模态间尺度注意聚合特征的计数方法应用于计数系统,步骤如下:
步骤一:获取包括待计数人群的场景可见光图像和红外热图像;
步骤二:将所述可见光图像进行可见光模态初始特征提取,得到可见光初始特征;
步骤三:将所述红外热图像进行红外热模态初始特征提取,得到红外热初始特征;
步骤四:将所述可见光初始特征进行可见光模态尺度通道注意聚合,得到可见光尺度通道聚合特征;
步骤五:将所述红外热初始特征进行红外热模态尺度通道注意聚合,得到红外热尺度通道聚合特征;
步骤六:将所述可见光尺度通道聚合特征和红外热尺度通道聚合特征进行跨模态间尺度空间注意聚合,得到跨模态尺度空间聚合特征;
步骤七:将所述跨模态尺度空间聚合特征进行密度图回归,得到人群密度图;
步骤八:将所述人群密度图的像素值进行求和,得到人群计数结果。
本发明技术方案的进一步改进在于:所述步骤四具体包括:将所述可见光初始特征输入可见光尺度通道注意聚合特征提取模块进行可见光模态尺度通道注意聚合,将可见光初始特征分别输入可见光初始第一至第六尺度卷积层,分别得到可见光初始第一至第六尺度特征图,将所述可见光初始第一尺度特征图、可见光初始第二尺度特征图、可见光初始第三尺度特征图、可见光初始第四尺度特征图、可见光初始第五尺度特征图和可见光初始第六尺度特征图进行对应位置像素相加,得到可见光初始尺度聚合特征图;
将可见光初始尺度聚合特征图依次输入到所述全局平均池化层、两个全连接层和Softmax层,得到可见光初始尺度聚合通道注意描述子;将可见光初始尺度聚合通道注意描述子和可见光初始第一至第六尺度特征图进行对应位置像素相乘,得到可见光第一至第六尺度通道聚合特征图;将可见光第一尺度通道聚合特征图、可见光第二尺度通道聚合特征图、可见光第三尺度通道聚合特征图、可见光第四尺度通道聚合特征图、可见光第五尺度通道聚合特征图和可见光第六尺度通道聚合特征图进行对应位置像素相加,得到可见光尺度通道聚合特征。
本发明技术方案的进一步改进在于:所述步骤五具体包括:将所述红外热初始特征输入红外热尺度通道注意聚合特征提取模块进行红外热模态尺度通道注意聚合,将红外热初始特征分别输入红外热初始第一至第六尺度卷积层,分别得到红外热初始第一至第六尺度特征图,将所述红外热初始第一尺度特征图、红外热初始第二尺度特征图、红外热初始第三尺度特征图、红外热初始第四尺度特征图、红外热初始第五尺度特征图和红外热初始第六尺度特征图进行对应位置像素相加,得到红外热初始尺度聚合特征图;
将红外热初始尺度聚合特征图依次输入到所述全局平均池化层、两个全连接层和Softmax层,得到红外热初始尺度聚合通道注意描述子;将红外热初始尺度聚合通道注意描述子和红外热初始第一至第六尺度特征图进行对应位置像素相乘,得到红外热第一至第六尺度通道聚合特征图;将红外热第一尺度通道聚合特征图、红外热第二尺度通道聚合特征图、红外热第三尺度通道聚合特征图、红外热第四尺度通道聚合特征图、红外热第五尺度通道聚合特征图和红外热第六尺度通道聚合特征图进行对应位置像素相加,得到红外热尺度通道聚合特征。
本发明技术方案的进一步改进在于:所述步骤六具体包括:将所述可见光尺度通道聚合特征和红外热尺度通道聚合特征输入跨模态尺度感知特征融合模块进行跨模态间尺度空间注意聚合,将所述可见光尺度通道聚合特征分别输入可见光第一至第六尺度卷积层,分别得到可见光第一至第六尺度特征图,将所述可见光第一尺度特征图、可见光第二尺度特征图、可见光第三尺度特征图、可见光第四尺度特征图、可见光第五尺度特征图和可见光第六尺度特征图进行对应位置像素相加,得到可见光尺度聚合特征图;将可见光尺度聚合特征图依次输入到第一全局平均池化层和可见光空间注意变换卷积层,得到可见光尺度聚合空间注意描述子;
将所述红外热尺度通道聚合特征分别输入红外热第一至第六尺度卷积层,分别得到红外热第一至第六尺度特征图;将所述红外热第一尺度特征图、红外热第二尺度特征图、红外热第三尺度特征图、红外热第四尺度特征图、红外热第五尺度特征图和红外热第六尺度特征图进行对应位置像素相加,得到红外热尺度聚合特征图;将红外热尺度聚合特征图依次输入到第二全局平均池化层和红外热空间注意变换卷积层,得到红外热尺度聚合空间注意描述子;
将所述红外热尺度聚合空间注意描述子和可见光第一至第六尺度特征图进行对应位置像素相乘,得到红外热引导可见光第一至第六尺度空间聚合特征图;将红外热引导可见光第一尺度空间聚合特征图、红外热引导可见光第二尺度空间聚合特征图、红外热引导可见光第三尺度空间聚合特征图、红外热引导可见光第四尺度空间聚合特征图、红外热引导可见光第五尺度空间聚合特征图和红外热引导可见光第六尺度空间聚合特征图进行对应位置像素相加,得到红外热引导可见光跨模态尺度空间聚合特征;
将所述可见光尺度聚合空间注意描述子和红外热第一至第六尺度特征图进行对应位置像素相乘,得到可见光引导红外热第一至第六尺度空间聚合特征图,将可见光引导红外热第一尺度空间聚合特征图、可见光引导红外热第二尺度空间聚合特征图、可见光引导红外热第三尺度空间聚合特征图、可见光引导红外热第四尺度空间聚合特征图、可见光引导红外热第五尺度空间聚合特征图和可见光引导红外热第六尺度空间聚合特征图进行对应位置像素相加,得到可见光引导红外热跨模态尺度空间聚合特征;
将所述红外热引导可见光跨模态尺度空间聚合特征和所述可见光引导红外热跨模态尺度空间聚合特征进行通道链接操作,得到跨模态尺度空间聚合特征。
由于采用了上述技术方案,本发明取得的技术进步是:通过采用“尺度分解-通道注意聚合”方式实现高效模态特异性特征表征进而实现具有尺度感知的特定模态特征提取的技术效果。通过采用“尺度分解-空间注意聚合”方式实现高效模态共性特征表征进而实现具有尺度感知的跨模态特征提取的技术效果。通过在跨模态特征提取阶段设计尺度感知通道/空间注意聚合特征提取部分实现具备尺度感知能力的跨模态特征高效提取并融合,进而降低人群计数场景中尺度变换对跨模态特征提取过程的负面影响,从而提高最终人群计数结果的准确率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图;
图1是一种基于跨模态间尺度注意聚合特征的计数方法的流程框图;
图2是深度神经网络模型的整体结构示意图;
图3是可见光/红外热尺度通道注意聚合特征提取模块的细节示意图;
图4是跨模态尺度感知特征融合模块的细节示意图;
图5是深度神经网络模型进行跨模态人群计数的示意图;
图6是一种基于跨模态间尺度注意聚合特征的计数系统的结构框图。
具体实施方式
下面结合实施例对本发明做进一步详细说明:
一种基于跨模态间尺度注意聚合特征的计数系统,如图6所示包括:获取模块、可见光初始特征提取模块、红外热初始特征提取模块、可见光尺度通道聚合特征提取模块、红外热尺度通道聚合特征提取模块、跨模态尺度感知特征融合模块、人群密度图回归模块和人群计数模块。
利用以上模块组成的基于跨模态间尺度注意聚合特征的计数系统使用相匹配使用的基于跨模态间尺度注意聚合特征的计数方法来得到人群计数结果,具体步骤如下:
步骤一:获取包括待计数人群的场景可见光图像和红外热图像;
步骤二:将所述可见光图像进行可见光模态初始特征提取,得到可见光初始特征;
步骤三:将所述红外热图像进行红外热模态初始特征提取,得到红外热初始特征;
步骤四:将所述可见光初始特征进行可见光模态尺度通道注意聚合,得到可见光尺度通道聚合特征;
步骤五:将所述红外热初始特征进行红外热模态尺度通道注意聚合,得到红外热尺度通道聚合特征;
步骤六:将所述可见光尺度通道聚合特征和红外热尺度通道聚合特征进行跨模态间尺度空间注意聚合,得到跨模态尺度空间聚合特征;
步骤七:将所述跨模态尺度空间聚合特征进行密度图回归,得到人群密度图;
步骤八:将所述人群密度图的像素值进行求和,得到人群计数结果。
实施例一:
获取模块、可见光初始特征提取模块、红外热初始特征提取模块、可见光尺度通道聚合特征提取模块、红外热尺度通道聚合特征提取模块、跨模态尺度感知特征融合模块、人群密度图回归模块和人群计数模块。这些模块共同组成用于人群密度图估计的深度神经网络模型;将深度神经网络模型估计得到的人群密度图像素值进行求和,即可得到人群数量预测结果。建立的用于跨模态人群密度图估计的深度神经网络模型整体结构如图2所示。深度神经网络模型的各模块具体组成如下:
可见光初始特征提取模块:从输入到输出方向依次包括2个卷积层、1个池化层、2个卷积层、1个池化层、4个卷积层、1个池化层、4个卷积层、1个池化层、4个卷积层,各卷积层的卷积核尺寸均为3×3,从输入到输出方向生成的特征图通道数依次为:64、64、128、128、256、256、256、256、512、512、512、512、512、512、512和512,各池化层均为步长是2的最大池化层。
红外热初始特征提取模块:从输入到输出方向依次包括2个卷积层、1个池化层、2个卷积层、1个池化层、4个卷积层、1个池化层、4个卷积层、1个池化层、4个卷积层,各卷积层的卷积核尺寸均为3×3,从输入到输出方向生成的特征图通道数依次为:64、64、128、128、256、256、256、256、512、512、512、512、512、512、512和512,各池化层均为步长是2的最大池化层。
可见光尺度通道聚合特征提取模块:结构如图3所示,包括可见光初始第一尺度卷积层、可见光初始第二尺度卷积层、可见光初始第三尺度卷积层、可见光初始第四尺度卷积层、可见光初始第五尺度卷积层、可见光初始第六尺度卷积层、一个全局平均池化层、两个全连接层和一个Softmax层;所述可见光初始第一尺度卷积层为一个卷积核尺寸为3×3和输出通道数为512的卷积层;所述可见光初始第二尺度卷积层为一个卷积核尺寸为5×5和输出通道数为512的卷积层;所述可见光初始第三尺度卷积层为一个卷积核尺寸为7×7和输出通道数为512的卷积层;所述可见光初始第四尺度卷积层为一个卷积核尺寸为9×9和输出通道数为512的卷积层;所述可见光初始第五尺度卷积层为一个卷积核尺寸为11×11和输出通道数为512的卷积层;所述可见光初始第五尺度卷积层为一个卷积核尺寸为13×13和输出通道数为512的卷积层;所述全局平均池化层为特征图空间方向的窗口尺寸为1×1的全局平均池化层;
红外热尺度通道聚合特征提取模块:结构如图3所示,包括红外热初始第一尺度卷积层、红外热初始第二尺度卷积层、红外热初始第三尺度卷积层、红外热初始第四尺度卷积层、红外热初始第五尺度卷积层、红外热初始第六尺度卷积层、一个全局平均池化层、两个全连接层和一个Softmax层;所述红外热初始第一尺度卷积层为一个卷积核尺寸为3×3和输出通道数为512的卷积层;所述红外热初始第二尺度卷积层为一个卷积核尺寸为5×5和输出通道数为512的卷积层;所述红外热初始第三尺度卷积层为一个卷积核尺寸为7×7和输出通道数为512的卷积层;所述红外热初始第四尺度卷积层为一个卷积核尺寸为9×9和输出通道数为512的卷积层;所述红外热初始第五尺度卷积层为一个卷积核尺寸为11×11和输出通道数为512的卷积层;所述红外热初始第五尺度卷积层为一个卷积核尺寸为13×13和输出通道数为512的卷积层;所述全局平均池化层为特征图空间方向的窗口尺寸为1×1的全局平均池化层;
跨模态尺度感知特征融合模块:结构如图4所示,包含可见光第一尺度卷积层、可见光第二尺度卷积层、可见光第三尺度卷积层、可见光第四尺度卷积层、可见光第五尺度卷积层、可见光第六尺度卷积层、第一全局平均池化层、可见光空间注意变换卷积层、Sigmoid层、红外热第一尺度卷积层、红外热第二尺度卷积层、红外热第三尺度卷积层、红外热第四尺度卷积层、红外热第五尺度卷积层、红外热第六尺度卷积层、第二全局平均池化层和红外热空间注意变换卷积层;所述可见光第一尺度卷积层和红外热第一尺度卷积层均为一个卷积核尺寸为3×3和输出通道数为512的卷积层;所述可见光第二尺度卷积层和红外热第二尺度卷积层均为一个卷积核尺寸为5×5和输出通道数为512的卷积层;所述可见光第三尺度卷积层和红外热第三尺度卷积层均为一个卷积核尺寸为7×7和输出通道数为512的卷积层;所述可见光第四尺度卷积层和红外热第四尺度卷积层均为一个卷积核尺寸为9×9和输出通道数为512的卷积层;所述可见光第五尺度卷积层和红外热第五尺度卷积层均为一个卷积核尺寸为11×11和输出通道数为512的卷积层;所述可见光第六尺度卷积层和红外热第六尺度卷积层均为一个卷积核尺寸为13×13和输出通道数为512的卷积层;所述第一平均池化层和第二平均池化层均为特征图通道方向的窗口尺寸为1×1的全局平均池化层;所述可见光空间注意变换卷积层和红外热空间注意变换卷积层均为一个卷积核尺寸为7×7和输出通道数为1的卷积层;
人群密度图回归模块:从输入到输出方向依次为三个卷积层,卷积核尺寸均为3×3,生成的特征图通道数依次为256、128和1。
步骤一:利用获取模块获取包括待计数人群的场景可见光图像和红外热图像。
步骤二:任意将由获取模块获取的包含待训练计数人群的可见光图像输入可见光初始特征提取模块,得到可见光初始特征。
步骤三:将和步骤二中可见光图像配对的红外热图像输入红外热初始特征提取模块,得到红外热初始特征。虽然红外热初始特征提取模块和可见光初始特征提取模块的结构相同,但是因为在训练时的训练数据不同所以导致每个模型中相同卷积层的权值是不同的,所以得到的结果不同。
步骤四:将步骤一得到的可见光初始特征输入可见光尺度通道聚合特征提取模块,得到可见光尺度通道聚合特征。将可见光初始特征分别输入可见光初始第一尺度卷积层、可见光初始第二尺度卷积层、可见光初始第三尺度卷积层、可见光初始第四尺度卷积层、可见光初始第五尺度卷积层和可见光初始第六尺度卷积层,分别得到可见光初始第一尺度特征图、可见光初始第二尺度特征图、可见光初始第三尺度特征图、可见光初始第四尺度特征图、可见光初始第五尺度特征图和可见光初始第六尺度特征图;将可见光初始第一尺度特征图、可见光初始第二尺度特征图、可见光初始第三尺度特征图、可见光初始第四尺度特征图、可见光初始第五尺度特征图和可见光初始第六尺度特征图进行对应位置像素相加,得到可见光初始尺度聚合特征图;
将可见光初始尺度聚合特征图依次输入到全局平均池化层、两个全连接层和Softmax层,得到可见光初始尺度聚合通道注意描述子;将可见光初始尺度聚合通道注意描述子和可见光初始第一尺度特征图进行对应位置像素相乘,得到可见光第一尺度通道聚合特征图;将可见光初始尺度聚合通道注意描述子和可见光初始第二尺度特征图进行对应位置像素相乘,得到可见光第二尺度通道聚合特征图;将可见光初始尺度聚合通道注意描述子和可见光初始第三尺度特征图进行对应位置像素相乘,得到可见光第三尺度通道聚合特征图;将可见光初始尺度聚合通道注意描述子和可见光初始第四尺度特征图进行对应位置像素相乘,得到可见光第四尺度通道聚合特征图;将可见光初始尺度聚合通道注意描述子和可见光初始第五尺度特征图进行对应位置像素相乘,得到可见光第五尺度通道聚合特征图;将可见光初始尺度聚合通道注意描述子和可见光初始第六尺度特征图进行对应位置像素相乘,得到可见光第六尺度通道聚合特征图;将可见光第一尺度通道聚合特征图、可见光第二尺度通道聚合特征图、可见光第三尺度通道聚合特征图、可见光第四尺度通道聚合特征图、可见光第五尺度通道聚合特征图和可见光第六尺度通道聚合特征图进行对应位置像素相加,得到可见光尺度通道聚合特征。
步骤五:将步骤三得到的红外热初始特征输入红外热尺度通道聚合特征提取模块,得到红外热尺度通道聚合特征。虽然红外热尺度通道聚合特征提取模块和可见光尺度通道聚合特征提取模块的结构相同,但是因为在训练时的训练数据不同所以导致每个模型中相同卷积层的权值是不同的,所以得到的结果不同。
将红外热初始特征分别输入红外热初始第一尺度卷积层、红外热初始第二尺度卷积层、红外热初始第三尺度卷积层、红外热初始第四尺度卷积层、红外热初始第五尺度卷积层和红外热初始第六尺度卷积层,分别得到红外热初始第一尺度特征图、红外热初始第二尺度特征图、红外热初始第三尺度特征图、红外热初始第四尺度特征图、红外热初始第五尺度特征图和红外热初始第六尺度特征图;将红外热初始第一尺度特征图、红外热初始第二尺度特征图、红外热初始第三尺度特征图、红外热初始第四尺度特征图、红外热初始第五尺度特征图和红外热初始第六尺度特征图进行对应位置像素相加,得到红外热初始尺度聚合特征图;
将红外热初始尺度聚合特征图依次输入到全局平均池化层、两个全连接层和Softmax层,得到红外热初始尺度聚合通道注意描述子;将红外热初始尺度聚合通道注意描述子和红外热初始第一尺度特征图进行对应位置像素相乘,得到红外热第一尺度通道聚合特征图;将红外热初始尺度聚合通道注意描述子和红外热初始第二尺度特征图进行对应位置像素相乘,得到红外热第二尺度通道聚合特征图;将红外热初始尺度聚合通道注意描述子和红外热初始第三尺度特征图进行对应位置像素相乘,得到红外热第三尺度通道聚合特征图;将红外热初始尺度聚合通道注意描述子和红外热初始第四尺度特征图进行对应位置像素相乘,得到红外热第四尺度通道聚合特征图;将红外热初始尺度聚合通道注意描述子和红外热初始第五尺度特征图进行对应位置像素相乘,得到红外热第五尺度通道聚合特征图;将红外热初始尺度聚合通道注意描述子和红外热初始第六尺度特征图进行对应位置像素相乘,得到红外热第六尺度通道聚合特征图;将红外热第一尺度通道聚合特征图、红外热第二尺度通道聚合特征图、红外热第三尺度通道聚合特征图、红外热第四尺度通道聚合特征图、红外热第五尺度通道聚合特征图和红外热第六尺度通道聚合特征图进行对应位置像素相加,得到红外热尺度通道聚合特征。
步骤六:将步骤四得到的可见光尺度通道聚合特征和步骤五得到的红外热尺度通道聚合特征输入跨模态尺度感知特征融合模块,得到跨模态尺度空间聚合特征。将可见光尺度通道聚合特征分别输入可见光第一尺度卷积层、可见光第二尺度卷积层、可见光第三尺度卷积层、可见光第四尺度卷积层、可见光第五尺度卷积层和可见光第六尺度卷积层,分别得到可见光第一尺度特征图、可见光第二尺度特征图、可见光第三尺度特征图、可见光第四尺度特征图、可见光第五尺度特征图和可见光第六尺度特征图;将可见光第一尺度特征图、可见光第二尺度特征图、可见光第三尺度特征图、可见光第四尺度特征图、可见光第五尺度特征图和可见光第六尺度特征图进行对应位置像素相加,得到可见光尺度聚合特征图;将可见光尺度聚合特征图依次输入到第一全局平均池化层和可见光空间注意变换卷积层,得到可见光尺度聚合空间注意描述子;
将红外热尺度通道聚合特征分别输入红外热第一尺度卷积层、红外热第二尺度卷积层、红外热第三尺度卷积层、红外热第四尺度卷积层、红外热第五尺度卷积层和红外热第六尺度卷积层,分别得到红外热第一尺度特征图、红外热第二尺度特征图、红外热第三尺度特征图、红外热第四尺度特征图、红外热第五尺度特征图和红外热第六尺度特征图;将红外热第一尺度特征图、红外热第二尺度特征图、红外热第三尺度特征图、红外热第四尺度特征图、红外热第五尺度特征图和红外热第六尺度特征图进行对应位置像素相加,得到红外热尺度聚合特征图;将红外热尺度聚合特征图依次输入到第二全局平均池化层和红外热空间注意变换卷积层,得到红外热尺度聚合空间注意描述子;
将红外热尺度聚合空间注意描述子和可见光第一尺度特征图进行对应位置像素相乘,得到红外热引导可见光第一尺度空间聚合特征图;将红外热尺度聚合空间注意描述子和可见光第二尺度特征图进行对应位置像素相乘,得到红外热引导可见光第二尺度空间聚合特征图;将红外热尺度聚合空间注意描述子和可见光第三尺度特征图进行对应位置像素相乘,得到红外热引导可见光第三尺度空间聚合特征图;将红外热尺度聚合空间注意描述子和可见光第四尺度特征图进行对应位置像素相乘,得到红外热引导可见光第四尺度空间聚合特征图;将红外热尺度聚合空间注意描述子和可见光第五尺度特征图进行对应位置像素相乘,得到红外热引导可见光第五尺度空间聚合特征图;将红外热尺度聚合空间注意描述子和可见光第六尺度特征图进行对应位置像素相乘,得到红外热引导可见光第六尺度空间聚合特征图;将红外热引导可见光第一尺度空间聚合特征图、红外热引导可见光第二尺度空间聚合特征图、红外热引导可见光第三尺度空间聚合特征图、红外热引导可见光第四尺度空间聚合特征图、红外热引导可见光第五尺度空间聚合特征图和红外热引导可见光第六尺度空间聚合特征图进行对应位置像素相加,得到红外热引导可见光跨模态尺度空间聚合特征;
将可见光尺度聚合空间注意描述子和红外热第一尺度特征图进行对应位置像素相乘,得到可见光引导红外热第一尺度空间聚合特征图;将可见光尺度聚合空间注意描述子和红外热第二尺度特征图进行对应位置像素相乘,得到可见光引导红外热第二尺度空间聚合特征图;将可见光尺度聚合空间注意描述子和红外热第三尺度特征图进行对应位置像素相乘,得到可见光引导红外热第三尺度空间聚合特征图;将可见光尺度聚合空间注意描述子和红外热第四尺度特征图进行对应位置像素相乘,得到可见光引导红外热第四尺度空间聚合特征图;将可见光尺度聚合空间注意描述子和红外热第五尺度特征图进行对应位置像素相乘,得到可见光引导红外热第五尺度空间聚合特征图;将可见光尺度聚合空间注意描述子和红外热第六尺度特征图进行对应位置像素相乘,得到可见光引导红外热第六尺度空间聚合特征图;将可见光引导红外热第一尺度空间聚合特征图、可见光引导红外热第二尺度空间聚合特征图、可见光引导红外热第三尺度空间聚合特征图、可见光引导红外热第四尺度空间聚合特征图、可见光引导红外热第五尺度空间聚合特征图和可见光引导红外热第六尺度空间聚合特征图进行对应位置像素相加,得到可见光引导红外热跨模态尺度空间聚合特征;
将红外热引导可见光跨模态尺度空间聚合特征和可见光引导红外热跨模态尺度空间聚合特征进行通道链接操作,得到跨模态尺度空间聚合特征。
步骤七:将步骤六得到的跨模态尺度空间聚合特征输入人群密度图回归模块,得到估计人群密度图。使用人群密度估计图和真实人群密度图的欧氏距离作为损失函数对用于跨模态人群密度图估计的深度神经网络模型进行训练,得到训练好的深度神经网络模型。在每次得到待估计图像对应的人群密度估计图之后,根据用于跨模态人群密度图估计的深度神经网络模型的损失函数确定用于跨模态人群密度图估计的深度神经网络模型的误差,将所述误差反向传播,调整用于人跨模态人群密度图估计的深度神经网络模型的参数,对用于跨模态人群密度图估计的深度神经网络模型进行优化。待网络模型学习参数采用Adam优化算法在每一次优化迭代中更新,直到加权和结果收敛到一个较小的值,保存参数及训练后的模型。如图5所示,使用可见光初始特征提取模块、红外热初始特征提取模块、可见光尺度通道聚合特征提取模块、红外热尺度通道聚合特征提取模块、跨模态尺度感知特征融合模块和人群密度图回归模块共同组成的深度神经网络模型对待计数的可见光图像和红外热图像进行人群密度图估计,得到对应的人群密度图。
步骤八:将所述人群密度图的像素值进行求和,得到人群计数结果。
本发明通过在跨模态特征提取阶段设计尺度感知通道/空间注意聚合特征提取部分实现具备尺度感知能力的跨模态特征高效提取并融合,进而降低人群计数场景中尺度变换对跨模态特征提取过程的负面影响,从而提高最终人群计数结果的准确率。
以上所述的实施例仅仅是对本发明的优选实施方式进行描述,并非对本发明的范围进行限定,在不脱离本发明设计精神的前提下,本领域普通技术人员对本发明的技术方案做出的各种变形和改进,均应落入本发明权利要求书确定的保护范围内。

Claims (6)

1.一种基于跨模态间尺度注意聚合特征的计数系统,其特征在于包括:获取模块、可见光初始特征提取模块、红外热初始特征提取模块、可见光尺度通道聚合特征提取模块、红外热尺度通道聚合特征提取模块、跨模态尺度感知特征融合模块、人群密度图回归模块和人群计数模块;
获取模块用于获取待计数人群的场景可见光图像和红外热图像;所述可见光初始特征提取模块用于将可见光图像进行可见光模态初始特征提取;所述红外热初始特征提取模块将红外热图像进行红外热模态初始特征提取;所述可见光尺度通道聚合特征提取模块用于将可见光初始特征进行可见光模态尺度通道注意聚合;红外热尺度通道聚合特征提取模块用于将红外热初始特征进行红外热模态尺度通道注意聚合;跨模态尺度感知特征融合模块用于将可见光尺度通道聚合特征和红外热尺度通道聚合特征进行跨模态间尺度空间注意聚合;人群密度图回归模块将跨模态尺度空间聚合特征进行密度图回归;人群计数模块用于将人群密度图的像素值进行求和;
跨模态尺度感知特征融合模块:包括可见光第一尺度卷积层至可见光第六尺度卷积层等六个尺度卷积层,第一全局平均池化层、可见光空间注意变换卷积层、Sigmoid层、红外热第一尺度卷积层至红外热第六尺度卷积层,六个尺度卷积层、第二全局平均池化层和红外热空间注意变换卷积层;所述可见光第一至第六尺度卷积层,六个卷积层输出通道数均为512,各所述卷积层卷积核尺寸由第一至第六依次为3×3、5×5、7×7、9×9、11×11和13×13,所述红外热第一至第六尺度卷积层,六个卷积层输出通道数均为512,各所述卷积层卷积核尺寸由第一至第六依次为3×3、5×5、7×7、9×9、11×11和13×13,所述第一全局平均池化层和第二全局平均池化层均为特征图通道方向的窗口尺寸为1×1的全局平均池化层;所述可见光空间注意变换卷积层和红外热空间注意变换卷积层均为一个卷积核尺寸为7×7和输出通道数为1的卷积层;将所述可见光尺度通道聚合特征和红外热尺度通道聚合特征输入跨模态尺度感知特征融合模块进行跨模态间尺度空间注意聚合,将所述可见光尺度通道聚合特征分别输入可见光第一至第六尺度卷积层,分别得到可见光第一至第六尺度特征图;将所述可见光第一尺度特征图、可见光第二尺度特征图、可见光第三尺度特征图、可见光第四尺度特征图、可见光第五尺度特征图和可见光第六尺度特征图进行对应位置像素相加,得到可见光尺度聚合特征图;将可见光尺度聚合特征图依次输入到第一全局平均池化层和可见光空间注意变换卷积层,得到可见光尺度聚合空间注意描述子;
将所述红外热尺度通道聚合特征分别输入红外热第一至第六尺度卷积层,分别得到红外热第一至第六尺度特征图;将所述红外热第一尺度特征图、红外热第二尺度特征图、红外热第三尺度特征图、红外热第四尺度特征图、红外热第五尺度特征图和红外热第六尺度特征图进行对应位置像素相加,得到红外热尺度聚合特征图;将红外热尺度聚合特征图依次输入到第二全局平均池化层和红外热空间注意变换卷积层,得到红外热尺度聚合空间注意描述子;
将所述红外热尺度聚合空间注意描述子和可见光第一至第六尺度特征图进行对应位置像素相乘,得到红外热引导可见光第一至第六尺度空间聚合特征图;将红外热引导可见光第一尺度空间聚合特征图、红外热引导可见光第二尺度空间聚合特征图、红外热引导可见光第三尺度空间聚合特征图、红外热引导可见光第四尺度空间聚合特征图、红外热引导可见光第五尺度空间聚合特征图和红外热引导可见光第六尺度空间聚合特征图进行对应位置像素相加,得到红外热引导可见光跨模态尺度空间聚合特征;
将所述可见光尺度聚合空间注意描述子和红外热第一至第六尺度特征图进行对应位置像素相乘,得到可见光引导红外热第一至第六尺度空间聚合特征图,将可见光引导红外热第一尺度空间聚合特征图、可见光引导红外热第二尺度空间聚合特征图、可见光引导红外热第三尺度空间聚合特征图、可见光引导红外热第四尺度空间聚合特征图、可见光引导红外热第五尺度空间聚合特征图和可见光引导红外热第六尺度空间聚合特征图进行对应位置像素相加,得到可见光引导红外热跨模态尺度空间聚合特征;
将所述红外热引导可见光跨模态尺度空间聚合特征和所述可见光引导红外热跨模态尺度空间聚合特征进行通道链接操作,得到跨模态尺度空间聚合特征。
2.根据权利要求1所述一种基于跨模态间尺度注意聚合特征的计数系统,其特征在于所述各模块具体组成为:
可见光初始特征提取模块:从输入到输出方向依次为两个卷积层、一个池化层、两个卷积层、一个池化层、四个卷积层、一个池化层、四个卷积层、一个池化层和四个卷积层,每个卷积层的卷积核尺寸均为3×3,各所述卷积层生成的特征图通道数由输入至输出方向依次为64、64、128、128、256、256、256、256、512、512、512、512、512、512、512和512,各所述池化层均为步长为2的最大池化层;
红外热初始特征提取模块:从输入到输出方向依次为两个卷积层、一个池化层、两个卷积层、一个池化层、四个卷积层、一个池化层、四个卷积层、一个池化层和四个卷积层,每个卷积层的卷积核尺寸均为3×3,各所述卷积层生成的特征图通道数由输入至输出方向依次为64、64、128、128、256、256、256、256、512、512、512、512、512、512、512和512,各所述池化层均为步长为2的最大池化层;
可见光尺度通道聚合特征提取模块:包括可见光初始第一尺度卷积层至可见光初始第六卷积层等六个卷积层、一个全局平均池化层、两个全连接层和一个Softmax层;六个卷积层输出通道数均为512,各所述卷积层卷积核尺寸由第一至第六依次为3×3、5×5、7×7、9×9、11×11和13×13,全局平均池化层特征图空间方向的窗口尺寸为1×1;
红外热尺度通道聚合特征提取模块:包括红外热初始第一尺度卷积层至红外热初始第六卷积层等六个卷积层、一个全局平均池化层、两个全连接层和一个Softmax层;六个卷积层输出通道数均为512,各所述卷积层卷积核尺寸由第一至第六依次为3×3、5×5、7×7、9×9、11×11和13×13,全局平均池化层特征图空间方向的窗口尺寸为1×1;
人群密度图回归模块:从输入到输出方向依次为三个卷积层,卷积核尺寸均为3×3,生成的特征图通道数依次为256、128和1。
3.一种基于跨模态间尺度注意聚合特征的计数方法,其特征在于基于权利要求2所述一种基于跨模态间尺度注意聚合特征的计数系统,步骤如下:
步骤一:获取包括待计数人群的场景可见光图像和红外热图像;
步骤二:将所述可见光图像进行可见光模态初始特征提取,得到可见光初始特征;
步骤三:将所述红外热图像进行红外热模态初始特征提取,得到红外热初始特征;
步骤四:将所述可见光初始特征进行可见光模态尺度通道注意聚合,得到可见光尺度通道聚合特征;
步骤五:将所述红外热初始特征进行红外热模态尺度通道注意聚合,得到红外热尺度通道聚合特征;
步骤六:将所述可见光尺度通道聚合特征和红外热尺度通道聚合特征进行跨模态间尺度空间注意聚合,得到跨模态尺度空间聚合特征;
步骤七:将所述跨模态尺度空间聚合特征进行密度图回归,得到人群密度图;
步骤八:将所述人群密度图的像素值进行求和,得到人群计数结果。
4.根据权利要求3所述的一种基于跨模态间尺度注意聚合特征的计数方法,其特征在于,所述步骤四具体包括:将所述可见光初始特征输入可见光尺度通道注意聚合特征提取模块进行可见光模态尺度通道注意聚合,将可见光初始特征分别输入可见光初始第一至第六尺度卷积层,分别得到可见光初始第一至第六尺度特征图,将所述可见光初始第一尺度特征图、可见光初始第二尺度特征图、可见光初始第三尺度特征图、可见光初始第四尺度特征图、可见光初始第五尺度特征图和可见光初始第六尺度特征图进行对应位置像素相加,得到可见光初始尺度聚合特征图;
将可见光初始尺度聚合特征图依次输入到所述全局平均池化层、两个全连接层和Softmax层,得到可见光初始尺度聚合通道注意描述子;将可见光初始尺度聚合通道注意描述子和可见光初始第一至第六尺度特征图进行对应位置像素相乘,得到可见光第一至第六尺度通道聚合特征图;将可见光第一尺度通道聚合特征图、可见光第二尺度通道聚合特征图、可见光第三尺度通道聚合特征图、可见光第四尺度通道聚合特征图、可见光第五尺度通道聚合特征图和可见光第六尺度通道聚合特征图进行对应位置像素相加,得到可见光尺度通道聚合特征。
5.根据权利要求3所述的一种基于跨模态间尺度注意聚合特征的计数方法,其特征在于,所述步骤五具体包括:将所述红外热初始特征输入红外热尺度通道注意聚合特征提取模块进行红外热模态尺度通道注意聚合,将红外热初始特征分别输入红外热初始第一至第六尺度卷积层,分别得到红外热初始第一至第六尺度特征图,将所述红外热初始第一尺度特征图、红外热初始第二尺度特征图、红外热初始第三尺度特征图、红外热初始第四尺度特征图、红外热初始第五尺度特征图和红外热初始第六尺度特征图进行对应位置像素相加,得到红外热初始尺度聚合特征图;
将红外热初始尺度聚合特征图依次输入到所述全局平均池化层、两个全连接层和Softmax层,得到红外热初始尺度聚合通道注意描述子;将红外热初始尺度聚合通道注意描述子和红外热初始第一至第六尺度特征图进行对应位置像素相乘,得到红外热第一至第六尺度通道聚合特征图;将红外热第一尺度通道聚合特征图、红外热第二尺度通道聚合特征图、红外热第三尺度通道聚合特征图、红外热第四尺度通道聚合特征图、红外热第五尺度通道聚合特征图和红外热第六尺度通道聚合特征图进行对应位置像素相加,得到红外热尺度通道聚合特征。
6.根据权利要求3所述的一种基于跨模态间尺度注意聚合特征的计数方法,其特征在于,所述步骤七具体包括:将所述跨模态尺度空间聚合特征图输入人群密度图回归模块进行密度图回归,得到人群密度图。
CN202211072215.5A 2022-09-02 2022-09-02 一种基于跨模态间尺度注意聚合特征的计数系统及方法 Active CN115527159B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211072215.5A CN115527159B (zh) 2022-09-02 2022-09-02 一种基于跨模态间尺度注意聚合特征的计数系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211072215.5A CN115527159B (zh) 2022-09-02 2022-09-02 一种基于跨模态间尺度注意聚合特征的计数系统及方法

Publications (2)

Publication Number Publication Date
CN115527159A CN115527159A (zh) 2022-12-27
CN115527159B true CN115527159B (zh) 2024-01-12

Family

ID=84698554

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211072215.5A Active CN115527159B (zh) 2022-09-02 2022-09-02 一种基于跨模态间尺度注意聚合特征的计数系统及方法

Country Status (1)

Country Link
CN (1) CN115527159B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117315428B (zh) * 2023-10-30 2024-04-05 燕山大学 一种跨模态特征对齐融合的人群计数系统及方法
CN117809242A (zh) * 2023-12-27 2024-04-02 燕山大学 一种面向跨模态空间错位的双阶段特征对齐融合计数系统及方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110188685A (zh) * 2019-05-30 2019-08-30 燕山大学 一种基于双注意力多尺度级联网络的目标计数方法及系统
CN113283529A (zh) * 2021-06-08 2021-08-20 南通大学 一种面向多模态图像能见度检测的神经网络构建方法
CN113538400A (zh) * 2021-07-29 2021-10-22 燕山大学 一种跨模态人群计数方法及系统
EP4033399A1 (fr) * 2021-01-25 2022-07-27 Bull Sas Dispositif informatique et procédé pour l'estimation de la densité d'une foule
CN114821488A (zh) * 2022-06-30 2022-07-29 华东交通大学 基于多模态网络的人群计数方法、系统及计算机设备
CN114898189A (zh) * 2022-03-31 2022-08-12 西安电子科技大学 基于模态差异特征引导的红外可见光融合识别系统和方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10657363B2 (en) * 2017-10-26 2020-05-19 Motorola Mobility Llc Method and devices for authenticating a user by image, depth, and thermal detection

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110188685A (zh) * 2019-05-30 2019-08-30 燕山大学 一种基于双注意力多尺度级联网络的目标计数方法及系统
EP4033399A1 (fr) * 2021-01-25 2022-07-27 Bull Sas Dispositif informatique et procédé pour l'estimation de la densité d'une foule
CN113283529A (zh) * 2021-06-08 2021-08-20 南通大学 一种面向多模态图像能见度检测的神经网络构建方法
CN113538400A (zh) * 2021-07-29 2021-10-22 燕山大学 一种跨模态人群计数方法及系统
CN114898189A (zh) * 2022-03-31 2022-08-12 西安电子科技大学 基于模态差异特征引导的红外可见光融合识别系统和方法
CN114821488A (zh) * 2022-06-30 2022-07-29 华东交通大学 基于多模态网络的人群计数方法、系统及计算机设备

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Cross-modal collaborative representation and multi-level supervision for crowd counting;Shufang Li等;《Signal, Image and Video Processing》;全文 *
Cross-Modal Collaborative Representation Learning and a Large-Scale RGBT Benchmark for Crowd Counting;Lingbo Liu等;《2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)》;全文 *
基于生成对抗网络的跨模态行人重识别研究;冯敏;张智成;吕进;余磊;韩斌;;现代信息科技(第04期);全文 *
复杂场景下自适应行人检测算法研究;王加驰;《中国优秀硕士学位论文全文数据库 信息科技辑》;全文 *

Also Published As

Publication number Publication date
CN115527159A (zh) 2022-12-27

Similar Documents

Publication Publication Date Title
CN108133188B (zh) 一种基于运动历史图像与卷积神经网络的行为识别方法
CN115527159B (zh) 一种基于跨模态间尺度注意聚合特征的计数系统及方法
CN106845487B (zh) 一种端到端的车牌识别方法
CN113128558B (zh) 基于浅层空间特征融合与自适应通道筛选的目标检测方法
CN110853074A (zh) 一种利用光流增强目标的视频目标检测网络系统
CN110163060B (zh) 图像中人群密度的确定方法及电子设备
CN116342601B (zh) 基于边缘引导和多层级搜索的图像篡改检测方法
CN115311186A (zh) 一种红外与可见光图像跨尺度注意力对抗融合方法及终端
CN112418032A (zh) 一种人体行为识别方法、装置、电子设备及存储介质
CN116612288B (zh) 一种多尺度轻量级实时语义分割方法、系统
CN116524189A (zh) 一种基于编解码索引化边缘表征的高分辨率遥感图像语义分割方法
CN109859222A (zh) 基于级联神经网络的边缘提取方法及系统
Niu et al. Boundary-aware RGBD salient object detection with cross-modal feature sampling
CN116503618B (zh) 一种基于多模态多级特征聚合的显著目标检测方法及装置
CN117475134A (zh) 基于多尺度跨层特征融合网络的伪装目标检测算法
CN115641584B (zh) 一种雾天图像识别方法及装置
CN117132910A (zh) 一种用于无人机的车辆检测方法、装置及存储介质
CN116363594A (zh) 一种新的人群计数方法
CN116229228A (zh) 基于中心环绕机制的小目标检测方法
CN114372999A (zh) 一种对象检测方法、装置、电子设备和存储介质
CN112487927B (zh) 一种基于物体关联注意力的室内场景识别实现方法及系统
CN113920317A (zh) 基于可见光图像和低分辨率深度图像的语义分割方法
CN113159068A (zh) 一种基于深度学习的rgb-d显著性目标检测方法
CN117315428B (zh) 一种跨模态特征对齐融合的人群计数系统及方法
CN117809169B (zh) 一种小样本水下声呐图像分类方法及其模型搭建方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant