CN111507183A - 一种基于多尺度密度图融合空洞卷积的人群计数方法 - Google Patents

一种基于多尺度密度图融合空洞卷积的人群计数方法 Download PDF

Info

Publication number
CN111507183A
CN111507183A CN202010167699.6A CN202010167699A CN111507183A CN 111507183 A CN111507183 A CN 111507183A CN 202010167699 A CN202010167699 A CN 202010167699A CN 111507183 A CN111507183 A CN 111507183A
Authority
CN
China
Prior art keywords
crowd
density map
network
convolution
resolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010167699.6A
Other languages
English (en)
Other versions
CN111507183B (zh
Inventor
汤景凡
周美佳
姜明
李鹏飞
张旻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Taoyi Data Technology Co.,Ltd.
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN202010167699.6A priority Critical patent/CN111507183B/zh
Publication of CN111507183A publication Critical patent/CN111507183A/zh
Application granted granted Critical
Publication of CN111507183B publication Critical patent/CN111507183B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters

Abstract

本发明公开了一种基于多尺度密度图融合空洞卷积的人群计数方法。本发明步骤如下:获取人群图像数据集,并且进行预处理;建立基于多尺度密度图融合空洞卷积的人群计数网络;将预处理之后的人群图像输入该人群计数网络中提取特征数据,输出对应图像的低分辨率密度图;将低分辨率密度图融合空洞卷积网络,输出对应图像的高分辨率密度图;对人群计数网络输出的高分辨率密度图进行积分,得到对应人群图像中的人群总数;将最后输出的高分辨率密度图与人工标注的真实密度图进行损失计算,不断迭代更新人群计数网络;将测试图片输入最终确认的人群计数网络,生成人群分布密度图并且进行人群计数。本发明具有很好的自适应能力和很高的预测精度。

Description

一种基于多尺度密度图融合空洞卷积的人群计数方法
技术领域
本发明涉及人群计数领域,具体涉及一种基于多尺度密度图融合空洞卷积的人群计数方法,属于计算机视觉图像处理技术领域。
背景技术
由于各个国家的高速城镇化,拥有高度拥挤的人群场景越来越常见。人群计数在这一情况下能够在视频监控,智能治安管理领域中发挥十分重要的作用。早期传统的人群计数一般基于目标检测或者回归的方法,但是这两种方法都有很大的问题。基于检测的方法很难处理人群之间严重的遮挡问题,只适用于低密度,目标显著突出的场景,而基于回归的方法需要先建立人群特征和人数之间的关系,还要提取像素点,提取低级特征,过程复杂且困难。目前普遍流行的是通过深度学习绘制密度图,两张具有相同数量的人的图像可能具有完全不同的人群分布,因此仅计算人群数量是不够的,人群分布密度图可帮助我们获取更准确,更全面的信息。但是图像的空间角度、距离等严重影响密度图的准确度,所以本发明通过让模型自适应输入图片的不同尺度,提取具有不同深度语义信息的特征图生成低分辨率密度图,再结合使用空洞卷积网络提高最后生成密度图的质量,进行准确的计数。
发明内容
本发明的目的是针对现有技术的不足,提供一种基于多尺度密度图融合空洞卷积的人群计数方法的方法,以解决人群图像中出现人群空间角度失真,人群之间相互遮挡导致的人群分布位置不准确、人群计数困难的问题。
一种基于多尺度密度图融合空洞卷积的人群计数方法,包括以下步骤:
步骤(1)获取人群图像数据集,并且进行预处理;
步骤(2)建立基于多尺度密度图融合空洞卷积的人群计数网络;
步骤(3)将预处理之后的人群图像输入该人群计数网络中提取特征数据,输出对应图像的低分辨率密度图;
步骤(4)将低分辨率密度图融合空洞卷积网络,输出对应图像的高分辨率密度图;
步骤(5)对人群计数网络输出的高分辨率密度图进行积分,得到对应人群图像中的人群总数;
步骤(6)将最后输出的高分辨率密度图与人工标注的真实密度图进行损失计算,不断迭代更新人群计数网络;
步骤(7)将测试图片输入最终确认的人群计数网络,生成人群分布密度图并且进行人群计数。
本发明所具有的优点如下:利用卷积网络对输入的人群图像进行分析,通过非人工干预的手段首先输出低分辨率的人群分布密度图,包含相应输入图像的人群空间分布信息,是生成高分辨率密度图的重要特征图。在此基础上融合空洞卷积,在保持高分辨率的同时增大感受野,进一步提取重要特征,输出最后的高分辨率人群分布密度图,并且对密度图进行积分求出总的人数,这种方法具有很好的自适应能力和很高的预测精度。
附图说明
图1是本发明的整体实施方案流程图;
图2是本发明的训练模型示意图;
图3是空洞卷积网络模型图;
图4是本发明工艺实施方案的具体流程图;
具体实施方式
下面结合附图对本发明作进一步描述。
本发明的整体实施方案流程图参照图1-图4,一种基于多尺度密度图融合空洞卷积的人群计数方法,包括以下步骤:
步骤(1)获取人群图像数据集,并且进行预处理;
步骤(2)建立基于多尺度密度图融合空洞卷积的人群计数网络;
步骤(3)将预处理之后的人群图像输入该人群计数网络中提取特征数据,输出对应图像的低分辨率密度图;
步骤(4)将低分辨率密度图融合空洞卷积网络,输出对应图像的高分辨率密度图;
步骤(5)对人群计数网络输出的高分辨率密度图进行积分,得到对应人群图像中的人群总数;
步骤(6)将最后输出的高分辨率密度图与人工标注的真实密度图进行损失计算,不断迭代更新人群计数网络;
步骤(7)将测试图片输入最终确认的人群计数网络,生成人群分布密度图并且进行人群计数。
所述的步骤(1)具体过程如下:
(1-1)从网上获取本领域的多个公开数据集,对每个数据集分别进行整理归类,随机抽选出所需数量的图片作为训练集,剩下的作为测试集;
(1-2)将整理出的训练集进行二值化、归一化、数据增强的预处理,消除图像中的无关信息,输入人群图像的训练集表示为P={p1,p2…pn},其中n表示为训练集大小。
所述的步骤(2)具体过程如下:
(2-1)构建基于多尺度密度图融合空洞卷积的人群计数网络,确定网络的广度、深度和训练方式;
(2-2)该人群计数网络由主干和分支两部分构成,其中分支生成三个含有不同空间关联信息的低分辨率密度图,主干用于将三个含有不同语义信息的低分辨率密度图融合空洞卷积生成高分辨率密度图;
(2-3)通过网络训练每一张图片,生成对应的低分辨率密度图Bi和高分辨率密度图hi,构成一个三元组集合,D={(p1,B1,h1)…(pn,Bn,hn)},其中pi是第i个输入图像,Bi是第pi对应的低分辨率密度图,hi是pi对应的高分辨率密度图,n表示训练集大小。
所述的步骤(3)具体过程如下:
(3-1)从步骤(1)的数据集中获取预处理后的训练集P={p1,p2…pn},输入人群计数网络中;
(3-2)在人群计数网络的主干网络前端提取出三个不同深度的特征向量,分别输入分支中的三条子分支进一步提取语义信息,输出对应的低分辨率密度图Bi={bi1,bi2…bi3},将低分辨率密度图作为高分辨率密度图预测任务的重要特征,bij是第i个输入图像对应的第j,(1≤j≤3)条子分支的低分辨率密度图;
(3-3)对输入图像进行映射,映射函数为:
Figure BDA0002408041980000041
αl为低分辨率密度图对应的子分支的参数;pi表示第i个输入图像;fl()表示映射函数,反映了低分辨率密度图分支的一系列卷积操作过程;
Figure BDA0002408041980000042
表示人群计数网络得出的低分辨率密度图。
所述的步骤(4)具体过程如下:
(4-1)基于步骤(3-1),在人群计数网络的主干网络后端构建空洞卷积神经网络,在图像不同大小的感受野上进一步提取关键特征;假设特征输出为y,则yi表示第i个图像于空洞卷积的特征输出,卷积核为k,空洞率为d,则空洞卷积操作如下:
yi=∑dx[i+r*d]k[d];
其中,r表示空洞卷积核的步长,即卷积核的间隔数量,普通的卷积是空洞卷积的一个特殊情况,当r=1的时候,即是普通的卷积核,通过设置不同的步长r来获得不同大小的感受野;xitr*d表示第i个图像于空洞卷积的特征输入;
(4-2)融合低分辨率密度图
Figure BDA0002408041980000043
输出最终的高分辨率密度图
Figure BDA0002408041980000044
Figure BDA0002408041980000045
为第i张图片对应的高分辨率密度图,fh()为高分辨率的映射函数,反映了生成高分辨率密度图时的一系列卷积过程;αl为低分辨率密度图对应的子分支的参数,αh为主干网络生成高分辨率密度图的参数。
所述的步骤(5)具体过程如下:
(5-1)通过对最终输出的高分辨率度图
Figure BDA0002408041980000046
中所有像素求和得出总体人群计数:
Figure BDA0002408041980000047
所述的步骤(6)具体过程如下:
(6-1)将输出的高分辨率度图
Figure BDA0002408041980000051
与人工标注的真实密度图进行损失计算,低分辨率密度图
Figure BDA0002408041980000052
包含输入图像pi中人群的空间关联信息;低分辨率密度图
Figure BDA0002408041980000054
是高分辨率密度图预测任务的重要特征;通过最小化损失函数L(αl,αh)来优化参数αl和αh
Figure BDA0002408041980000053
其中λl和λh是标量超参数;Bi和hi分别表示人工标注的真实的低分辨率密度图和高分辨率密度图;
(6-2)采用Adam优化器进行训练,利用梯度的一阶矩估计和二阶矩估计动态调整每个参数的学习率,经过偏置校正后,每一次迭代学习率都有个确定范围,使得参数比较平稳;
(6-3)结束训练,得到最优的人群计数网络。
8.根据权利要求7所述的一种基于多尺度密度图融合空洞卷积的人群计数方法,其特征于步骤(7)具体过程如下:
(7-1)将测试图像集输入训练好的基于多尺度密度图融合空洞卷积的人群计数网络中;
(7-2)输出对应的人群分布密度图以及总人数。
本发明训练模型示意图如图2所示:
它由两个分支模块组成,图像输入到网络中,首先经过16*9*9、32*7*7和64*3*3的简单卷积操作,提取初步的特征向量,每一步卷积操作之后用Relu非线性激活,进行池化操作,降低一定的分辨率。三个简单的卷积操作分别衍生出三条支线用于生成包含不同空间信息的低分辨率密度图,将他们卷积融合之后输入到主干网络。主干网络后端构建了一个空洞卷积池,具体配置如图3所示,最后融合低分辨率密度图生成最终的高分辨率密度图。
本发明构建的空洞卷积网络结构如图3所示:
空洞卷积首先应用于图像分割领域,由于其优良性,能够在不增加额外参数的情况下,通过增加设置一个叫空洞率的超参数来获取输入图像不同感受野的特征信息,极大的简化了提取特征的过程,便也被引入到人群计数当中。本发明设置三个卷积核大小为3*3,空洞率分别为1,2,5的过滤器来获取包含不同信息的特征,设置步长为1,能够保证高分辨率。

Claims (8)

1.一种基于多尺度密度图融合空洞卷积的人群计数方法,其特征在于包括以下步骤:
步骤(1)获取人群图像数据集,并且进行预处理;
步骤(2)建立基于多尺度密度图融合空洞卷积的人群计数网络;
步骤(3)将预处理之后的人群图像输入该人群计数网络中提取特征数据,输出对应图像的低分辨率密度图;
步骤(4)将低分辨率密度图融合空洞卷积网络,输出对应图像的高分辨率密度图;
步骤(5)对人群计数网络输出的高分辨率密度图进行积分,得到对应人群图像中的人群总数;
步骤(6)将最后输出的高分辨率密度图与人工标注的真实密度图进行损失计算,不断迭代更新人群计数网络;
步骤(7)将测试图片输入最终确认的人群计数网络,生成人群分布密度图并且进行人群计数。
2.根据权利要求1所述的一种基于多尺度密度图融合空洞卷积的人群计数方法,其特征在于步骤(1)具体过程如下:
(1-1)从网上获取本领域的多个公开数据集,对每个数据集分别进行整理归类,随机抽选出所需数量的图片作为训练集,剩下的作为测试集;
(1-2)将整理出的训练集进行二值化、归一化、数据增强的预处理,消除图像中的无关信息,输入人群图像的训练集表示为P={p1,p2…pn},其中n表示为训练集大小。
3.根据权利要求1或2所述的一种基于多尺度密度图融合空洞卷积的人群计数方法,其特征在于步骤(2)具体过程如下:
(2-1)构建基于多尺度密度图融合空洞卷积的人群计数网络,确定网络的广度、深度和训练方式;
(2-2)该人群计数网络由主干和分支两部分构成,其中分支生成三个含有不同空间关联信息的低分辨率密度图,主干用于将三个含有不同语义信息的低分辨率密度图融合空洞卷积生成高分辨率密度图;
(2-3)通过网络训练每一张图片,生成对应的低分辨率密度图Bi和高分辨率密度图hi,构成一个三元组集合,D={(p1,B1,h1)…(pn,Bn,hn)},其中pi是第i个输入图像,Bi是第pi对应的低分辨率密度图,hi是pi对应的高分辨率密度图,n表示训练集大小。
4.根据权利要求3所述的一种基于多尺度密度图融合空洞卷积的人群计数方法,其特征在于步骤(3)具体过程如下:
(3-1)从步骤(1)的数据集中获取预处理后的训练集P={p1,p2…pn},输入人群计数网络中;
(3-2)在人群计数网络的主干网络前端提取出三个不同深度的特征向量,分别输入分支中的三条子分支进一步提取语义信息,输出对应的低分辨率密度图Bi={bi1,bi2…bi3},将低分辨率密度图作为高分辨率密度图预测任务的重要特征,bij是第i个输入图像对应的第j,(1≤j≤3)条子分支的低分辨率密度图;
(3-3)对输入图像进行映射,映射函数为:
Figure FDA0002408041970000021
αl为低分辨率密度图对应的子分支的参数;pi表示第i个输入图像;fl()表示映射函数,反映了低分辨率密度图分支的一系列卷积操作过程;
Figure FDA0002408041970000022
表示人群计数网络得出的低分辨率密度图。
5.根据权利要求4所述的一种基于多尺度密度图融合空洞卷积的人群计数方法,其特征在于步骤(4)具体过程如下:
(4-1)基于步骤(3-1),在人群计数网络的主干网络后端构建空洞卷积神经网络,在图像不同大小的感受野上进一步提取关键特征;假设特征输出为y,则yi表示第i个图像于空洞卷积的特征输出,卷积核为k,空洞率为d,则空洞卷积操作如下:
yi=∑dx[i+r*d]k[d];
其中,r表示空洞卷积核的步长,即卷积核的间隔数量,普通的卷积是空洞卷积的一个特殊情况,当r=1的时候,即是普通的卷积核,通过设置不同的步长r来获得不同大小的感受野;xi+r*d表示第i个图像于空洞卷积的特征输入;
(4-2)融合低分辨率密度图
Figure FDA0002408041970000031
输出最终的高分辨率密度图
Figure FDA0002408041970000032
Figure FDA0002408041970000033
为第i张图片对应的高分辨率密度图,fh()为高分辨率的映射函数,反映了生成高分辨率密度图时的一系列卷积过程;αl为低分辨率密度图对应的子分支的参数,αh为主干网络生成高分辨率密度图的参数。
6.根据权利要求5所述的一种基于多尺度密度图融合空洞卷积的人群计数方法,其特征在于步骤(5)具体过程如下:
(5-1)通过对最终输出的高分辨率度图
Figure FDA0002408041970000034
中所有像素求和得出总体人群计数:
Figure FDA0002408041970000035
7.根据权利要求6所述的一种基于多尺度密度图融合空洞卷积的人群计数方法,其特征在于步骤(6)具体过程如下:
(6-1)将输出的高分辨率度图
Figure FDA0002408041970000036
与人工标注的真实密度图进行损失计算,低分辨率密度图
Figure FDA0002408041970000037
包含输入图像pi中人群的空间关联信息;低分辨率密度图
Figure FDA0002408041970000038
是高分辨率密度图预测任务的重要特征;通过最小化损失函数L(αl,αh)来优化参数αl和αh
Figure FDA0002408041970000039
其中λl和λh是标量超参数;Bi和hi分别表示人工标注的真实的低分辨率密度图和高分辨率密度图;
(6-2)采用Adam优化器进行训练,利用梯度的一阶矩估计和二阶矩估计动态调整每个参数的学习率,经过偏置校正后,每一次迭代学习率都有个确定范围,使得参数比较平稳;
(6-3)结束训练,得到最优的人群计数网络。
8.根据权利要求7所述的一种基于多尺度密度图融合空洞卷积的人群计数方法,其特征在于步骤(7)具体过程如下:
(7-1)将测试图像集输入训练好的基于多尺度密度图融合空洞卷积的人群计数网络中;
(7-2)输出对应的人群分布密度图以及总人数。
CN202010167699.6A 2020-03-11 2020-03-11 一种基于多尺度密度图融合空洞卷积的人群计数方法 Active CN111507183B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010167699.6A CN111507183B (zh) 2020-03-11 2020-03-11 一种基于多尺度密度图融合空洞卷积的人群计数方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010167699.6A CN111507183B (zh) 2020-03-11 2020-03-11 一种基于多尺度密度图融合空洞卷积的人群计数方法

Publications (2)

Publication Number Publication Date
CN111507183A true CN111507183A (zh) 2020-08-07
CN111507183B CN111507183B (zh) 2021-02-02

Family

ID=71874220

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010167699.6A Active CN111507183B (zh) 2020-03-11 2020-03-11 一种基于多尺度密度图融合空洞卷积的人群计数方法

Country Status (1)

Country Link
CN (1) CN111507183B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112541891A (zh) * 2020-12-08 2021-03-23 山东师范大学 一种基于空洞卷积高分辨率网络的人群计数方法及系统
CN112801063A (zh) * 2021-04-12 2021-05-14 广东众聚人工智能科技有限公司 神经网络系统和基于神经网络系统的图像人群计数方法
CN113239904A (zh) * 2021-07-09 2021-08-10 南京理工大学 基于卷积神经网络的高分辨率密集目标计数方法
CN113536925A (zh) * 2021-06-15 2021-10-22 杭州电子科技大学 一种基于引导注意力机制的人群计数方法
CN113743422A (zh) * 2021-09-07 2021-12-03 西安建筑科技大学 多特征信息融合的人群密度估计方法、设备及存储介质
CN115294359A (zh) * 2022-08-17 2022-11-04 杭州电子科技大学 一种基于深度学习的高分辨率图像显著性目标检测方法
CN113743422B (zh) * 2021-09-07 2024-05-03 西安建筑科技大学 多特征信息融合的人群密度估计方法、设备及存储介质

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106778502A (zh) * 2016-11-21 2017-05-31 华南理工大学 一种基于深度残差网络的人群计数方法
CN107066963A (zh) * 2017-04-11 2017-08-18 福州大学 一种自适应人群计数方法
CN107767413A (zh) * 2017-09-20 2018-03-06 华南理工大学 一种基于卷积神经网络的图像深度估计方法
CN107967451A (zh) * 2017-11-23 2018-04-27 常州大学 一种利用多尺度多任务卷积神经网络对静止图像进行人群计数的方法
CN109241895A (zh) * 2018-08-28 2019-01-18 北京航空航天大学 密集人群计数方法及装置
CN109858424A (zh) * 2019-01-25 2019-06-07 佳都新太科技股份有限公司 人群密度统计方法、装置、电子设备和存储介质
CN109948593A (zh) * 2019-04-04 2019-06-28 浙江工业大学 基于结合全局密度特征的mcnn人群计数方法
CN110020606A (zh) * 2019-03-13 2019-07-16 北京工业大学 一种基于多尺度卷积神经网络的人群密度估计方法
CN110210603A (zh) * 2019-06-10 2019-09-06 长沙理工大学 人群的计数模型构建方法、计数方法和装置
CN110263849A (zh) * 2019-06-19 2019-09-20 合肥工业大学 一种基于多尺度注意力机制的人群密度估计方法
CN110276264A (zh) * 2019-05-27 2019-09-24 东南大学 一种基于前景分割图的人群密度估计方法
CN110674704A (zh) * 2019-09-05 2020-01-10 同济大学 一种基于多尺度扩张卷积网络的人群密度估计方法及装置
CN110782420A (zh) * 2019-09-19 2020-02-11 杭州电子科技大学 一种基于深度学习的小目标特征表示增强方法
CN110853025A (zh) * 2019-11-15 2020-02-28 苏州大学 基于多列残差空洞卷积神经网络的人群密度预测方法

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106778502A (zh) * 2016-11-21 2017-05-31 华南理工大学 一种基于深度残差网络的人群计数方法
CN107066963A (zh) * 2017-04-11 2017-08-18 福州大学 一种自适应人群计数方法
CN107767413A (zh) * 2017-09-20 2018-03-06 华南理工大学 一种基于卷积神经网络的图像深度估计方法
CN107967451A (zh) * 2017-11-23 2018-04-27 常州大学 一种利用多尺度多任务卷积神经网络对静止图像进行人群计数的方法
CN109241895A (zh) * 2018-08-28 2019-01-18 北京航空航天大学 密集人群计数方法及装置
CN109858424A (zh) * 2019-01-25 2019-06-07 佳都新太科技股份有限公司 人群密度统计方法、装置、电子设备和存储介质
CN110020606A (zh) * 2019-03-13 2019-07-16 北京工业大学 一种基于多尺度卷积神经网络的人群密度估计方法
CN109948593A (zh) * 2019-04-04 2019-06-28 浙江工业大学 基于结合全局密度特征的mcnn人群计数方法
CN110276264A (zh) * 2019-05-27 2019-09-24 东南大学 一种基于前景分割图的人群密度估计方法
CN110210603A (zh) * 2019-06-10 2019-09-06 长沙理工大学 人群的计数模型构建方法、计数方法和装置
CN110263849A (zh) * 2019-06-19 2019-09-20 合肥工业大学 一种基于多尺度注意力机制的人群密度估计方法
CN110674704A (zh) * 2019-09-05 2020-01-10 同济大学 一种基于多尺度扩张卷积网络的人群密度估计方法及装置
CN110782420A (zh) * 2019-09-19 2020-02-11 杭州电子科技大学 一种基于深度学习的小目标特征表示增强方法
CN110853025A (zh) * 2019-11-15 2020-02-28 苏州大学 基于多列残差空洞卷积神经网络的人群密度预测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
MING JIANG ET AL.: "An Approach for Crowd Density and Crowd Size Estimation", 《JOURNAL OF SOFTWARE》 *
YOUMEI ZHANG ET AL.: "Multi-resolution attention convolutional neural network for crowd counting", 《NEUROCOMPUTING》 *
曹金梦 等: "基于多尺度多任务卷积神经网络的人群计数", 《计算机应用》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112541891A (zh) * 2020-12-08 2021-03-23 山东师范大学 一种基于空洞卷积高分辨率网络的人群计数方法及系统
CN112801063A (zh) * 2021-04-12 2021-05-14 广东众聚人工智能科技有限公司 神经网络系统和基于神经网络系统的图像人群计数方法
CN113536925A (zh) * 2021-06-15 2021-10-22 杭州电子科技大学 一种基于引导注意力机制的人群计数方法
CN113536925B (zh) * 2021-06-15 2024-02-02 杭州电子科技大学 一种基于引导注意力机制的人群计数方法
CN113239904A (zh) * 2021-07-09 2021-08-10 南京理工大学 基于卷积神经网络的高分辨率密集目标计数方法
CN113239904B (zh) * 2021-07-09 2021-09-28 南京理工大学 基于卷积神经网络的高分辨率密集目标计数方法
CN113743422A (zh) * 2021-09-07 2021-12-03 西安建筑科技大学 多特征信息融合的人群密度估计方法、设备及存储介质
CN113743422B (zh) * 2021-09-07 2024-05-03 西安建筑科技大学 多特征信息融合的人群密度估计方法、设备及存储介质
CN115294359A (zh) * 2022-08-17 2022-11-04 杭州电子科技大学 一种基于深度学习的高分辨率图像显著性目标检测方法
CN115294359B (zh) * 2022-08-17 2023-10-10 杭州电子科技大学 一种基于深度学习的高分辨率图像显著性目标检测方法

Also Published As

Publication number Publication date
CN111507183B (zh) 2021-02-02

Similar Documents

Publication Publication Date Title
CN111507183B (zh) 一种基于多尺度密度图融合空洞卷积的人群计数方法
CN110210551B (zh) 一种基于自适应主体敏感的视觉目标跟踪方法
Wan et al. Automated colorization of a grayscale image with seed points propagation
CN109815919B (zh) 一种人群计数方法、网络、系统和电子设备
CN111488921B (zh) 一种全景数字病理图像智能分析系统及方法
CN110059586B (zh) 一种基于空洞残差注意力结构的虹膜定位分割系统
CN111126202A (zh) 基于空洞特征金字塔网络的光学遥感图像目标检测方法
CN112861690B (zh) 多方法融合的遥感影像变化检测方法及系统
CN102651135B (zh) 一种基于优化方向采样的自然图像抠图方法
CN110189294B (zh) 基于深度可信度分析的rgb-d图像显著性检测方法
CN109784283A (zh) 基于场景识别任务下的遥感图像目标提取方法
CN111612008A (zh) 基于卷积网络的图像分割方法
CN112150493A (zh) 一种基于语义指导的自然场景下屏幕区域检测方法
WO2019071976A1 (zh) 基于区域增长和眼动模型的全景图像显著性检测方法
CN112991278B (zh) RGB空域特征与LoG时域特征结合的Deepfake视频检测方法及系统
CN111723693A (zh) 一种基于小样本学习的人群计数方法
CN114511576B (zh) 尺度自适应特征增强深度神经网络的图像分割方法与系统
CN112819096B (zh) 一种基于复合卷积神经网络的化石图像分类模型的构建方法
CN109299305A (zh) 一种基于多特征融合的空间图像检索系统及检索方法
Liu et al. Image decolorization combining local features and exposure features
Hu et al. A multi-stage underwater image aesthetic enhancement algorithm based on a generative adversarial network
CN114219824A (zh) 基于深度网络的可见光-红外目标跟踪方法及系统
Luo et al. Bi-GANs-ST for perceptual image super-resolution
Wang et al. Single image haze removal via attention-based transmission estimation and classification fusion network
CN114049503A (zh) 一种基于非端到端深度学习网络的显著性区域检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20210508

Address after: Room 405, 6-8 Jiaogong Road, Xihu District, Hangzhou City, Zhejiang Province, 310013

Patentee after: Hangzhou Taoyi Data Technology Co.,Ltd.

Address before: 310018 No. 2 street, Xiasha Higher Education Zone, Hangzhou, Zhejiang

Patentee before: HANGZHOU DIANZI University