CN111563447B - 一种基于密度图的人群密度分析与检测定位方法 - Google Patents
一种基于密度图的人群密度分析与检测定位方法 Download PDFInfo
- Publication number
- CN111563447B CN111563447B CN202010363512.XA CN202010363512A CN111563447B CN 111563447 B CN111563447 B CN 111563447B CN 202010363512 A CN202010363512 A CN 202010363512A CN 111563447 B CN111563447 B CN 111563447B
- Authority
- CN
- China
- Prior art keywords
- crowd
- image
- density
- detection
- crowd density
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于密度图的人群密度分析与检测定位方法,将用于训练的数据集中的人群图像进行预处理,利用高斯滤波器转化为二维的人群密度图像,其次设计一种深度分离空洞卷积网络模型学习输入图像与人群密度图像之间的特征映射函数,实现端到端的预测模型,并对预测密度图像素值积分求和实现人群计数,最后将预测得到的人群密度图输入至RetinaNet目标检测网络实现人头检测与定位。本发明实现在人群高度密集场景下人头与非人头的分类,能够解决高度密集场景下的人群密度分析无法提供具体定位以及人群检测中的漏检问题。
Description
技术领域
本发明涉及一种基于密度图分类的人群检测与定位方法,主要设计一种深度分离空洞卷积神经网络模型生成高质量的人群密度图并将人群密度图输入目标检测网络更好的实现目标分类,实现人群密度分析以及人头检测定位,属于图像处理、目标检测和人工智能的交叉应用领域。
背景技术
人群密度分析以及人头检测定位的目的是通过人群密度图获取人的空间分布信息并检测出人物的具体定位信息,已成为计算机视觉领域的一个热点问题,在人群行为分析、公共场所监控等方面有着广泛的应用。人群密度分析方法主要有三种:基于检测的方法、基于回归的方法、基于深度学习的方法。
1.基于检测的方法:该方法主要分为基于整体检测和基于人物局部的检测。传统方法利用SVM检测器,boosting算法和随机森林矩阵等方法训练一个分类器,提取行人全身的小波、HOG、边缘、纹理等特征去检测行人。整体检测的方法主要适用于稀疏的人群计数,随着人群密度的提升,人与人之间的遮挡变得越来越严重,局部检测的方法主要通过检测身体的部分结构,例如头,肩膀等去统计人群的数量,这种方法比之基于整体的检测,在效果上略有提升。
2.基于回归的方法:主要是学习一种特征到人群数量的映射。该方法首先提取低级的特征,例如前景特征,边缘特征,纹理和梯度特征;其次学习一个回归模型,例如线性回归,分段线性回归,岭回归和高斯过程回归或神经网络等方法学习一个低级特征到人群数量的映射关系。该方法大多数需要进行前景分割,生成静止的背景模型,对于光照变化十分敏感,当场景转换时每次都需要重新训练模型,时间和计算代价高。
3.基于深度学习的方法:该方法通常通过卷积神经网络提取行人特征并通过估计人群密度概率图进行人群计数。人群密度概率图可提供人群在图像中的分布信息,卷积神经网络可以生产一个端到端的人群密度估计模型。
发明内容
发明目的:本发明的目的是生成高质量的人群密度图输入至目标检测网络以提高检测精度,提出了一种基于密度图的人群密度分析与检测定位方法。该方法将人群密度图像与目标检测网络相结合,解决了单纯的人群计数无法提供人群分布的空间信息,人物的具体位置信息以及目标检测网络对人群图像直接检测时对小尺寸头部造成的漏检问题。本发明可以生成高质量的人群密度图提供人群分布的空间信息,并有效解决小尺寸头部的漏检问题,检测精确度高,具有良好的鲁棒性。
技术方案:为实现上述目的,本发明采用的技术方案为:
一种基于密度图的人群密度分析与检测定位方法,包括以下步骤:
步骤1),获取人群图像S(S1,S2,......,Si,......,Sn),用户输入人群图像,将人群图像Si中的头部进行标注组成稀疏矩阵,通过几何自适应高斯核函数将该稀疏矩阵转化为二维的地面真实人群密度图PGT(PGT 1,PGT 2,......,PGT i,......PGT n),将密度图PGT i中所有的像素值积分求和得到人群图像中的真实人数,具体步骤如下:
步骤1.1),针对人群高度密集的输入图像Si,在图像Si的像素xi处有一个人头,通过delta函数表示为δ(x-xi),用H(x)表述一张人群图像中的N个被标记的人头的稀疏矩阵:
步骤1.2),一个人体头部的周围区域中人群分布的密度均匀,通过最近邻居法,估计人群分布的集合形变,具体计算方法如下:
其中,PGT(x)为生成的二维地面真实情况密度图,xi为人头在图像中的像素位置,δ(x-xi)为人群图像中人体头部位置的冲击函数,N为图像中的人头总数,为距离xi人头最近的m个人头与该人头的平均距离,在拥挤场景中人体头部的大小与两个邻居的人头中心之间的距离有关,的值在人群密度较小的情况下近似等于人头的大小;
步骤1.3),将地面真实的人群密度图的所有像素值积分求和,求出输入图像中所包含的真实人数,
步骤2),通过深度分离空洞卷积网络模型学习输入图像与人群密度图像之间的特征映射函数,即S(x)→PGT(x)之间的映射关系,并设计网络输出预测图像与地面真实人群密度图像之间的损失函数,实现端到端的预测模型,具体步骤如下:
步骤2.1):构建深度分离空洞卷积网络模型,该模型前端为去除了全连接层并且已预训练的VGG-16模型,包括10层卷积层与3层池化层,后端为一层分离层以及两组空洞率为r=1,r=2,r=3的空洞卷积层,卷积层的卷积核大小为k*k,通过空洞卷积扩大感受野:
RFn=RFn-1+(Ksizen-1)*stride
其中,RFn为当前层感受野的大小,RFn-1为上一层感受野的大小,Ksizen为当前层卷积核的大小,stride为前面所有层步长的乘积;
步骤2.2),输入人群图像Si(w,h,3)至深度分离空洞卷积神经网络模型,其中w为图像Si的宽度,h为图像Si的高度,3为图像的RGB三维通道,训练深度分离空洞卷积神经网络模型学习输入图像与人群密度图像之间的特征映射函数,在训练期间,随机梯度下降的固定学习率为LR;
步骤2.4),采用欧式距离来测量预测的人群密度图与地面真实值之间的距离,即预测的各点与真实的各点的均方差,损失函数的计算方法如下:
其中,B表示训练批次的大小,P(Si;Θ)表示深度分离空洞卷积神经网络模型预测输出的人群密度图,参数显示为Θ,Si表示输入的人群图像,PGT i表示输入图像的地面真实密度图;
步骤2.5),将预测的得到的人群密度的所有像素值积分求和并结合损失函数得到预计的人数总和,实现人群密度分析和人群计数;
步骤3):将步骤2)预测得到的人群密度图输入至基于特征金字塔模型实现的RetinaNet目标检测网络,使用人群密度图协助目标检测网络实现人头与非人头的分类,同时使用最近邻居策略估计头部边界框以初始化锚点信息,训练目标检测网络,实现人体头部检测与定位。
优选的:所述步骤1.2)中高斯核参数β取0.3。
优选的:所述步骤2.1)中卷积核大小k*k取3*3。
优选的:所述步骤2.2)中随机梯度下降的固定学习率LR取1e-6。
本发明相比现有技术,具有以下有益效果:
1.本发明通过设计深层次的端到端的深度分离空洞卷积模型有效的避免了多列架构卷积神经网络的复杂性与冗余性,通过深度单列架构提高了检测的精度与检测速率,具有良好的实时性和鲁棒性,能提供高质量的人群密度图像,并得到高精度的人群计数结果。
2.本发明设计深度分离空洞卷积神经网络通过设置空洞率可以在不增加参数的情况下扩大感受野,获取多尺度的信息,有效改善了过多使用池化层带来的精度损失,同时增加分离层以及设置呈锯齿状的空洞率可有效避免单纯的空洞卷积造成的局部信息丢失以及远距离信息没有相关性的问题。
3.本发明将人群密度图像输RetinaNet目标检测网络,帮助目标检测网络有效的区分人头与非人头,有效的提高了人头的检测准确率,避免了较小尺寸头部的漏检问题,同时可提供人头的具体定位信息。
附图说明
图1是基于密度图的人群密度分析与检测定位流程图
图2是深度分离空洞卷积神经网络模型图
具体实施方式
下面结合附图和具体实施例,进一步阐明本发明,应理解这些实例仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请所附权利要求所限定的范围。
一种基于密度图的人群密度分析与检测定位方法,如图1、2所示,以人群密度检测、人头检测与定位、人群计数为目标,首先将用于训练的数据集中的人群图像进行预处理,利用高斯滤波器转化为二维的人群密度图像,其次设计一种深度分离空洞卷积网络模型学习输入图像与人群密度图像之间的特征映射函数,实现端到端的预测模型,并对预测密度图像素值积分求和实现人群计数,最后将预测得到的人群密度图输入至RetinaNet目标检测网络实现人头检测与定位,提高检测精度,具体包括以下步骤:
1):用户输入任意大小的人群图像S(S1,S2,......,Si,......,Sn),将人群图像Si中的头部进行标注组成稀疏矩阵,生成一张和原图一样大小的单通道图片,其中像素值全部取0,有人头的地方通像素值取1,通过几何自适应高斯核函数将该稀疏矩阵转化为二维的人群密度图PGT(PGT 1,PGT 2,......,PGT i,......PGT n),将密度图PGT i中所有的像素值积分求和得到人群图像中的真实人数;具体步骤如下:
1.1):针对人群高度密集的输入图像Si,在图像Si的像素xi处有一个人头,通过delta函数表示为δ(x-xi),一张人群图像中的N个被标记的人头的稀疏矩阵可以被表述为H(x),具体计算方法如下:
1.2):一个人体头部的周围区域中人群分布的密度均匀,通过最近邻居法,估计人群分布的集合形变,具体计算方法如下:
其中PGT(x)为生成的二维地面真实情况密度图,xi为人头在图像中的像素位置,δ(x-xi)为人群图像中人体头部位置的冲击函数,N为图像中的人头总数,为距离xi人头最近的m个人头与该人头的平均距离,在拥挤场景中人体头部的大小与两个邻居的人头中心之间的距离有关,的值在人群密度较小的情况下近似等于人头的大小,为了更好的表征人头大小的特征,β取0.3;
1.3):将地面真实的人群密度图的所有像素值通过积分的方式求和,求出输入图像中所包含的真实人数,假如输入的人群图像中只有1个人头,通过高斯滤波以高斯分布的方式这个凸点就会压在该输入图像上,图像上的所有的点都被填充了值,图像上点的值形成空间上的高斯分布,这些值的总和为1,同理,有两个人头时,就通过第二次高斯分布转换,叠加在前一个高斯分布上,这样所有的像素点的求和为2,即有几个人,像素点的值求和就是几;
2):通过深度分离空洞卷积网络模型学习输入图像与人群密度图像之间的特征映射函数,即S(x)→PGT(x)之间的映射关系,并设计网络输出预测图像与地面真实人群密度图像之间的损失函数,实现端到端的预测模型,具体步骤如下:
2.1):构建深度分离空洞卷积网络模型,该模型前端为去除了全连接层并且已预训练好的VGG-16模型,包括10层卷积层与3层池化层,后端为一层分离层以及两组空洞率为r=1,r=2,r=3的空洞卷积层,卷积层的卷积核大小为3*3,通过空洞卷积在不增加参数的情况下扩大感受野,避免了过多使用池化层造成的精度丢失,可以提取多尺度的特征,通过添加分离层避免了空洞卷积之间的局部信息丢失以及远距离信息之间缺乏相关性的问题,感受野大小的具体计算方式如下:
RFn=RFn-1+(Ksizen-1)*stride
其中RFn为当前层感受野的大小,RFn-1为上一层感受野的大小,Ksizen为当前层卷积核的大小,stride为前面所有层步长的乘积,相比之下,卷积核大小为3*3,步长为1的普通卷积,三层后的感受野仅为7*7,而空洞率为2的空洞卷积3层之后的感受野大小为15*15;
2.2):输入人群图像Si(w,h,3)至深度分离空洞卷积神经网络模型,其中w为图像Si的宽度,h为图像Si的高度,3为图像的RGB三维通道,训练深度分离空洞卷积神经网络模型学习输入图像与人群密度图像之间的特征映射函数,在训练期间,随机梯度下降的固定学习率为1e-6;
2.3):由于经过3次池化操作,深度分离空洞卷神经网络模型输出的预测图像的大小为原图的1/8,选择倍率为8的双线性插值,使得输出的预测图像与输入的人群图像之间共享相同的分辨率;
2.4):采用欧式距离来测量预测的人群密度图与地面真实值之间的距离,即预测的各点与真实的各点的均方差,损失函数的计算方法如下:
其中B表示训练批次的大小,P(Si;Θ)表示深度分离空洞卷积神经网络模型预测输出的人群密度图,参数显示为Θ,Si表示输入的人群图像,PGT i表示输入图像的地面真实密度图;
2.5):将预测的得到的人群密度的所有像素值积分求和并结合损失函数得到预计的人数总和,实现人群密度分析和人群计数;
3):将预测得到的人群密度图输入至基于特征金字塔模型实现的RetinaNet目标检测网络,RetinaNet是FPN网络与FCN网络的组合应用,该网络提出了Focal loss,即一种改进了的交叉熵(cross-entropy,CE)损失,它通过在原有的交叉熵损失上乘上使易检测目标对模型训练贡献削弱的指数式,从而使得Focal loss成功地解决了在目标检测时,正负样本区域极不平衡而目标检测损失易被大批量负样本所左右的问题,使用人群密度图协助目标检测网络通过解码实现人头与非人头的分类,同时使用最近邻居策略估计头部边界框以初始化锚点信息,训练目标检测网络,实现人体头部检测与定位。
本发明通过设计端到端的深度分离空洞卷积网络模型预测人群密度图,并将人群密度图输入至目标检测网络,帮助检测网络实现在人群高度密集场景下人头与非人头的分类,能够解决高度密集场景下的人群密度分析无法提供具体定位以及人群检测中的漏检问题。
以上所述仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (5)
1.一种基于密度图的人群密度分析与检测定位方法,其特征在于,包括以下步骤:
步骤1),获取人群图像S(S1,S2,…,Su,…,SU),将人群图像Su中的头部进行标注组成稀疏矩阵,通过几何自适应高斯核函数将该稀疏矩阵转化为二维的地面真实人群密度图将密度图中所有的像素值积分求和得到人群图像中的真实人数,具体步骤如下:
步骤1.1),针对人群高度密集的输入人群图像Su,在人群图像Su的像素xi处有一个人头,通过delta函数表示为δ(x-xi),用H(x)表述一张人群图像中的N个被标记的人头的稀疏矩阵:
步骤1.2),一个人体头部的周围区域中人群分布的密度均匀,通过最近邻居法,估计人群分布的集合形变,具体计算方法如下:
其中,PGT(x)为生成的二维地面真实情况密度图,xi为人头在图像中的像素位置,N为图像中的人头总数,为距离xi人头最近的m个人头与该人头的平均距离,在拥挤场景中人体头部的大小与两个邻居的人头中心之间的距离有关,的值在人群密度较小的情况下近似等于人头的大小;
步骤1.3),将地面真实的人群密度图的所有像素值积分求和,求出输入图像中所包含的真实人数,
步骤2),通过深度分离空洞卷积网络模型学习输入图像与人群密度图像之间的特征映射函数,即S(x)→PGT(x)之间的映射关系,并设计网络输出预测图像与地面真实人群密度图像之间的损失函数,实现端到端的预测模型,具体步骤如下:
步骤2.1):构建深度分离空洞卷积网络模型,该模型前端为去除了全连接层并且已预训练的VGG-16模型,包括10层卷积层与3层池化层,后端为一层空洞率为r=1的分离层以及两组空洞率为r=2、r=3的空洞卷积层,卷积层的卷积核大小为k*k,通过空洞卷积扩大感受野:
RFn=RFn-1+(Ksizen-1)*stride
其中,RFn为当前层感受野的大小,RFn-1为上一层感受野的大小,Ksizen为当前层卷积核的大小,stride为前面所有层步长的乘积;
步骤2.2),输入人群图像Su(w,h,3)至深度分离空洞卷积神经网络模型,其中,w为人群图像Su的宽度,h为人群图像Su的高度,3为图像的RGB三维通道,训练深度分离空洞卷积神经网络模型学习输入图像与人群密度图像之间的特征映射函数,在训练期间,随机梯度下降的固定学习率为LR;
步骤2.4),采用欧式距离来测量预测的人群密度图与地面真实值之间的距离,即预测的各点与真实的各点的均方差,损失函数的计算方法如下:
步骤2.5),将预测的得到的人群密度的所有像素值积分求和并结合损失函数得到预计的人数总和,实现人群密度分析和人群计数;
步骤3):将步骤2)预测得到的人群密度图输入至基于特征金字塔模型实现的RetinaNet目标检测网络,使用人群密度图协助目标检测网络实现人头与非人头的分类,同时使用最近邻居策略估计头部边界框以初始化锚点信息,训练目标检测网络,实现人体头部检测与定位。
2.根据权利要求1所述基于密度图的人群密度分析与检测定位方法,其特征在于:所述步骤1.2)中高斯核参数β取0.3。
3.根据权利要求1所述基于密度图的人群密度分析与检测定位方法,其特征在于:所述步骤2.1)中卷积核大小k*k取3*3。
4.根据权利要求1所述基于密度图的人群密度分析与检测定位方法,其特征在于:所述步骤2.2)中随机梯度下降的固定学习率LR取1e-6。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010363512.XA CN111563447B (zh) | 2020-04-30 | 2020-04-30 | 一种基于密度图的人群密度分析与检测定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010363512.XA CN111563447B (zh) | 2020-04-30 | 2020-04-30 | 一种基于密度图的人群密度分析与检测定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111563447A CN111563447A (zh) | 2020-08-21 |
CN111563447B true CN111563447B (zh) | 2022-07-22 |
Family
ID=72073284
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010363512.XA Active CN111563447B (zh) | 2020-04-30 | 2020-04-30 | 一种基于密度图的人群密度分析与检测定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111563447B (zh) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111950519A (zh) * | 2020-08-27 | 2020-11-17 | 重庆科技学院 | 基于检测与密度估计的双列卷积神经网络人群计数方法 |
CN112016518B (zh) * | 2020-09-14 | 2023-07-04 | 郑州航空工业管理学院 | 基于无人机和人工智能的人群分布形式检测方法 |
CN112215129A (zh) * | 2020-10-10 | 2021-01-12 | 江南大学 | 一种基于排序损失和双分支网络的人群计数方法及系统 |
CN112364788B (zh) * | 2020-11-13 | 2021-08-03 | 润联软件系统(深圳)有限公司 | 基于深度学习的监控视频人群数量监测方法及其相关组件 |
CN112396587B (zh) * | 2020-11-20 | 2024-01-30 | 重庆大学 | 一种基于协同训练和密度图的公交车厢内拥挤度检测方法 |
CN112633106A (zh) * | 2020-12-16 | 2021-04-09 | 苏州玖合智能科技有限公司 | 适于大景深的人群特征识别网络构建及训练方法 |
CN112783941A (zh) * | 2021-01-07 | 2021-05-11 | 合肥工业大学 | 一种大规模群体聚集事件的实时检测方法 |
CN113033342A (zh) * | 2021-03-10 | 2021-06-25 | 西北工业大学 | 基于密度估计的拥挤场景行人目标检测与计数方法 |
CN113239743A (zh) * | 2021-04-23 | 2021-08-10 | 普联国际有限公司 | 一种人群密度检测方法、装置、设备及存储介质 |
CN113536996B (zh) * | 2021-06-30 | 2022-04-15 | 大连海事大学 | 一种基于大量真实人群运动视频的人群运动仿真方法 |
CN114494999B (zh) * | 2022-01-18 | 2022-11-15 | 西南交通大学 | 一种双分支联合型目标密集预测方法及系统 |
CN115293465B (zh) * | 2022-10-09 | 2023-02-14 | 枫树谷(成都)科技有限责任公司 | 一种人群密度预测方法及系统 |
CN116758488B (zh) * | 2023-08-16 | 2023-11-10 | 启迪数字科技(深圳)有限公司 | 场馆人群定位方法、装置、设备及介质 |
CN117789140A (zh) * | 2024-02-23 | 2024-03-29 | 潍坊先进光电芯片研究院 | 基于端到端网络的车流识别与计数方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108615027A (zh) * | 2018-05-11 | 2018-10-02 | 常州大学 | 一种基于长短期记忆-加权神经网络对视频人群计数的方法 |
CN108717528A (zh) * | 2018-05-15 | 2018-10-30 | 苏州平江历史街区保护整治有限责任公司 | 一种基于深度网络的多策略全局人群分析方法 |
CN109726658A (zh) * | 2018-12-21 | 2019-05-07 | 上海科技大学 | 人群计数及定位方法、系统、电子终端及存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109241895B (zh) * | 2018-08-28 | 2021-06-04 | 北京航空航天大学 | 密集人群计数方法及装置 |
-
2020
- 2020-04-30 CN CN202010363512.XA patent/CN111563447B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108615027A (zh) * | 2018-05-11 | 2018-10-02 | 常州大学 | 一种基于长短期记忆-加权神经网络对视频人群计数的方法 |
CN108717528A (zh) * | 2018-05-15 | 2018-10-30 | 苏州平江历史街区保护整治有限责任公司 | 一种基于深度网络的多策略全局人群分析方法 |
CN109726658A (zh) * | 2018-12-21 | 2019-05-07 | 上海科技大学 | 人群计数及定位方法、系统、电子终端及存储介质 |
Non-Patent Citations (1)
Title |
---|
医院监控场景下的人群密度估计方法;禹明娟 等;《电子科技》;20160315;第75-78、82页 * |
Also Published As
Publication number | Publication date |
---|---|
CN111563447A (zh) | 2020-08-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111563447B (zh) | 一种基于密度图的人群密度分析与检测定位方法 | |
CN108615027B (zh) | 一种基于长短期记忆-加权神经网络对视频人群计数的方法 | |
CN111242036B (zh) | 一种基于编码-解码结构多尺度卷积神经网络的人群计数方法 | |
CN109271960B (zh) | 一种基于卷积神经网络的人数统计方法 | |
CN111611878B (zh) | 一种基于视频图像的人群计数和未来人流量预测的方法 | |
Basalamah et al. | Scale driven convolutional neural network model for people counting and localization in crowd scenes | |
CN112488210A (zh) | 一种基于图卷积神经网络的三维点云自动分类方法 | |
CN111310666B (zh) | 一种基于纹理特征的高分辨率影像地物识别与分割方法 | |
CN111815665B (zh) | 基于深度信息与尺度感知信息的单张图像人群计数方法 | |
CN109635726B (zh) | 一种基于对称式深度网络结合多尺度池化的滑坡识别方法 | |
CN106157330B (zh) | 一种基于目标联合外观模型的视觉跟踪方法 | |
CN116309781B (zh) | 一种基于跨模态融合的水下视觉目标测距方法及装置 | |
CN110705340B (zh) | 一种基于注意力神经网络场的人群计数方法 | |
CN113139489A (zh) | 基于背景提取和多尺度融合网络的人群计数方法及系统 | |
CN113239904B (zh) | 基于卷积神经网络的高分辨率密集目标计数方法 | |
CN115049945B (zh) | 一种基于无人机图像的小麦倒伏面积提取方法和装置 | |
CN114299383A (zh) | 基于密度图与注意力机制融合的遥感图像目标检测方法 | |
Ma et al. | Scene invariant crowd counting using multi‐scales head detection in video surveillance | |
CN114419732A (zh) | 基于注意力机制优化的HRNet人体姿态识别方法 | |
CN116883588A (zh) | 一种大场景下的三维点云快速稠密重建方法及系统 | |
CN111401209B (zh) | 一种基于深度学习的动作识别方法 | |
Zou et al. | Fish tracking based on feature fusion and scale adaptation in a real-world underwater environment | |
CN110910497A (zh) | 实现增强现实地图的方法和系统 | |
CN114612456B (zh) | 一种基于深度学习的钢坯自动语义分割识别方法 | |
CN115953736A (zh) | 一种基于视频监控与深度神经网络的人群密度估计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |