CN111008613A - 基于场的高密度人流量定位与监测方法 - Google Patents

基于场的高密度人流量定位与监测方法 Download PDF

Info

Publication number
CN111008613A
CN111008613A CN201911346724.0A CN201911346724A CN111008613A CN 111008613 A CN111008613 A CN 111008613A CN 201911346724 A CN201911346724 A CN 201911346724A CN 111008613 A CN111008613 A CN 111008613A
Authority
CN
China
Prior art keywords
data
component
field
image
channel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911346724.0A
Other languages
English (en)
Other versions
CN111008613B (zh
Inventor
贺垚凯
李坤彬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Heilongjiang Wenlv Information Technology Co ltd
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201911346724.0A priority Critical patent/CN111008613B/zh
Publication of CN111008613A publication Critical patent/CN111008613A/zh
Application granted granted Critical
Publication of CN111008613B publication Critical patent/CN111008613B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明公开了一种基于场的高密度人流量定位与监测方法。包括:根据获取的原始彩色人流量图像生成七通道图像数据;根据常用的人流量监测数据集生成场数据,作为标注数据;根据场数据设计损失函数;将原始彩色人流量图像与标注数据作为样本数据集,基于损失函数对深度神经网络进行训练;将待检测原始彩色人流量图像的七通道数据输入训练好的深度神经网络,根据网络输出场数据进行热力图重建,对热力图中亮斑进行计数和定位,实现高密度人流量定位与监测。利用本发明,可以在高密度人流量监测场景中,实现实时人流量监测,降低计算量,提高监测效率和监测精度。

Description

基于场的高密度人流量定位与监测方法
技术领域
本发明涉及智慧城市、人工智能、仪器仪表技术领域,具体涉及一种基于场的高密度人流量定位与监测方法。
背景技术
目前,用于检测人流量及人群密度的图像处理系统主要分为两大类。一种是基于检测的统计,主要通过基于深度神经网络的物体检测器得到人物的边界框,并通过边界框的个数来推定人群密度和短时间内的流量变化。基于边界框的方法主要有以下限制:难以检测遮挡的物体,对完全遮挡的物体只能通过跟踪和重识别的方法修正,提高了系统的实时性要求和整体复杂度;随之带来的问题是计算量偏大,只有输入分辨率足够大的图像才能得到足以区分人物的分辨率,存在分辨率瓶颈导致无法得到更小目标的检测结果,进而导致无法平衡计算量和性能;检测精度较低。
另一种是基于热力图的网络来进行人群计数和定位。基于热力图方式的网络同样存在低分辨率容易导致性能劣化的问题,并且存在小目标难以训练的问题。一般情况下基于热力图的网络输出是需要使用概率云的后处理方法进行位置回归的,由于概率云的范围较大,为了避免发生混叠,需要提高网络分辨率并适当缩小训练时的概率云分布,这样又造成了计算量与分辨率的矛盾,又因为网络训练的损失函数是基于均方误差的,所以对于小目标难以训练。
因此,现有人流量定位与监测技术存在计算量大、监测精度低的问题。
发明内容
本发明提供了一种基于场的高密度人流量定位与监测方法,该方法实现了高密度人流量定位与监测,降低了计算量,监测精度更高。
一种基于场的高密度人流量定位与监测方法,该方法包括:
步骤一,根据获取的原始彩色人流量图像生成七通道图像数据T{R,G,B,D,H,M,N},其中,R、G、B为原始彩色图像RGB数据的对应通道分量,D通道为暗通道数据,H通道为亮通道数据,M通道为高光细节,N通道为阴影细节;
步骤二,根据常用的人流量监测数据集生成场数据F{X,Y,C,R},作为标注数据,其中,X分量表示横坐标方向上向真值点聚拢的强度,Y分量表示纵坐标方向上向真值点聚拢的强度,C分量表示标注位置的置信度,R分量表示标注半径;
步骤三,根据场数据设计损失函数Loss=MSEXY*H(C)+MSER,其中,MSEXY为场数据分量X、Y的联合均方误差损失,H(C)为分量C的交叉熵损失,MSER为分量R的均方误差损失;
步骤四,将原始彩色人流量图像与标注数据作为样本数据集,基于损失函数Loss对深度神经网络进行训练;
步骤五,将待检测原始彩色人流量图像的七通道数据输入训练好的深度神经网络,根据网络输出场数据进行热力图重建,对热力图中亮斑进行计数和定位,实现高密度人流量定位与监测。
步骤一中的暗通道数据为:
D(i,j)=min(R(i,j),G(i,j),B(i,j))
其中,D(i,j)是像素位置(i,j)处暗通道数据D的像素值;
所述亮通道数据为:
H(i,j)=max(R(i,j),G(i,j),B(i,j))
其中,H(i,j)是像素位置(i,j)处亮通道数据H的像素值;
所述高光细节为:
Figure BDA0002333575820000021
其中,M(i,j)是像素位置(i,j)处高光细节M的像素值;
所述阴影细节为:
Figure BDA0002333575820000022
其中,N(i,j)是像素位置(i,j)处阴影细节N的像素值。
步骤二中的场数据具体为:
设真值中心点位置为(x’,y’),当前像素位置的坐标为(x,y),distance为当前像素位置与真值点位置之间的距离,
Figure BDA0002333575820000023
dx=abs(x-x),dy=abs(y-y)为当前像素坐标位置与真值点坐标位置之间的x轴、y轴距离;
对X分量有:
Figure BDA0002333575820000024
对Y分量有同上的定义:
Figure BDA0002333575820000025
对C分量有:
Figure BDA0002333575820000026
对R分量有:
Figure BDA0002333575820000027
其中,r0为预设的标注半径。
步骤三包括:
根据场数据设计损失函数Loss=MSEXY*H(C)+MSER
场数据分量X、Y的联合均方误差损失MSEXY
Figure BDA0002333575820000031
分量R的均方误差MSER
Figure BDA0002333575820000032
分量C的交叉熵损失H(C):
Figure BDA0002333575820000033
其中,Output(i,j)x、Output(i,j)y、Output(i,j)r、Cout(i,j)分别为输出数据位置(i,j)处场数据中X分量值、Y分量值、R分量值、C分量值,GT(i,j)x、GT(i,j)y、GT(i,j)r、CLabel(i,j)为标注数据位置(i,j)处场数据中X分量值、Y分量值、R分量值、C分量值,rows为输出图像的行数,cols为输出图像的列数,all指代所有像素位置,α为一超参数。
步骤五中的根据网络输出场数据进行热力图重建包括:
对场数据的各分量进行上采样处理,根据上采样结果进行热力图重建,得到热力图Heat:
Heat=(BoxFilter(Xup)+BoxFilter(Yup))*BoxFilter(Rup)*Cup
其中,BoxFilter是均值滤波器,Xup、Yup、Rup、Cup分别表示经过金字上采样的X分量、Y分量、R分量、C分量。
步骤五中的对热力图中亮斑进行计数和定位包括:
采用非极大值抑制对热力图Heat中的亮斑进行计数和定位。
步骤五中的对热力图中亮斑进行计数和定位包括:
对热力图Heat进行二值化处理;
对二值化处理得到的连通域进行包围框检测得到感兴趣区域ROI,采用下式抑制能量过强的亮斑:
Figure BDA0002333575820000034
其中,Hc(ROIn(i,j))表示感兴趣区域ROIn位置(i,j)处经过能量抑制的像素值;Heat(ROIn(i,j))为热力图Heat感兴趣区域ROIn位置(i,j)处的像素值;
基于分水岭算法,对能量抑制结果进行图像分割,并对图像分割结果进行连通域计数,得到人流量估计结果;
对每个连通域使用softargmax进行位置回归,得到人的精确位置,实现人流量定位。
本发明的有益效果在于:
本发明使用场来替代热图的概率云,可以降低若干倍的网络输入分辨率来减少计算量;在高分辨率情况下具有更优的精确度,而降低分辨率后的计算量可以减少内存占用,使得网络可以部署在相机端,更具实用性和灵活性;对网络输出结果使用非线性图像处理,降低了后处理计算量。
附图说明
图1为基于场的高密度人流量定位与监测方法流程图;
图2为原始彩色人流量图像示意图;
图3(a)为标注场数据X、Y分量求和的可视化图像示意图;
图3(b)为标注场数据C分量的可视化图像示意图;
图3(c)为网络输出重建热力图像示意图;
图3(d)为网络输出C分量的可视化图像;
图4为能量抑制后的热力图像。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图以及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明提供一种基于场的高密度人流量定位与监测方法。用于处理低分辨率图像中高密度人流量监测,能够得到人的位置及个数。本发明显著降低了计算量并可以直接处理低分辨率输入图像,降低了图像采集设备的硬件要求。在传统语义分割和关键点检测的原理中加入场的概念,提高了网络的分辨率,从各个方面降低了硬件系统的要求,不仅能够运行在云端,也可以运行在相机端。图1为基于场的高密度人流量定位与监测方法流程图。
下面通过具体实施例来进行说明。
实施例一:
基于场的高密度人流量定位与监测方法,该方法包括:
步骤一,根据获取的原始彩色人流量图像生成七通道图像数据T{R,G,B,D,H,M,N},其中,R、G、B为原始彩色图像RGB数据的对应通道分量,D通道为暗通道数据,H通道为亮通道数据,M通道为高光细节,N通道为阴影细节。
本发明使用面阵相机,具体采用一般的监控相机即可。面阵相机的典型分辨率为1920*1080,对于普通的网络而言,输入尽量高分辨率的图像可以提高密集人群的计数准确度。但是,高分辨率会导致计算量猛增,动辄数十GB的内存占用使计算无法在相机端完成。本发明采用低至少四倍的分辨率,减少计算量。以640*384的等效分辨率为例,考虑到网络内中间数据的计算量减少,以MobileNetV2为例,最终使用到的内存占用大致在1GB左右。
需要提前说明的是,本发明中对深度神经网络结构不做具体限定。众所周知,神经网络的前端部分为特征提取部分,有不同的等效实施方法,故本发明着重保护后部分的场特征及其后处理方法。
为了提取彩色图像的非线性特征,需要对原始彩色人流量图像做以下操作生成七通道输入图像T{R,G,B,H,D,M,N},其中,R、G、B分别为原始彩色人流量图像RGB数据的对应通道分量,原始彩色人流量图像如图2所示;
D通道为暗通道数据,在高光区域保留了纯色通道之间的明暗特征细节,对反光物体光晕附近的纹理有恢复高光部分细节的作用:
D(i,j)=min(R(i,j),G(i,j),B(i,j))
其中,D(i,j)是像素位置(i,j)处通道D图像的像素值;
H通道为亮通道数据,能够依靠纯色明暗特征恢复阴影细节,:
H(i,j)=max(R(i,j),G(i,j),B(i,j))
其中,H(i,j)是像素位置(i,j)处通道H图像的像素值;
为了提取增强的高光细节,设计大小为11*11的均值滤波器核K对通道D的图像数据做模糊处理,得到模糊图像D’,进一步提取高光细节:
Figure BDA0002333575820000051
其中,M(i,j)是像素位置(i,j)处通道M图像的像素值;
为了提供增强的阴影细节,设计大小为11*11的均值滤波器核K对通道H的图像数据做模糊处理,得到模糊图像H’,进一步提取阴影细节:
Figure BDA0002333575820000052
其中,N(i,j)是像素位置(i,j)处通道N图像的像素值。
原始彩色人流量图像的七通道数据在通过线性加和计算的过程中能够丰富网络的浅层特征提取的多样性。
步骤二,根据常用的人流量监测数据集生成场数据F{X,Y,C,R},作为标注数据,其中,X分量表示横坐标方向上向真值点聚拢的强度,Y分量表示纵坐标方向上向真值点聚拢的强度,C分量表示标注位置的置信度,R分量表示标注半径。
人流量监测数据集有多种,实施者可以根据实际情况选择合适的数据集生成场数据。常用的数据集包括:Mall Dataset、UCSD Dataset、Zhang等人引入的WorldExpo’10crowd counting dataset(Cross-scene Crowd Counting via Deep ConvolutionalNeural Networks);Zhang等(Single-image crowd counting via multi-columnconvolutional neural network)引入的大规模人群统计数据集ShanghaiTech,包括1198个图像,330,165个注释头。一种实施例基于ShanghaiTech数据集生成场数据。
以640*384的人流量图像输入为例,得到场F{X,Y,C,R},F为四通道的二维矩阵。下面以像素点(i,j)的场数据Fi,j(x,y,c,r)为例进行说明。
Fi,j(x,y,c,r)为根据人流量图像以及注释头坐标生成的四通道的标量数据x,y,c,r,其中,x,y代表X分量和Y分量向重心聚拢的强度。
设真值中心点位置为(x’,y’),当前像素位置的坐标为(x,y),distance为当前像素位置与真值中心位置之间的距离,
Figure BDA0002333575820000061
dx=abs(x-x),dy=abs(y-y)为当前像素坐标位置与真值点坐标位置之间的x轴、y轴距离。
对X分量有:
Figure BDA0002333575820000062
其中,r0为预设的标注半径。设r0为2,则若当前像素坐标位置与真值点坐标之间的距离distance=0,x=1;若当前像素坐标位置与真值点坐标之间的距离distance小于预设半径r0,则
Figure BDA0002333575820000063
若当前像素坐标位置与真值点坐标的距离为无穷远时,x=0。
对Y分量有同上的定义:
Figure BDA0002333575820000064
若当前像素坐标位置与真值点坐标之间的距离distance=0,y=1;若当前像素坐标位置与真值点坐标之间的距离distance小于预设半径r0,则
Figure BDA0002333575820000065
若当前像素坐标位置与真值点坐标的距离为无穷远时,y=0。
对C分量有:
Figure BDA0002333575820000066
若当前像素位置与真值中心位置的距离为0px,c=1;若当前像素位置与真值中心位置的距离为2px,c=1;若当前像素位置与真值中心位置的距离为3px,c=0;若当前像素位置与真值中心位置的距离为无穷远,c=0。
对R分量有:
Figure BDA0002333575820000067
若当前像素位置与真值中心位置的距离为0px,r=2;若当前像素位置与真值中心位置的距离为2px,r=2;若当前像素位置与真值中心位置的距离为3px,r=0;若当前像素位置与真值中心位置的距离为无穷远,r=0。
综上,对上述定义进行归纳。
distance是距离真值坐标中心的均方根距离。
X分量是一个围绕真值坐标生成的亮斑。亮斑中心值为1,亮斑远处值根据
Figure BDA0002333575820000071
渐变,若distance大于预设半径,则x为0。X分量表示在横坐标方向向真值位置的聚拢程度。
Y分量是一个围绕真值坐标生成的亮斑。亮斑中心值为1,亮斑远处值根据
Figure BDA0002333575820000072
渐变,若distance大于预设半径则y为0。Y分量表示在纵坐标方向向真值位置的聚拢程度。
R分量是标注半径,一般标注人的头部区域。例如,对一个目标标注一个半径为r=2的实心圆形遮罩,圆形遮罩内的r为2,之外的值为0。离视角远的人头部区域,可以以1为半径。
C分量是标注的置信度信息,对所有r不为0的区域都设为1。将人头部区域的亮斑凸显出来。
进一步地,对场数据进行处理,从而得到可视化的场数据展示结果。
对于X、Y分量进行求和。求和是将每个人作为一个实例,在单独的图像上进行求和:
XYi=Xi+Yi
其中i为实例ID,在数据集中体现为第i个标注数据。
将所有的求和结果进行按遮罩叠加,来消除粘连和异常值。其中,按遮罩叠加的遮罩是除第i个实例的XYi外,其余位置为0的遮罩。
将每个XYi理解为一个图层,则会出现以下问题,图层的顺序会影响合成的效果,因此,可以进一步通过简单的后处理方法消除异常值。在最终的XY通道求和图像XY中,将实例的ID进行升序排列,并按顺序将遮罩内的标注值拷贝至图像XY0对应位置中。由于遮盖的问题,会导致相邻标注值出现明显的切割效果。将实例的ID进行降序排列,并按顺序将遮罩内的标注值拷贝至图像XY1对应位置中。同样,由于遮盖的问题,会导致类似的切割效果。对XY0和XY1进行引导滤波处理,将XY0作为引导图,XY1作为原图,进行半径为3,eps为0.01的滤波处理。由于XY0和XY1的纹理近似,因此,两者之中任一作为引导图或原图的顺序不会对结果有明显影响。
图3(a)、图3(b)是标注场数据的可视化结果。其中,图3(a)标注场数据X、Y分量求和的可视化图像;图3(b)标注场数据C分量的可视化图像。
步骤三,根据场数据设计损失函数Loss=MSEXY*H(C)+MSER,其中,MSEXY为场数据分量X、Y的联合均方误差损失,H(C)为分量C的交叉熵损失,MSER为分量R的均方误差损失。
对输出的场数据F{X,Y,C,R}的每一通道定义损失函数。
首先,对分量X、分量Y有:
LossX(i,j)=(Output(i,j)x-GT(i,j)x)2
LossY(i,j)=(Output(i,j)y-GT(i,j)y)2
其中,Output(i,j)为输出数据位置(i,j)处的场数据,GT(i,j)为标注数据位置(i,j)处的场数据,LossX(i,j)表示分量X的损失,LossY(i,j)表示分量Y的损失。
对于分量X、Y有联合均方误差损失MSEXY:
Figure BDA0002333575820000081
其中,rows为输出图像的行数,cols为输出图像的列数,all指代所有像素位置。
同样,有分量R的均方误差MSER函数:
Figure BDA0002333575820000082
对于分量C,有交叉熵Loss:
Figure BDA0002333575820000083
其中,Cout(i,j)分别为输出数据位置(i,j)处场数据中C分量值,CLabel(i,j)为标注数据位置(i,j)处场数据中C分量值,rows为输出图像的行数。α为一超参数,α越大,损失函数的惩罚越严重,对于本任务,推荐alpha在5左右。
联合Loss为:Loss=MSEXY*H(C)+MSER
步骤四,将原始彩色人流量图像与标注数据作为样本数据集,基于损失函数Loss对深度神经网络进行训练。
常用的深度神经网络的结构有很多。一种实施例是以ResNet为基础,根据实际情况对ResNet进行截取,将输出层去掉,得到前端网络,然后进行通道合并和上采样,并进行连续的卷积操作,若干个卷积模块结构组成了阶段性的神经网络后端。将七通道图像数据T与标注数据送入深度神经网络,基于设计的损失函数,训练深度神经网络。当损失下降到一定阈值时,即可停止训练,保存训练好的深度神经网络。
步骤五,将待检测原始彩色人流量图像的七通道数据输入训练好的深度神经网络,根据网络输出场数据进行热力图重建,对热力图中亮斑进行计数和定位,实现高密度人流量定位与监测。
将待检测原始彩色人流量图像输入训练好的深度神经网络,得到输出的场数据结果。对于训练好的网络,得到的场需要经过后处理得到位置及计数。
首先,对得到的场数据,生成热力图。有快速处理方法,得到重建的热力图像Heat:
Heat=(BoxFilter(Xup)+BoxFilter(Yup))*BoxFilter(Rup)*Cup
其中,BoxFilter是均值滤波器,对于640*384的图像,其窗口为5*5;Xup、Yup、Rup、Cup分别表示经过金字上采样的X分量、Y分量、R分量、C分量。一种实施例是,金字上采样倍数为4,得到分辨率为2560*1536的重建的热力图像Heat。图3(c)是网络输出重建热力图像;图3(d)为网络输出C分量的可视化图像。
进一步地,对于上述热力图像Heat,可以使用非极大值抑制NMS进行人流量计数和定位。也可以使用以下进一步的快速后处理方式。
选择阈值T=Mean(Heat)进行二值化处理。常见的阈值确定方法有最大类间方差法、固定阈值法等。一种实施例是采用最大类间方差法确定用于图像分割的阈值。对二值化后的热力图像Heat进行连通域检测,可以得到多个连通域。
对得到的连通域进行包围框检测得到感兴趣区域ROI,并对感兴趣区域ROI进行以下处理,从而抑制能量过强的亮斑,使能量较低的亮斑突显出来,得到能量抑制后的热力图像Hc:
Figure BDA0002333575820000091
其中,Hc(ROIn(i,j))表示感兴趣区域ROIn位置(i,j)处经过能量抑制的像素值;Heat(ROIn(i,j))为热力图Heat感兴趣区域ROIn位置(i,j)处的像素值。
至此,通过抑制能量过强的亮斑来保证能量较低的亮斑能够被后续步骤处理,变化如图4所示,图4为能量抑制后的热力图像。
使用分水岭算法可得到清晰的连通域分割边界,从而得到连通域计数N。
为了得到连通域所包含人的精确位置,使用softargmax进行位置回归。对某一连通域C′n
Figure BDA0002333575820000092
其中(i,j)∈C′n,代表当前行方向和列方向范围内的坐标行列位置,w表示图像宽度,h表示图像高度,α为一常数。至此,通过位置回归可以得到N个精确回归的人物关键位置。
重复上述操作,可以逐帧得到人物关键位置,可用于快速分析人流量和当前时刻密集程度。
本发明的处理方法可以克服传统基于非极大值抑制NMS后处理导致的小目标无法回归位置的问题。以原画面中3*3像素的目标为例,传统的NMS无法得到位置,在网络的下采样过程中该特征也容易丢失。使用本发明的方法可以同时提高计算效率和准确率。非极大值抑制方法计算量非常庞大,通常需要使用GPU处理,而使用二值分割、能量抑制、位置回归方法,可以降低计算量,对计算节点的配置要求更低,在普通的CPU上运行即可。
本发明使用场来替代热图的概率云,可以降低若干倍的网络输入分辨率来减少计算量;在高分辨率情况下具有更优的精确度,而降低分辨率后的计算量可以减少内存占用,使得网络可以部署在相机端,更具实用性和灵活性;对网络输出结果使用非线性图像处理,降低了后处理计算量。
以上实施例仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (7)

1.一种基于场的高密度人流量定位与监测方法,其特征在于,该方法包括:
步骤一,根据获取的原始彩色人流量图像生成七通道图像数据T{R,G,B,D,H,M,N},其中,R、G、B为原始彩色图像RGB数据的对应通道分量,D通道为暗通道数据,H通道为亮通道数据,M通道为高光细节,N通道为阴影细节;
步骤二,根据常用的人流量监测数据集生成场数据F{X,Y,C,R},作为标注数据,其中,X分量表示横坐标方向上向真值点聚拢的强度,Y分量表示纵坐标方向上向真值点聚拢的强度,C分量表示标注位置的置信度,R分量表示标注半径;
步骤三,根据场数据设计损失函数Loss=MSEXY*H(C)+MSER,其中,MSEXY为场数据分量X、Y的联合均方误差损失,H(C)为分量C的交叉熵损失,MSER为分量R的均方误差损失;
步骤四,将原始彩色人流量图像与标注数据作为样本数据集,基于损失函数Loss对深度神经网络进行训练;
步骤五,将待检测原始彩色人流量图像的七通道数据输入训练好的深度神经网络,根据网络输出场数据进行热力图重建,对热力图中亮斑进行计数和定位,实现高密度人流量定位与监测。
2.如权利要求1所述的基于场的高密度人流量定位与监测方法,所述步骤一中的暗通道数据为:
D(i,j)=min(R(i,j),G(i,j),B(i,j))
其中,D(i,j)是像素位置(i,j)处暗通道数据D的像素值;
所述亮通道数据为:
H(i,j)=max(R(i,j),G(i,j),B(i,j))
其中,H(i,j)是像素位置(i,j)处亮通道数据H的像素值;
所述高光细节为:
Figure FDA0002333575810000011
其中,M(i,j)是像素位置(i,j)处高光细节M的像素值;
所述阴影细节为:
Figure FDA0002333575810000012
其中,N(i,j)是像素位置(i,j)处阴影细节N的像素值。
3.如权利要求1所述的基于场的高密度人流量定位与监测方法,所述步骤二中的场数据具体为:
设真值点坐标位置为(x’,y’),当前像素位置的坐标为(x,y),distance为当前像素位置与真值点位置之间的距离,
Figure FDA0002333575810000013
dx=abs(x-x′),dy=abs(y-y′)为当前像素坐标位置与真值点坐标位置之间的x轴、y轴距离;
对X分量有:
Figure FDA0002333575810000021
对Y分量有同上的定义:
Figure FDA0002333575810000022
对C分量有:
Figure FDA0002333575810000023
对R分量有:
Figure FDA0002333575810000024
其中,r0为预设的标注半径。
4.如权利要求1所述的基于场的高密度人流量定位与监测方法,所述步骤三包括:
根据场数据设计损失函数Loss=MSEXY*H(C)+MSER
场数据分量X、Y的联合均方误差损失MSEXY
Figure FDA0002333575810000025
分量R的均方误差MSER
Figure FDA0002333575810000026
分量C的交叉熵损失H(C):
Figure FDA0002333575810000027
其中,Output(i,j)x、Output(i,j)y、Output(i,j)r、Cout(i,j)分别为输出数据位置(i,j)处场数据中X分量值、Y分量值、R分量值、C分量值,GT(i,j)x、GT(i,j)y、GT(i,j)r、CLabel(i,j)为标注数据位置(i,j)处场数据中X分量值、Y分量值、R分量值、C分量值,rows为输出图像的行数,cols为输出图像的列数,all指代所有像素位置,α为一超参数。
5.如权利要求1所述的基于场的高密度人流量定位与监测方法,所述步骤五中的根据网络输出场数据进行热力图重建包括:
对场数据的各分量进行上采样处理,根据上采样结果进行热力图重建,得到热力图Heat:
Heat=(BoxFilter(Xup)+BoxFilter(Yup))*BoxFilter(Rup)*Cup
其中,BoxFilter是均值滤波器,Xup、Yup、Rup、Cup分别表示经过金字上采样的X分量、Y分量、R分量、C分量。
6.如权利要求1或5所述的基于场的高密度人流量定位与监测方法,所述步骤五中的对热力图中亮斑进行计数和定位包括:
采用非极大值抑制对热力图Heat中的亮斑进行计数和定位。
7.如权利要求1或5所述的基于场的高密度人流量定位与监测方法,所述步骤五中的对热力图中亮斑进行计数和定位包括:
对热力图Heat进行二值化处理;
对二值化处理得到的连通域进行包围框检测得到感兴趣区域ROI,采用下式抑制能量过强的亮斑:
Figure FDA0002333575810000031
其中,Hc(ROIn(i,j))表示感兴趣区域ROIn位置(i,j)处经过能量抑制的像素值;Heat(ROIn(i,j))为热力图Heat感兴趣区域ROIn位置(i,j)处的像素值;
基于分水岭算法,对能量抑制结果进行图像分割,并对图像分割结果进行连通域计数,得到人流量估计结果;
对每个连通域使用softargmax进行位置回归,得到人的精确位置,实现人流量定位。
CN201911346724.0A 2019-12-24 2019-12-24 基于场的高密度人流量定位与监测方法 Active CN111008613B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911346724.0A CN111008613B (zh) 2019-12-24 2019-12-24 基于场的高密度人流量定位与监测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911346724.0A CN111008613B (zh) 2019-12-24 2019-12-24 基于场的高密度人流量定位与监测方法

Publications (2)

Publication Number Publication Date
CN111008613A true CN111008613A (zh) 2020-04-14
CN111008613B CN111008613B (zh) 2023-12-19

Family

ID=70116096

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911346724.0A Active CN111008613B (zh) 2019-12-24 2019-12-24 基于场的高密度人流量定位与监测方法

Country Status (1)

Country Link
CN (1) CN111008613B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112101195A (zh) * 2020-09-14 2020-12-18 腾讯科技(深圳)有限公司 人群密度预估方法、装置、计算机设备和存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108446662A (zh) * 2018-04-02 2018-08-24 电子科技大学 一种基于语义分割信息的行人检测方法
WO2019192397A1 (zh) * 2018-04-04 2019-10-10 华中科技大学 一种任意形状的场景文本端到端识别方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108446662A (zh) * 2018-04-02 2018-08-24 电子科技大学 一种基于语义分割信息的行人检测方法
WO2019192397A1 (zh) * 2018-04-04 2019-10-10 华中科技大学 一种任意形状的场景文本端到端识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
焦纯;卢虹冰;王舒宜;周智明;张国鹏;常小红;: "基于MSP430的便携式运动量及生理参数监测仪设计" *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112101195A (zh) * 2020-09-14 2020-12-18 腾讯科技(深圳)有限公司 人群密度预估方法、装置、计算机设备和存储介质
CN112101195B (zh) * 2020-09-14 2024-04-26 腾讯科技(深圳)有限公司 人群密度预估方法、装置、计算机设备和存储介质

Also Published As

Publication number Publication date
CN111008613B (zh) 2023-12-19

Similar Documents

Publication Publication Date Title
CN108573276B (zh) 一种基于高分辨率遥感影像的变化检测方法
CN104778721B (zh) 一种双目图像中显著性目标的距离测量方法
US8538082B2 (en) System and method for detecting and tracking an object of interest in spatio-temporal space
CN108062525B (zh) 一种基于手部区域预测的深度学习手部检测方法
CN106875415A (zh) 一种动态背景中弱小动目标的连续稳定跟踪方法
CN106991686B (zh) 一种基于超像素光流场的水平集轮廓跟踪方法
CN113139489B (zh) 基于背景提取和多尺度融合网络的人群计数方法及系统
CN111027497B (zh) 基于高分辨率光学遥感影像的弱小目标快速检测方法
CN107341815B (zh) 基于多目立体视觉场景流的剧烈运动检测方法
CN112288008A (zh) 一种基于深度学习的马赛克多光谱图像伪装目标检测方法
Patil et al. Motion saliency based generative adversarial network for underwater moving object segmentation
CN110598613B (zh) 一种高速公路团雾监测方法
CN113191204B (zh) 一种多尺度遮挡行人检测方法及系统
Xu et al. COCO-Net: A dual-supervised network with unified ROI-loss for low-resolution ship detection from optical satellite image sequences
TWI729587B (zh) 物件定位系統及方法
CN111008613B (zh) 基于场的高密度人流量定位与监测方法
CN106778822B (zh) 基于漏斗变换的图像直线检测方法
CN109785318B (zh) 基于面线基元关联约束的遥感图像变化检测方法
Wang et al. Counting crowd with fully convolutional networks
CN113657225B (zh) 一种目标检测方法
CN111986233B (zh) 基于特征自学习的大场景极小目标遥感视频跟踪方法
Liu Research on intelligent visual image feature region acquisition algorithm in Internet of Things framework
CN111460941A (zh) 一种穿戴式导航装备中视觉导航特征点提取与匹配方法
Ljubičić et al. SSIMS-Flow: Image velocimetry workbench for open-channel flow rate estimation
Qiu et al. A methodology review on multi-view pedestrian detection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20231113

Address after: 18th Floor, No. 236 Hongqi Street, Nangang Concentration District, Harbin Economic and Technological Development Zone, Harbin, Heilongjiang Province, 150000

Applicant after: Heilongjiang wenlv Information Technology Co.,Ltd.

Address before: 450000 new campus of Zhengzhou University, No.100, science Avenue, Zhengzhou City, Henan Province

Applicant before: He Yaokai

GR01 Patent grant
GR01 Patent grant