CN111144377B - 一种基于人群计数算法的密集区域预警方法 - Google Patents
一种基于人群计数算法的密集区域预警方法 Download PDFInfo
- Publication number
- CN111144377B CN111144377B CN201911422327.7A CN201911422327A CN111144377B CN 111144377 B CN111144377 B CN 111144377B CN 201911422327 A CN201911422327 A CN 201911422327A CN 111144377 B CN111144377 B CN 111144377B
- Authority
- CN
- China
- Prior art keywords
- sliding window
- crowd
- density
- early warning
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 230000000694 effects Effects 0.000 claims abstract description 14
- 238000005070 sampling Methods 0.000 claims abstract description 5
- 238000002372 labelling Methods 0.000 claims description 14
- 238000010586 diagram Methods 0.000 claims description 12
- AYFVYJQAPQTCCC-GBXIJSLDSA-N L-threonine Chemical compound C[C@@H](O)[C@H](N)C(O)=O AYFVYJQAPQTCCC-GBXIJSLDSA-N 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 5
- 238000005457 optimization Methods 0.000 claims description 4
- 238000012544 monitoring process Methods 0.000 abstract description 5
- 238000013507 mapping Methods 0.000 abstract description 3
- 238000004364 calculation method Methods 0.000 description 9
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/26—Government or public services
Landscapes
- Business, Economics & Management (AREA)
- Engineering & Computer Science (AREA)
- Tourism & Hospitality (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Educational Administration (AREA)
- Development Economics (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- Multimedia (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开一种基于人群计数算法的密集区域预警方法,属于公共安全领域。本发明实现方法为:首先对摄像头采集的视频进行采样,获取人群图像;输入人群图像至人群计数算法中,估计当前图像对应的密度图与人数;对图像像素与真实场景的空间映射关系进行建模,并根据密度图中包含有非零像素值的锚点像素数量与人群图像的像素数量,计算密度图锚点像素数量占人群图像的像素数量的百分比,作为人群密度预警效率和精度权重,选定粗粒度预警区域标记模块或细粒度预警区域标记模块,对监控场景中需要预警的密集人群区域进行信息标注;输出密集区域预警效果图,实现在人群密集区域中的辅助预警任务。
Description
技术领域
本发明属于公共安全领域,特别涉及公共场所人群密集区域预警方法。
背景技术
作为人群行为监控的重要应用之一,密集区域预警通过检测公共场所中的人群区域密集程度,判定该区域人群密度是否超过阈值,从而标注出密集人群区域并及时发出预警信号,可以使管理者更早地介入并疏导人群,很大程度地避免了由于人群密度过大而导致的如踩踏等重大公共安全事件。因此,密集区域预警具有重要的实际应用价值。然而,当前针对公共场所密集区域很难定性与定量地表述当前场景下人群的密集程度,仍然需要依靠管理人员的经验对监控区域内行人密集程度进行主观决策。
目前,利用计算机视觉技术实现密集区域预警的方法主要有两种:(1)使用预设的多尺度矩形窗口分别遍历图像,经过矩形窗口裁剪的子图像通过灰度直方图(HOG)、灰度共生矩阵(GLDM)等提取图像中的行人特征,通过支持向量机(SVM)、Adaboost等分类器将获取的特征进行分类,获取人群密集区域。(2)基于视频图像序列中相邻两帧图像的差值提取图像中运动的前景人群,并通过统计前景人群所占图像中的像素数量判定当前场景中是否发生人群聚集事件。但是方法一中的矩形窗口需要多次遍历图像进行裁剪,并且需要对裁剪过后的子图像分别进行边缘与纹理特征提取,存在着大量的计算冗余;这两种方法在场景较为复杂、人群聚集场景流动量不明显、人群密度较大与目标间遮挡较为严重时严重退化,降低了判断人群密集情况与区域标注的准确度,并且没有通过对现实场景与图像中像素相对位置关系的建模,提供一种定性与定量描述图像中人群密集区域预警的方法。
发明内容
针对下述不足:(1)在场景较为复杂、人群聚集场景流动量不明显、人群密度较大与目标间遮挡较为严重时,导致对判断人群密集情况与区域标注的准确度降低;(2)未能够实现对现实场景与图像中像素相对位置关系的建模,导致无法通过特定场景下设定的密度阈值对人群密集区域进行定量描述,进而降低了密集区域标注的可信度;(3)对裁剪过后的子图像分别进行边缘与纹理特征提取,存在着大量的计算冗余,导致人群密度预警效率降低。本发明公开一种基于人群计数算法的密集区域预警方法要解决的技术问题是:能够实现对现实场景与图像中像素相对位置关系的建模,基于人群计数算法实现对人群密集区域的人群密度进行预警,在上述(1)提到的复杂场景中能够降低严重遮挡程度,进而提高区域标注的准确度,此外,能够提高对裁剪过后的子图像遍历计算效率,进而提高人群密度预警效率。
本发明的目的是通过下述技术方案实现的:
基于计算机视觉中的人群计数算法,本发明公开一种基于人群计数算法的密集区域预警方法,首先对摄像头采集的视频进行采样,获取人群图像;输入人群图像至人群计数算法中,估计当前图像对应的密度图与人数;对图像像素与真实场景的空间映射关系进行建模,并根据密度图中包含有非零像素值的锚点像素数量与人群图像的像素数量,计算密度图锚点像素数量占人群图像的像素数量的百分比,作为人群密度预警效率和精度权重,选定粗粒度预警区域标记模块或细粒度预警区域标记模块,对监控场景中需要预警的密集人群区域进行信息标注;输出密集区域预警效果图,实现在人群密集区域中的辅助预警任务。
本发明公开一种基于人群计数算法的密集区域预警方法,根据实际应用的准实时性需求,动态平衡人群密度预警效率和区域标注精确度,选定粗粒度预警区域标记模块或细粒度预警区域标记模块,实现对人群密集区域的预警,包括如下步骤:
步骤一,对摄像头采集的视频进行采样,获取人群图像;
步骤二,输入人群图像至人群计数算法中,估计当前图像对应的密度图与人数,即相比于传统的通过特征提取获取人群密集区域的方法,使用人群计数算法能够更好地应对复杂场景中人与人之间的严重遮挡,进而提高区域标注的准确度;
步骤三,判断当前对应的人群密度预警效率和精度权重,即根据步骤二中密度图中包含有非零像素值的锚点像素数量与步骤一中人群图像的像素数量,计算密度图锚点像素数量占人群图像的像素数量的百分比,作为人群密度预警效率和精度权重,选定粗粒度预警区域标记模块或细粒度预警区域标记模块对人群密度预警;
步骤三中,根据人群密度预警效率和精度权重选定粗粒度预警区域标记模块或细粒度预警区域标记模块对人群密度预警,若密度图锚点像素数量占人群图像的像素数量的百分比小于50%时,选定细粒度预警区域标记模块对人群密集区域进行预警,若密度图锚点像素数量占人群图像的像素数量的百分比大于或等于50%时,选定粗粒度预警区域标记模块对人群密集区域进行预警;
步骤步骤3-1实现方法为:
步骤3-1.1:若步骤三中密度图锚点像素数量占人群图像的像素数量的百分比小于50%时,选定细粒度预警区域标记模块对人群密集区域进行预警,包括如下步骤:
步骤3-1.1.1:判断输出密度图是否为全零图像,若密度图为全零,则对于该图像的处理结束,预警平台将原图像输出,并继续加载下一张人群图像;若密度图不为全零,通过标定的透视图信息依照图片的行索引值生成不同大小的滑动窗口集合,各滑动窗口的尺寸大小表示真实场景中的单位平方米;
作为优选,步骤3-1.1.1中,若步骤二中获取的密度图不为全零图像,通过标定的透视图信息依照图片的行索引值生成不同大小的滑动窗口集合。
步骤3-1.1.2:读取密度图像素中包含有非零像素值的锚点像素坐标集合,并且按照行索引值由小到大顺序排列;
步骤3-1.1.3:获取密度图中锚点像素坐标集合中所处不同行索引的索引值集合;
步骤3-1.1.4:由于不同性别与不同年龄头部尺寸的差异性,设定人头脸部尺寸标准,根据设定的人头脸部尺寸标准确定人头长宽尺寸模板;
作为优选,步骤3.1.1.4中设定人头脸部尺寸标准优选国家标准。
步骤3-1.1.5:通过步骤3.1.1.3得到的行索引值集合,获取透视图中对应行索引像素的像素值,作为当前行索引下滑动窗口的高度;依据人头长宽尺寸模板中的长宽比例关系,确定不同行索引值对应的滑动窗口的宽度,并与高度尺寸一起,组成滑动窗口尺寸的集合,即通过标定的透视图信息与根据设定的人头脸部尺寸标准确定人头长宽尺寸模板,实现对现实场景与图像中像素相对位置关系的建模。
步骤3-1.2:通过步骤3.1.1.1中标定的图像透视图信息,估计场景中的实际占地面积;
步骤3-1.2估计场景中的实际占地面积优选如下公式实现:
其中:W表示步骤二中密度图像素的总列数,H表示步骤二中密度图像素的总行数,i表示密度图的行索引值,[Ratioh(i,:),Ratiow(i,:)]表示滑动窗口尺寸,Ratioh(i,:)表示滑动窗口行尺寸,Ratiow(i,:)表示滑动窗口列尺寸;
步骤3-1.3:根据实际场景中对于人群密集程度的定量描述,设定人群密度阈值。
作为优选,步骤3-1.3中人群密度阈值设定为1.33-1.54人每平方米,即0.65-0.75平方米每人;
步骤3-1.4:若图像中人群的全局密度值超过步骤3-1.3中设定的人群密度阈值,生成预警图中的所有像素均被标记为预警区域;若图像中人群的全局密度值小于步骤3-1.3设定的人群密度阈值,滑动窗口通过行索引值逐渐增大的顺序遍历密度图中的非零值像素,计算滑动窗口顶点坐标,并且在步骤二获取的密度图中裁剪出与窗口大小相同的预警待检区域;
步骤3-1.4中,若图像中人群的全局密度值小于步骤3-1.3设定的人群密度阈值,滑动窗口通过行索引值逐渐增大的顺序遍历密度图中的非零值像素,计算滑动窗口顶点坐标,并且在步骤二获取的密度图中裁剪出与窗口大小相同的预警待检区域,滑动窗口顶点坐标实现步骤如下:
h1=xn-ceil(Ratioh(xn,:)/2),
w1=yn-ceil(Ratiow(xn,:)/2),
h2=xn+ceil(Ratioh(xn,:)/2)–1,
w2=yn+ceil(Ratiow(xn,:)/2)–1,
其中:(h1,w1)与(h2,w2)分别表示滑动窗口的左上角与右下角的顶点坐标值,顶点坐标值的表现形式为(行坐标值,列坐标值),h1表示滑动窗口的左上角顶点的行坐标值,w1表示滑动窗口的左上角顶点的列坐标值,h2表示滑动窗口的右下角顶点的行坐标值,w2表示滑动窗口的右下角顶点的列坐标值,[Ratioh(i,:),Ratiow(i,:)]表示滑动窗口尺寸,Ratioh(i,:)表示滑动窗口行尺寸,Ratiow(i,:)表示滑动窗口列尺寸;
步骤3-1.5:当滑动窗口在步骤二中密度图上滑动时,在边界区域附近会有部分滑动窗口落在密度图像素之外,从而无法计算该区域的密集程度,通过滑动窗口顶点坐标的更新方法使得滑动窗口顶点坐标更新后的滑动窗口全部落在密度图之内,在自适应调整窗口尺寸的同时按比例调整该滑动窗口区域内的行人总数量,从而获得该滑动窗口区域内的人群密度值。
步骤3-1.5中滑动窗口顶点坐标的更新方法实现步骤如下:
步骤3-1.5.1:初始化滑动窗口宽度与高度优化的比例缩放超参数为1;
步骤3-1.5.2:若滑动窗口的左上角顶点的行坐标落在图像之外,即行坐标值小于1时,更新左上角顶点的行坐标值设定为1,并且滑动窗口高度的比例缩放超参数按照更新后的窗口高度尺度与原尺度的变化比例放大;
步骤3-1.5.3:若滑动窗口的左上角顶点的列坐标落在图像之外,即列坐标值小于1时,更新左上角顶点的列坐标值设定为1,并且滑动窗口宽度的比例缩放超参数按照更新后的窗口宽度尺度与原尺度的变化比例放大;
步骤3-1.5.4:若滑动窗口的右下角顶点的行坐标落在图像之外,即行坐标值大于图像总高度时,更新右下角顶点的行坐标值设定为图像总高度,并且滑动窗口高度的比例缩放超参数按照更新后的窗口高度尺度与原尺度的变化比例放大;
步骤3-1.5.5:若滑动窗口的右下角顶点的列坐标落在图像之外,即列坐标值大于图像总宽度时,更新右下角顶点的列坐标值设定为图像总宽度,并且滑动窗口宽度的比例缩放超参数按照更新后的窗口宽度尺度与原尺度的变化比例放大;
步骤3-1.5.6:计算更新后滑动窗口内的总人数,并且通过与比例缩放超参数的乘积,获得归一化后的单位面积内的人群密度值;
步骤3-1.5中滑动窗口顶点坐标的更新方法具体实现步骤如下:
步骤3-1.5.1:初始化滑动窗口宽度与高度优化的比例缩放超参数为1,即如下公式实现:
α=1,β=1;
其中:α表示滑动窗口高度尺度的比例缩放超参数,β表示滑动窗口宽度尺度的比例缩放超参数;
步骤3-1.5.2:若滑动窗口的左上角顶点的行坐标落在图像之外,即行坐标值小于1时,更新左上角顶点的行坐标值设定为1,并且滑动窗口高度尺度的比例缩放超参数按照更新后的窗口高度尺度与原尺度的变化比例放大,即如下公式实现:
α=α×Ratioh(xn,:)/h2,
其中:xn表示滑动窗口的中心点行坐标值,h2表示滑动窗口的右下角顶点的行坐标值;
步骤3-1.5.3:若滑动窗口的左上角顶点的列坐标落在图像之外,即列坐标值小于1时,更新左上角顶点的列坐标值设定为1,并且滑动窗口宽度尺度的比例缩放超参数按照更新后的窗口宽度尺度与原尺度的变化比例放大,即如下公式实现:
β=β×Ratiow(xn,:)/w2,
其中w2表示滑动窗口的右下角顶点的列坐标值;
步骤3-1.5.4:若滑动窗口的右下角顶点的行坐标落在图像之外,即行坐标值大于图像总高度时,更新右下角顶点的行坐标值设定为图像总高度,并且滑动窗口高度尺度的比例缩放超参数按照更新后的窗口高度尺度与原尺度的变化比例放大,即如下公式实现:
α=α×Ratioh(xn,:)/(H–h1+1),
其中:H表示步骤二中密度图像素的总行数,h1表示滑动窗口的左上角顶点的行坐标值;
步骤3-1.5.5:若滑动窗口的右下角顶点的列坐标落在图像之外,即列坐标值大于图像总宽度时,更新右下角顶点的列坐标值设定为图像总宽度,并且滑动窗口宽度尺度的比例缩放超参数按照更新后的窗口宽度尺度与原尺度的变化比例放大,即如下公式实现:
β=β×Ratiow(xn,:)/(W–w1+1),
其中:W表示步骤二中密度图像素的总列数,w1表示滑动窗口的左上角顶点的列坐标值;
步骤3-1.5.6:计算更新后滑动窗口内的总人数,并且通过与比例缩放超参数的乘积校正,获得归一化后的单位面积内的人群密度值,即如下公式实现:
Count_per_square=α×β×Count,
其中:Count表示滑动窗口经过滑动窗口顶点坐标的更新方法之后,内部所包含的总人数,Count_per_square表示滑动窗口内部所包含的总人数经过与比例缩放超参数的乘积校正之后,内部所包含的总人数,即人群密度,D表示步骤二中的密度图。
步骤3-1.6:判断待检区域内的人群密度是否超过设定的密度阈值,并将预警图中超过密度阈值的窗口区域像素标记为预警区域;
步骤3-1.7:判断步骤二密度图中的所有非零值锚点像素是否已经完成遍历,若密度图中的所有非零值锚点像素还未完成遍历,则返回步骤六并继续执行步骤3-1.4至步骤3-1.7,直到对所有非零值锚点像素的完成遍历,即非零值锚点像素的遍历过程只需对密度图中的非零值锚点进行计算,无需对密度图中的零值像素进行计算,能够提高对裁剪过后的子图像遍历计算效率,进而提高人群密度预警效率;若密度图中的所有非零值锚点像素已经完成遍历,使用预警图与原始图像加权生成密集区域预警效果图,能够更加直观地判定密集区域的空间位置分布,即实现对人群密集区域的人群密度进行预警;
步骤3-1.7中密集区域预警效果图的实现公式如下:
Warn=0.6×Img+0.4×Mask;
其中,Warn表示密集区域预警效果图,Img表示步骤一中获取的人群图像,Mask表示步骤3-1.7中生成的预警图。
步骤3-2:若步骤三中密度图锚点像素数量占人群图像的像素数量的百分比大于或等于50%时,则选定粗粒度预警区域标记模块对人群密集区域进行预警,包括如下步骤:
步骤3-2.1:判断输出密度图是否为全零图像,若密度图为全零,则对于该图像的处理结束,预警平台将原图像输出,并继续加载下一张人群图像;若密度图不为全零,设置初始选取区域大小[H,W]与多层级粒度感知递归总次数T,根据实际场景中对于人群密集程度的定量描述,设定人群密度阈值;
作为优选,步骤3-2.1中人群密度阈值设定为1.33-1.54人每平方米,即0.65-0.75平方米每人;
步骤3-2.2:初始化递归次数t=1,标记区域Mark=0;
步骤3-2.3:确定候选区域{Proposalt(k)|k=1,…,4t-1},判断各候选区域中是否包含于标记区域中,输出未包含在标记区域Mark中的候选区域{Proposalt(k)|k=1,…,K}与候选区域的顶点坐标(h1 t(k),w1 t(k))与(h2 t(k),w2 t(k)),k=1,…,K,其中K为候选区域总数量,即只需要针对密度图中的有限候选区域进行遍历与分布计算,能够提高对裁剪过后的子图像遍历计算效率,进而提高人群密度预警效率;
步骤3-2.4:对于选定的候选区域索引k,计算候选区域面积Areat(k):
步骤3-2.5:计算候选区域密度图人数Countt(k):
步骤3-2.6:计算候选区域单位面积人数:
Count_per_squaret(k)=Countt(k)/Areat(k);
步骤3-2.7:若候选区域单位面积人数Count_per_squaret(k)大于设定的密度阈值Thre,则将预警图中超过密度阈值的候选区域像素标记为预警区域,即:
Mask(h1 t(k):w1 t(k),h2 t(k):w2 t(k))=255;
步骤3-2.8:记录Count_per_squaret(k)大于设定的密度阈值Thre的区域坐标顶点h1 t(k),w1 t(k),h2 t(k),w2 t(k),在候选区域中执行步骤六的密度阈值判别,直到遍历完成所有的候选区域;
步骤3-2.9:判断是否完成多层级粒度感知操作(t=T),若已完成感知操作,则输出区域预警图Mask;若未完成,保存本次感知操作中标记为预警区域的候选区域顶点坐标,并且继续迭代执行步骤3-2.3:至步骤3-2.8,直到完成多层级粒度感知操作。
步骤四,输出密集区域预警效果图,实现对人群密集区域的预警。
有益效果:
1、本发明公开的一种基于人群计数算法的密集区域预警方法,在获取图像中行人数量的同时,利用密度图提供的空间位置信息与区域人数,通过对图像像素与真实场景的空间映射关系进行数学建模,分析单位面积内的行人数量是否超过规定的密度阈值,对监控场景中需要预警的密集人群区域进行信息标注,进而提升密集区域标注的可信度,实现在人群密集区域中的辅助预警任务;
2、本发明公开的一种基于人群计数算法的密集区域预警方法,使用人群计数算法生成的密度图作为输入,提升人群密集区域预警方法在场景较为复杂、人群聚集场景流动量不明显、人群密度较大与目标间遮挡较为严重时,对判断人群密集情况与区域标注的准确度;
3、本发明公开的一种基于人群计数算法的密集区域预警方法,只需要针对密度图中的非零值锚点像素进行遍历与分布计算,无需对密度图中的零值像素进行计算,或者只需要针对密度图中的有限候选区域进行遍历与分布计算,因此能够提高对裁剪过后的子图像遍历计算效率,进而提高人群密度预警效率。
附图说明
图1表示本发明公开一种基于人群计数算法的密集区域预警方法的流程图;
图2表示本发明实施例提供的一种细粒度预警区域标记预警方法的预测流程图;
图3表示本发明实施例提供的一种滑动窗口宽度与高度优化流程图;
图4表示本发明实施例提供的一种粗粒度预警区域标记预警方法的预测流程图。
具体实施方式
为了使本发明所要解决的技术问题、技术方案及有益效果更加清楚、明白,以下结合附图和实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
实施例一:
如图1所示,本实施例公开一种基于人群计数算法的密集区域预警方法,具体实现步骤如下:
步骤一,对摄像头采集的视频进行采样,获取人群图像Img;
步骤二,输入人群图像Img至人群计数算法中,估计当前图像对应的密度图D,获取密度图D分辨率[H,W]与图像估计总人数Total;
步骤三,判断当前对应的人群密度预警效率和精度权重,即根据步骤二中密度图中包含有非零像素值的锚点像素数量与步骤一中人群图像的像素数量,计算密度图锚点像素数量占人群图像的像素数量的百分比,作为人群密度预警效率和精度权重,选定粗粒度预警区域标记模块或细粒度预警区域标记模块对人群密度预警;
步骤三中,根据人群密度预警效率和精度权重选定粗粒度预警区域标记模块或细粒度预警区域标记模块对人群密度预警,若密度图锚点像素数量占人群图像的像素数量的百分比小于50%时,选定细粒度预警区域标记模块对人群密集区域进行预警,若密度图锚点像素数量占人群图像的像素数量的百分比大于或等于50%时,选定粗粒度预警区域标记模块对人群密集区域进行预警;
步骤步骤3-1实现方法为:
步骤3-1.1:若步骤三中密度图锚点像素数量占人群图像的像素数量的百分比小于50%时,选定细粒度预警区域标记模块对人群密集区域进行预警,具体实现步骤如下:
步骤3-1.1.1:判断输出密度图是否为全零图像,若步骤二中获取的密度图不为全零图像,通过标定的透视图信息依照图片的行索引值生成不同大小的滑动窗口集合,具体实现方法如下:
步骤3-1.1.1.1:读取密度图像素中包含有非零像素值的锚点像素坐标集合,并且按照行索引值由小到大顺序排列;
步骤3-1.1.1.2:初始化区域预警图为0;
步骤3-1.1.1.3:获取密度图中锚点像素坐标集合中所处不同行索引的索引值集合;
步骤3-1.1.1.4:由于不同性别与不同年龄头部尺寸的差异性,设定人头脸部尺寸标准,根据设定的人头脸部尺寸标准确定人头长宽尺寸模板;步骤3.1.1.1.4中设定人头脸部尺寸标准优选国家标准。
步骤3-1.1.1.5:通过步骤3.1.1.1.3得到的行索引值集合,获取透视图中对应行索引像素的像素值,作为当前行索引下滑动窗口的高度;依据人头长宽尺寸模板中的长宽比例关系,确定不同行索引值对应的滑动窗口的宽度,并与高度尺寸一起,组成滑动窗口尺寸的集合,即通过标定的透视图信息与根据设定的人头脸部尺寸标准确定人头长宽尺寸模板,实现对现实场景与图像中像素相对位置关系的建模。
步骤3-1.2:通过步骤3.1.1.1中标定的图像透视图信息,估计场景中的实际占地面积;
步骤3-1.2估计场景中的实际占地面积优选如下公式实现:
其中:W表示步骤二中密度图像素的总列数,H表示步骤二中密度图像素的总行数,i表示密度图的行索引值,[Ratioh(i,:),Ratiow(i,:)]表示滑动窗口尺寸,Ratioh(i,:)表示滑动窗口行尺寸,Ratiow(i,:)表示滑动窗口列尺寸;
步骤3-1.3:根据实际场景中对于人群密集程度的定量描述,设定人群密度阈值。
步骤3-1.3中人群密度阈值设定为1.43人每平方米,即0.70平方米每人;
步骤3-1.4:若图像中人群的全局密度值超过步骤3-1.3中设定的人群密度阈值,生成预警图中的所有像素均被标记为预警区域;若图像中人群的全局密度值小于步骤3-1.3设定的人群密度阈值,滑动窗口通过行索引值逐渐增大的顺序遍历密度图中的非零值像素,计算滑动窗口顶点坐标,并且在步骤二获取的密度图中裁剪出与窗口大小相同的预警待检区域;
步骤3-1.4中,若图像中人群的全局密度值小于步骤3-1.3设定的人群密度阈值,滑动窗口通过行索引值逐渐增大的顺序遍历密度图中的非零值像素,计算滑动窗口顶点坐标,并且在步骤二获取的密度图中裁剪出与窗口大小相同的预警待检区域,滑动窗口顶点坐标实现步骤如下:
h1=xn-ceil(Ratioh(xn,:)/2),
w1=yn-ceil(Ratiow(xn,:)/2),
h2=xn+ceil(Ratioh(xn,:)/2)–1,
w2=yn+ceil(Ratiow(xn,:)/2)–1,
其中:(h1,w1)与(h2,w2)分别表示滑动窗口的左上角与右下角的顶点坐标值,顶点坐标值的表现形式为(行坐标值,列坐标值),h1表示滑动窗口的左上角顶点的行坐标值,w1表示滑动窗口的左上角顶点的列坐标值,h2表示滑动窗口的右下角顶点的行坐标值,w2表示滑动窗口的右下角顶点的列坐标值,[Ratioh(i,:),Ratiow(i,:)]表示滑动窗口尺寸,Ratioh(i,:)表示滑动窗口行尺寸,Ratiow(i,:)表示滑动窗口列尺寸;
特别地,当滑动窗口中心坐标设定为(20,16),滑动窗口尺寸设定为[5,4],则滑动窗口的左上角与右下角的顶点坐标值的计算表达式如下:
h1=20-ceil(5/2)=17,
w1=16-ceil(4/2)=14,
h2=20+ceil(5/2)–1=22,
w2=16+ceil(4/2)–1=17,
步骤3-1.5:当滑动窗口在步骤二中密度图上滑动时,在边界区域附近会有部分滑动窗口落在密度图像素之外,从而无法计算该区域的密集程度,通过滑动窗口顶点坐标的更新方法使得滑动窗口顶点坐标更新后的滑动窗口全部落在密度图之内,在自适应调整窗口尺寸的同时按比例调整该滑动窗口区域内的行人总数量,从而获得该滑动窗口区域内的人群密度值。
步骤3-1.5中滑动窗口顶点坐标的更新方法具体实现步骤如下:
步骤3-1.5.1:初始化滑动窗口宽度与高度优化的比例缩放超参数为1,即如下公式实现:
α=1,β=1;
其中:α表示滑动窗口高度尺度的比例缩放超参数,β表示滑动窗口宽度尺度的比例缩放超参数;
步骤3-1.5.2:若滑动窗口的左上角顶点的行坐标落在图像之外,即行坐标值小于1时,更新左上角顶点的行坐标值设定为1,并且滑动窗口高度尺度的比例缩放超参数按照更新后的窗口高度尺度与原尺度的变化比例放大,即如下公式实现:
α=α×Ratioh(xn,:)/h2,
其中:xn表示滑动窗口的中心点行坐标值,h2表示滑动窗口的右下角顶点的行坐标值;
特别地,当滑动窗口行尺寸设定为30,滑动窗口的右下角顶点的行坐标值设定为20时,滑动窗口高度尺度的比例缩放超参数为:
α=1×30/20=1.5;
步骤3-1.5.3:若滑动窗口的左上角顶点的列坐标落在图像之外,即列坐标值小于1时,更新左上角顶点的列坐标值设定为1,并且滑动窗口宽度尺度的比例缩放超参数按照更新后的窗口宽度尺度与原尺度的变化比例放大,即如下公式实现:
β=β×Ratiow(xn,:)/w2,
其中w2表示滑动窗口的右下角顶点的列坐标值;
特别地,当滑动窗口列尺寸设定为32,滑动窗口的右下角顶点的行坐标值设定为16时,滑动窗口高度尺度的比例缩放超参数为:
β=1×32/16=2;
步骤3-1.5.4:若滑动窗口的右下角顶点的行坐标落在图像之外,即行坐标值大于图像总高度时,更新右下角顶点的行坐标值设定为图像总高度,并且滑动窗口高度尺度的比例缩放超参数按照更新后的窗口高度尺度与原尺度的变化比例放大,即如下公式实现:
α=α×Ratioh(xn,:)/(H–h1+1),
其中:H表示步骤二中密度图像素的总行数,h1表示滑动窗口的左上角顶点的行坐标值;
特别地,当滑动窗口行尺寸设定为60,滑动窗口的左上顶点的行坐标值设定为547,密度图像素的总行数设定为576时,滑动窗口高度尺度的比例缩放超参数为:
α=1×60/(576-547+1)=2;
步骤3-1.5.5:若滑动窗口的右下角顶点的列坐标落在图像之外,即列坐标值大于图像总宽度时,更新右下角顶点的列坐标值设定为图像总宽度,并且滑动窗口宽度尺度的比例缩放超参数按照更新后的窗口宽度尺度与原尺度的变化比例放大,即如下公式实现:
β=β×Ratiow(xn,:)/(W–w1+1),
其中:W表示步骤二中密度图像素的总列数,w1表示滑动窗口的左上角顶点的列坐标值;
特别地,当滑动窗口列尺寸设定为60,滑动窗口的左上顶点的列坐标值设定为701,密度图像素的总列数设定为720时,滑动窗口高度尺度的比例缩放超参数为:
β=1×60/(720-691+1)=3;
步骤3-1.5.6:计算更新后滑动窗口内的总人数,并且通过与比例缩放超参数的乘积校正,获得归一化后的单位面积内的人群密度值,即如下公式实现:
Count_per_square=α×β×Count,
其中:Count表示滑动窗口经过滑动窗口顶点坐标的更新方法之后,内部所包含的总人数,Count_per_square表示滑动窗口内部所包含的总人数经过与比例缩放超参数的乘积校正之后,内部所包含的总人数,即人群密度,D表示步骤二中的密度图;
特别地,当滑动窗口中心坐标设定为(8,7),滑动窗口行尺寸设定为24,滑动窗口列尺寸设定为18,更新后滑动窗口内的总人数设定为1.3时,根据步骤3-1.4得出滑动窗口的左上角与右下角的顶点坐标值的计算表达式如下:
h1=9-ceil(24/2)=-3,
w1=8-ceil(18/2)=-1,
h2=9+ceil(24/2)–1=20,
w2=8+ceil(18/2)–1=16;
根据步骤3-1.5.2,根据计算得出的左上角行坐标值h1小于1时,更新左上角顶点的行坐标值设定为1,即:
h1=1,
滑动窗口高度尺度的比例缩放超参数α为:
α=1×24/20=1.2;
根据步骤3-1.5.3,根据计算得出的左上角列坐标值w1小于1时,更新左上角顶点的列坐标值设定为1,即:
w1=1,
得出滑动窗口宽度尺度的比例缩放超参数β为:
β=1×18/16=1.125;
则根据步骤3-1.5.6得出归一化后的单位面积内的人群密度值:
Count_per_square=1.2×1.125×1.3=1.755。
步骤3-1.6:判断待检区域内的人群密度是否超过步骤3-1.3中设定的密度阈值,并将预警图中超过密度阈值的窗口区域像素标记为预警区域,即若归一化后的单位面积内的人群密度值为1.755时,相比步骤3-1.3中设定的密度阈值1.43,有:
1.755>1.43,
则将预警图中超过密度阈值的窗口区域像素标记为预警区域,即如以下公式实现:
Mask(1:20,1:16)=255;
步骤3-1.7:判断步骤二密度图中的所有非零值锚点像素是否已经完成遍历,若密度图中的所有非零值锚点像素还未完成遍历,则返回步骤六并继续执行步骤3-1.4至步骤3-1.7,直到对所有非零值锚点像素的完成遍历,即非零值锚点像素的遍历过程只需对密度图中的非零值锚点进行计算,无需对密度图中的零值像素进行计算,能够提高对裁剪过后的子图像遍历计算效率,进而提高人群密度预警效率;若密度图中的所有非零值锚点像素已经完成遍历,使用预警图与原始图像加权生成密集区域预警效果图,能够更加直观地判定密集区域的空间位置分布,即实现对人群密集区域的人群密度进行预警;
步骤3-1.7中密集区域预警效果图的实现公式如下:
Warn=0.6×Img+0.4×Mask;
其中,Warn表示密集区域预警效果图,Img表示步骤一中获取的人群图像,Mask表示步骤3-1.7中生成的预警图。
步骤3-2:若步骤三中密度图锚点像素数量占人群图像的像素数量的百分比大于或等于50%时,则选定粗粒度预警区域标记模块对人群密集区域进行预警,包括如下步骤:
步骤3-2.1:判断输出密度图是否为全零图像,若密度图为全零,则对于该图像的处理结束,预警平台将原图像输出,并继续加载下一张人群图像;若密度图不为全零,设置初始选取区域大小[H,W]与多层级粒度感知递归总次数T,根据实际场景中对于人群密集程度的定量描述,设定人群密度阈值;
步骤3-2.1中人群密度阈值设定为1.43人每平方米,即0.70平方米每人;
步骤3-2.2:初始化递归次数t=1,标记区域Mark=0;
步骤3-2.3:确定候选区域{Proposalt(k)|k=1,…,4t-1},判断各候选区域中是否包含于标记区域中,输出未包含在标记区域Mark中的候选区域{Proposalt(k)|k=1,…,K}与候选区域的顶点坐标(h1 t(k),w1 t(k))与(h2 t(k),w2 t(k)),k=1,…,K,其中K为候选区域总数量,即只需要针对密度图中的有限候选区域进行遍历与分布计算,能够提高对裁剪过后的子图像遍历计算效率,进而提高人群密度预警效率;
步骤3-2.4:对于选定的候选区域索引k,计算候选区域面积Areat(k):
步骤3-2.5:计算候选区域密度图人数Countt(k):
步骤3-2.6:计算候选区域单位面积人数:
Count_per_squaret(k)=Countt(k)/Areat(k);
步骤3-2.7:若候选区域单位面积人数Count_per_squaret(k)大于步骤中设定的密度阈值Thre,则将预警图中超过密度阈值的候选区域像素标记为预警区域,即:
Mask(h1 t(k):w1 t(k),h2 t(k):w2 t(k))=255;
步骤3-2.8:记录Count_per_squaret(k)大于设定的密度阈值Thre的区域坐标顶点h1 t(k),w1 t(k),h2 t(k),w2 t(k),在候选区域中执行步骤六的密度阈值判别,直到遍历完成所有的候选区域;
步骤3-2.9:判断是否完成多层级粒度感知操作(t=T),若已完成感知操作,则输出区域预警图Mask;若未完成,保存本次感知操作中标记为预警区域的候选区域顶点坐标,并且继续迭代执行步骤3-2.3:至步骤3-2.8,直到完成多层级粒度感知操作。
步骤四,输出密集区域预警效果图Warn。
以上参照附图说明了本发明的优选实施例,并非因此局限本发明的权利范围。本领域技术人员不脱离本发明的范围和实质,可以有多种变型方案实现本发明,比如作为一个实施例的特征可用于另一实施例而得到又一实施例。凡在运用本发明的技术构思之内所作的任何修改、等同替换和改进,均应在本发明的权利范围之内。
Claims (4)
1.一种基于人群计数算法的密集区域预警方法,其特征在于:根据实际应用的准实时性需求,动态平衡人群密度预警效率和区域标注精确度,选定粗粒度预警区域标记模块或细粒度预警区域标记模块,实现对人群密集区域的预警,包括如下步骤,
步骤一,对摄像头采集的视频进行采样,获取人群图像;
步骤二,输入人群图像至人群计数算法中,估计当前图像对应的密度图与人数;
步骤三,判断当前对应的人群密度预警效率和精度权重,即根据步骤二中密度图中包含有非零像素值的锚点像素数量与步骤一中人群图像的像素数量,计算密度图锚点像素数量占人群图像的像素数量的百分比,作为人群密度预警效率和精度权重,选定粗粒度预警区域标记模块或细粒度预警区域标记模块对人群密度预警;
步骤三具体实现方法为,
步骤3-1实现方法步骤如下:
步骤3-1.1:若步骤三中密度图锚点像素数量占人群图像的像素数量的百分比小于50%时,选定细粒度预警区域标记模块对人群密集区域进行预警,包括如下步骤:
步骤3-1.1.1:判断输出密度图是否为全零图像,若密度图为全零,则对于该图像的处理结束,预警平台将原图像输出,并继续加载下一张人群图像;若密度图不为全零,通过标定的透视图信息依照图片的行索引值生成不同大小的滑动窗口集合,各滑动窗口的尺寸大小表示真实场景中的单位平方米;
步骤3-1.1.2:读取密度图像素中包含有非零像素值的锚点像素坐标集合,并且按照行索引值由小到大顺序排列;
步骤3-1.1.3:获取密度图中锚点像素坐标集合中所处不同行索引的索引值集合;
步骤3-1.1.4:由于不同性别与不同年龄头部尺寸的差异性,设定人头脸部尺寸标准,根据设定的人头脸部尺寸标准确定人头长宽尺寸模板;
步骤3-1.1.5:通过步骤3-1.1.3得到的行索引值集合,获取透视图中对应行索引像素的像素值,作为当前行索引下滑动窗口的高度;依据人头长宽尺寸模板中的长宽比例关系,确定不同行索引值对应的滑动窗口的宽度,并与高度尺寸一起,组成滑动窗口尺寸的集合,即通过标定的透视图信息与根据设定的人头脸部尺寸标准确定人头长宽尺寸模板,实现对现实场景与图像中像素相对位置关系的建模;
步骤3-1.2:通过步骤3-1.1.1中标定的图像透视图信息,估计场景中的实际占地面积;
步骤3-1.2估计场景中的实际占地面积采用如下公式实现:
其中:W表示步骤二中密度图像素的总列数,H表示步骤二中密度图像素的总行数,i表示密度图的行索引值,[Ratioh(i,:),Ratiow(i,:)]表示滑动窗口尺寸,Ratioh(i,:)表示滑动窗口行尺寸,Ratiow(i,:)表示滑动窗口列尺寸;
步骤3-1.3:根据实际场景中对于人群密集程度的定量描述,设定人群密度阈值;
步骤3-1.4:若图像中人群的全局密度值超过步骤3-1.3中设定的人群密度阈值,生成预警图中的所有像素均被标记为预警区域;若图像中人群的全局密度值小于步骤3-1.3设定的人群密度阈值,滑动窗口通过行索引值逐渐增大的顺序遍历密度图中的非零值像素,计算滑动窗口顶点坐标,并且在步骤二获取的密度图中裁剪出与窗口大小相同的预警待检区域;
步骤3-1.4中,若图像中人群的全局密度值小于步骤3-1.3设定的人群密度阈值,滑动窗口通过行索引值逐渐增大的顺序遍历密度图中的非零值像素,计算滑动窗口顶点坐标,并且在步骤二获取的密度图中裁剪出与窗口大小相同的预警待检区域,滑动窗口顶点坐标实现步骤如下:
h1=xn-ceil(Ratioh(xn,:)/2),
w1=yn-ceil(Ratiow(xn,:)/2),
h2=xn+ceil(Ratioh(xn,:)/2)–1,
w2=yn+ceil(Ratiow(xn,:)/2)–1,
其中:(h1,w1)与(h2,w2)分别表示滑动窗口的左上角与右下角的顶点坐标值,顶点坐标值的表现形式为(行坐标值,列坐标值),h1表示滑动窗口的左上角顶点的行坐标值,w1表示滑动窗口的左上角顶点的列坐标值,h2表示滑动窗口的右下角顶点的行坐标值,w2表示滑动窗口的右下角顶点的列坐标值,[Ratioh(i,:),Ratiow(i,:)]表示滑动窗口尺寸,Ratioh(i,:)表示滑动窗口行尺寸,Ratiow(i,:)表示滑动窗口列尺寸;
步骤3-1.5:当滑动窗口在步骤二中密度图上滑动时,在边界区域附近会有部分滑动窗口落在密度图像素之外,从而无法计算该区域的密集程度,通过滑动窗口顶点坐标的更新方法使得滑动窗口顶点坐标更新后的滑动窗口全部落在密度图之内,在自适应调整窗口尺寸的同时按比例调整该滑动窗口区域内的行人总数量,从而获得该滑动窗口区域内的人群密度值;
步骤3-1.5中滑动窗口顶点坐标的更新方法具体实现步骤如下:
步骤3-1.5.1:初始化滑动窗口宽度与高度优化的比例缩放超参数为1,即如下公式实现:
α=1,β=1;
其中:α表示滑动窗口高度尺度的比例缩放超参数,β表示滑动窗口宽度尺度的比例缩放超参数;
步骤3-1.5.2:若滑动窗口的左上角顶点的行坐标落在图像之外,即行坐标值小于1时,更新左上角顶点的行坐标值设定为1,并且滑动窗口高度尺度的比例缩放超参数按照更新后的窗口高度尺度与原尺度的变化比例放大,即如下公式实现:
α=α×Ratioh(xn,:)/h2,
其中:xn表示滑动窗口的中心点行坐标值,h2表示滑动窗口的右下角顶点的行坐标值;
步骤3-1.5.3:若滑动窗口的左上角顶点的列坐标落在图像之外,即列坐标值小于1时,更新左上角顶点的列坐标值设定为1,并且滑动窗口宽度尺度的比例缩放超参数按照更新后的窗口宽度尺度与原尺度的变化比例放大,即如下公式实现:
β=β×Ratiow(xn,:)/w2,
其中w2表示滑动窗口的右下角顶点的列坐标值;
步骤3-1.5.4:若滑动窗口的右下角顶点的行坐标落在图像之外,即行坐标值大于图像总高度时,更新右下角顶点的行坐标值设定为图像总高度,并且滑动窗口高度尺度的比例缩放超参数按照更新后的窗口高度尺度与原尺度的变化比例放大,即如下公式实现:
α=α×Ratioh(xn,:)/(H–h1+1),
其中:H表示步骤二中密度图像素的总行数,h1表示滑动窗口的左上角顶点的行坐标值;
步骤3-1.5.5:若滑动窗口的右下角顶点的列坐标落在图像之外,即列坐标值大于图像总宽度时,更新右下角顶点的列坐标值设定为图像总宽度,并且滑动窗口宽度尺度的比例缩放超参数按照更新后的窗口宽度尺度与原尺度的变化比例放大,即如下公式实现:
β=β×Ratiow(xn,:)/(W–w1+1),
其中:W表示步骤二中密度图像素的总列数,w1表示滑动窗口的左上角顶点的列坐标值;
步骤3-1.5.6:计算更新后滑动窗口内的总人数,并且通过与比例缩放超参数的乘积校正,获得归一化后的单位面积内的人群密度值,即如下公式实现:
Count_per_square=α×β×Count,
其中:Count表示滑动窗口经过滑动窗口顶点坐标的更新方法之后,内部所包含的总人数,Count_per_square表示滑动窗口内部所包含的总人数经过与比例缩放超参数的乘积校正之后,内部所包含的总人数,即人群密度,D表示步骤二中的密度图;
步骤3-1.6:判断待检区域内的人群密度是否超过设定的密度阈值,并将预警图中超过密度阈值的窗口区域像素标记为预警区域;
步骤3-1.7:判断步骤二密度图中的所有非零值锚点像素是否已经完成遍历,若密度图中的所有非零值锚点像素还未完成遍历,则返回步骤六并继续执行步骤3-1.4至步骤3-1.7,直到对所有非零值锚点像素的完成遍历;若密度图中的所有非零值锚点像素已经完成遍历,使用预警图与原始图像加权生成密集区域预警效果图;
步骤3-1.7中密集区域预警效果图的实现公式如下:
Warn=0.6×Img+0.4×Mask;
其中,Warn表示密集区域预警效果图,Img表示步骤一中获取的人群图像,Mask表示步骤3-1.7中生成的预警图;
步骤3-2:若步骤三中密度图锚点像素数量占人群图像的像素数量的百分比大于或等于50%时,则选定粗粒度预警区域标记模块对人群密集区域进行预警
步骤3-2实现方法包括如下步骤,
步骤3-2.1:判断输出密度图是否为全零图像,若密度图为全零,则对于该图像的处理结束,预警平台将原图像输出,并继续加载下一张人群图像;若密度图不为全零,设置初始选取区域大小[H,W]与多层级粒度感知递归总次数T,根据实际场景中对于人群密集程度的定量描述,设定人群密度阈值;
步骤3-2.2:初始化递归次数t=1,标记区域Mark=0;
步骤3-2.3:确定候选区域{Proposalt(k)|k=1,...,4t-1},判断各候选区域中是否包含于标记区域中,输出未包含在标记区域Mark中的候选区域{Proposalt(k)|k=1,...,K}与候选区域的顶点坐标(h1 t(k),w1 t(k))与(h2 t(k),w2 t(k)),k=1,...,K,其中K为候选区域总数量;
步骤3-2.4:对于选定的候选区域索引k,计算候选区域面积Areat(k):
步骤3-2.5:计算候选区域密度图人数Countt(k):
步骤3-2.6:计算候选区域单位面积人数:
Count_per_squaret(k)=Countt(k)/Areat(k);
步骤3-2.7:若候选区域单位面积人数Count_per_squaret(k)大于设定的密度阈值Thre,则将预警图中超过密度阈值的候选区域像素标记为预警区域,即:
Mask(h1 t(k):w1 t(k),h2 t(k):w2 t(k))=255;
步骤3-2.8:记录Count_per_squaret(k)大于设定的密度阈值Thre的区域坐标顶点h1 t(k),w1 t(k),h2 t(k),w2 t(k),在候选区域中执行步骤六的密度阈值判别,直到遍历完成所有的候选区域;
步骤3-2.9:判断是否完成多层级粒度感知操作,若已完成感知操作,则输出区域预警图Mask;若未完成,保存本次感知操作中标记为预警区域的候选区域顶点坐标,并且继续迭代执行步骤3-2.3至步骤3-2.8,直到完成多层级粒度感知操作;
步骤四,输出密集区域预警效果图,实现对人群密集区域的预警。
2.如权利要求1所述的一种基于人群计数算法的密集区域预警方法,其特征在于:步骤三中,根据人群密度预警效率和精度权重选定粗粒度预警区域标记模块或细粒度预警区域标记模块对人群密度预警,若密度图锚点像素数量占人群图像的像素数量的百分比小于50%时,选定细粒度预警区域标记模块对人群密集区域进行预警,若密度图锚点像素数量占人群图像的像素数量的百分比大于或等于50%时,选定粗粒度预警区域标记模块对人群密集区域进行预警。
3.如权利要求1所述的一种基于人群计数算法的密集区域预警方法,其特征在于:
步骤3-1.1.1中,若步骤二中获取的密度图不为全零图像,通过标定的透视图信息依照图片的行索引值生成不同大小的滑动窗口集合;
步骤3.1.1.4中设定人头脸部尺寸标准为国家标准;
步骤3-1.3中人群密度阈值设定为1.33-1.54人每平方米,即0.65-0.75平方米每人。
4.如权利要求1或2所述的一种基于人群计数算法的密集区域预警方法,其特征在于:步骤3-2.1中人群密度阈值设定为1.33-1.54人每平方米,即0.65-0.75平方米每人。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911422327.7A CN111144377B (zh) | 2019-12-31 | 2019-12-31 | 一种基于人群计数算法的密集区域预警方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911422327.7A CN111144377B (zh) | 2019-12-31 | 2019-12-31 | 一种基于人群计数算法的密集区域预警方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111144377A CN111144377A (zh) | 2020-05-12 |
CN111144377B true CN111144377B (zh) | 2023-05-16 |
Family
ID=70523054
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911422327.7A Active CN111144377B (zh) | 2019-12-31 | 2019-12-31 | 一种基于人群计数算法的密集区域预警方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111144377B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112560829B (zh) * | 2021-02-25 | 2021-06-04 | 腾讯科技(深圳)有限公司 | 人群数量确定方法、装置、设备及存储介质 |
CN114092890B (zh) * | 2022-01-20 | 2022-04-12 | 长沙海信智能系统研究院有限公司 | 区域内可容纳人数的确定方法、装置、设备及介质 |
CN114972111B (zh) * | 2022-06-16 | 2023-01-10 | 慧之安信息技术股份有限公司 | 一种基于gan图像修复的密集人群计数方法 |
CN117911949B (zh) * | 2024-01-19 | 2024-06-11 | 北京易融信达科技有限公司 | 一种风险智能评估方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104268528A (zh) * | 2014-09-28 | 2015-01-07 | 深圳市科松电子有限公司 | 一种人群聚集区域检测方法和装置 |
CN107832912A (zh) * | 2017-10-09 | 2018-03-23 | 中国电子科技集团公司第二十八研究所 | 一种密集人群风险分析方法及系统 |
CN109241895A (zh) * | 2018-08-28 | 2019-01-18 | 北京航空航天大学 | 密集人群计数方法及装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018011944A1 (ja) * | 2016-07-14 | 2018-01-18 | 三菱電機株式会社 | 群集監視装置、および、群集監視システム |
-
2019
- 2019-12-31 CN CN201911422327.7A patent/CN111144377B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104268528A (zh) * | 2014-09-28 | 2015-01-07 | 深圳市科松电子有限公司 | 一种人群聚集区域检测方法和装置 |
CN107832912A (zh) * | 2017-10-09 | 2018-03-23 | 中国电子科技集团公司第二十八研究所 | 一种密集人群风险分析方法及系统 |
CN109241895A (zh) * | 2018-08-28 | 2019-01-18 | 北京航空航天大学 | 密集人群计数方法及装置 |
Non-Patent Citations (3)
Title |
---|
Junjie Ma 等.Atrous convolutions spatial pyramid network for crowd counting and density estimation.《Neurocomputing》.2019,第91-101页. * |
Miklas S.Kristoffersen等.Pedestrian counting with occlusion hangling using stereo thermal cameras.《Sensors》.2016,第1-15页. * |
陈涵奇 等.采用STLK算法的高密度人群行人计数.《长春理工大学学报 (自然科学版)》.2017,第40卷(第40期),第122-124,129页. * |
Also Published As
Publication number | Publication date |
---|---|
CN111144377A (zh) | 2020-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111144377B (zh) | 一种基于人群计数算法的密集区域预警方法 | |
CN107256225B (zh) | 一种基于视频分析的热度图生成方法及装置 | |
CN108564085B (zh) | 一种自动读取指针式仪表读数的方法 | |
CN110287826B (zh) | 一种基于注意力机制的视频目标检测方法 | |
CN107103320B (zh) | 嵌入式医疗数据图像识别及集成方法 | |
CN106991686B (zh) | 一种基于超像素光流场的水平集轮廓跟踪方法 | |
CN110910421B (zh) | 基于分块表征和可变邻域聚类的弱小运动目标检测方法 | |
CN109840483B (zh) | 一种滑坡裂缝检测与识别的方法及装置 | |
JP7450848B2 (ja) | マシン視覚に基づく透明度検出方法 | |
CN106157330B (zh) | 一种基于目标联合外观模型的视觉跟踪方法 | |
CN103377468A (zh) | 图像处理装置及图像处理方法 | |
US20170178341A1 (en) | Single Parameter Segmentation of Images | |
CN111323788B (zh) | 建筑物变化的监测方法、装置及计算机设备 | |
CN112991269A (zh) | 一种肺部ct图像的识别分类方法 | |
CN106780727B (zh) | 一种车头检测模型重建方法及装置 | |
CN107944403A (zh) | 一种图像中的行人属性检测方法及装置 | |
CN109741358B (zh) | 基于自适应超图学习的超像素分割方法 | |
CN104599288A (zh) | 一种基于肤色模板的特征跟踪方法及装置 | |
CN111401301A (zh) | 人员着装监控方法、装置、设备及存储介质 | |
CN108765463B (zh) | 一种结合区域提取与改进纹理特征的运动目标检测方法 | |
CN111178193A (zh) | 一种车道线的检测方法、检测装置及计算机可读存储介质 | |
CN115797607A (zh) | 一种增强vr真实效果的图像优化处理方法 | |
CN115330818A (zh) | 一种图片分割方法及其计算机可读存储介质 | |
CN112686872B (zh) | 基于深度学习的木材计数方法 | |
CN117636268A (zh) | 一种面向冰雪环境的无人机航拍自然驾驶数据集构建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |