CN111382720A - 基于顶视单目摄像机的人员数量的实时统计方法及装置 - Google Patents
基于顶视单目摄像机的人员数量的实时统计方法及装置 Download PDFInfo
- Publication number
- CN111382720A CN111382720A CN202010194036.3A CN202010194036A CN111382720A CN 111382720 A CN111382720 A CN 111382720A CN 202010194036 A CN202010194036 A CN 202010194036A CN 111382720 A CN111382720 A CN 111382720A
- Authority
- CN
- China
- Prior art keywords
- line
- target
- human head
- detection
- monocular camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000007619 statistical method Methods 0.000 title claims description 4
- 238000001514 detection method Methods 0.000 claims abstract description 124
- 238000002156 mixing Methods 0.000 claims abstract description 85
- 238000013135 deep learning Methods 0.000 claims abstract description 18
- 238000000034 method Methods 0.000 claims abstract description 15
- 230000006399 behavior Effects 0.000 claims description 30
- 230000009286 beneficial effect Effects 0.000 description 4
- 238000001914 filtration Methods 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30242—Counting objects in image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了基于顶视单目摄像机的人员数量的实时统计方法及装置。所述方法包括:获取单目摄像机采集的图像;其中,所述单目摄像机以顶视角度安装于场所出入口处,所述图像包括检测区域、统计区域和拌线;通过深度学习算法模型检测所述检测区域内的人头目标,并对所述人头目标进行拌线检测;根据拌线检测结果,统计所述统计区域内的所述人头目标数。本发明能够高效准确地进行人员检测,实现实时统计人员数量。
Description
技术领域
本发明涉及安全监控技术领域,尤其涉及一种基于顶视单目摄像机的人员数量的实时统计方法及装置。
背景技术
目前,为实现安全监控,常在银行加钞间等某些特定场所内安装摄像机,以根据摄像机采集的图像数据进行人员检测,从而监控场所内的人员数量。比如:在场所内天花板处以俯视角度安装一个或多个普通摄像机,以基于深度学习算法,对所有普通摄像机采集的监控视频进行人员检测,实现实时统计人员数量;在场所内天花板处以俯视角度安装一个或多个双目摄像机,以根据所有双目摄像机获取的景深信息进行人形检测,实现实时统计人员数量。
若只在场所内天花板处以俯视角度安装一个普通摄像机,会存在拍摄盲区且人物容易重叠遮挡,导致人员漏检,而若安装多个普通摄像机,则需要对多个普通摄像机采集的图像数据进行融合去重,增加了算法的复杂度及项目实施成本。虽然选用双目摄像机替代普通摄像机,可以有效解决人物重叠遮挡问题,但同样地,安装一个双目摄像机时会存在拍摄盲区导致人员漏检,安装多个双目摄像机时会增加算法的复杂度及项目实施成本。面对现有技术的不足,仍需要研究如何高效准确地进行人员检测,实现实时统计人员数量。
发明内容
本发明提供一种基于顶视单目摄像机的人员数量的实时统计方法及装置,能够高效准确地进行人员检测,实现实时统计人员数量。
为了解决上述技术问题,本发明一实施例提供一种基于顶视单目摄像机的人员数量的实时统计方法,包括:
获取单目摄像机采集的图像;其中,所述单目摄像机以顶视角度安装于场所出入口处,所述图像包括检测区域、统计区域和拌线;
通过深度学习算法模型检测所述检测区域内的人头目标,并对所述人头目标进行拌线检测;
根据拌线检测结果,统计所述统计区域内的所述人头目标数。
进一步地,所述深度学习算法模型包括MobileNet V2_SSD模型。
进一步地,所述对所述人头目标进行拌线检测,具体为:
通过KCF跟踪算法跟踪所述人头目标,得到所述人头目标的两帧图像;
根据所述两帧图像,对所述人头目标进行拌线检测。
进一步地,所述根据所述两帧图像,对所述人头目标进行拌线检测,具体为:
根据所述两帧图像中所述人头目标的坐标,以及所述拌线的坐标,检测所述目标人头的移动轨迹,并根据所述移动轨迹判断所述目标人头的越线行为;其中,所述越线行为包括正向越线进入所述统计区域、逆向越线离开所述统计区域,在所述统计区域内正向或逆向越线。
进一步地,所述拌线包括竖直直线、水平直线和倾斜直线。
本发明另一实施例提供一种基于顶视单目摄像机的人员数量的实时统计装置,包括:
图像获取模块,用于获取单目摄像机采集的图像;其中,所述单目摄像机以顶视角度安装于场所出入口处,所述图像包括检测区域、统计区域和拌线;
目标检测模块,用于通过深度学习算法模型检测所述检测区域内的人头目标,并对所述人头目标进行拌线检测;
目标统计模块,用于根据拌线检测结果,统计所述统计区域内的所述人头目标数。
进一步地,所述深度学习算法模型包括MobileNet V2_SSD模型。
进一步地,所述目标检测模块,包括:
目标跟踪单元,用于通过KCF跟踪算法跟踪所述人头目标,得到所述人头目标的两帧图像;
目标检测单元,用于根据所述两帧图像,对所述人头目标进行拌线检测。
进一步地,所述根据所述两帧图像,对所述人头目标进行拌线检测,具体为:
根据所述两帧图像中所述人头目标的坐标,以及所述拌线的坐标,检测所述目标人头的移动轨迹,并根据所述移动轨迹判断所述目标人头的越线行为;其中,所述越线行为包括正向越线进入所述统计区域、逆向越线离开所述统计区域,在所述统计区域内正向或逆向越线。
进一步地,所述拌线包括竖直直线、水平直线和倾斜直线。
本发明的实施例,具有如下有益效果:
在获取以顶视角度安装于场所出入口处的单目摄像机采集的图像后,通过在图像中绘制检测区域、统计区域和拌线,进而通过深度学习算法模型检测图像中检测区域内的人头目标,并对人头目标进行拌线检测,从而根据拌线检测结果,统计图像中统计区域内的人头目标数,即统计人员数量。本发明通过将单目摄像机以顶视角度安装在场所出入口处,使单目摄像机以顶视角度拍摄图像,能够避免因人员重复遮挡导致的人员漏检问题,通过在图像中绘制检测区域、统计区域和拌线,利用深度学习算法模型检测图像中检测区域内的人头目标后,对人头目标进行拌线检测,以根据拌线检测结果统计图像中统计区域内的人头目标数,实现实时统计人员数量。相比于现有技术,本发明选用单目摄像机拍摄图像,并将单目摄像机以顶视角度安装在场所出入口处,使得通过深度学习算法模型即可进行人员检测,不仅能够避免人员漏检,提高人员检测的准确度,还能够降低算法的复杂度,压缩项目实施成本,从而高效准确地进行人员检测,实现实时统计人员数量。
附图说明
图1为本发明第一实施例中的一种基于顶视单目摄像机的人员数量的实时统计方法的流程示意图;
图2为本发明第一实施例中的MobileNet V2_SSD模型的流程示意图;
图3为本发明第一实施例中的优选实施例的流程示意图;
图4为本发明第二实施例中的一种基于顶视单目摄像机的人员数量的实时统计装置的结构示意图。
具体实施方式
下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,文中的步骤编号,仅为了方便具体实施例的解释,不作为限定步骤执行先后顺序的作用。本实施例提供的方法可以由相关的服务器执行,且下文均以服务器作为执行主体为例进行说明。
请参阅图1-3。
如图1所示,第一实施例提供一种基于顶视单目摄像机的人员数量的实时统计方法,包括步骤S1~S3:
S1、获取单目摄像机采集的图像;其中,所述单目摄像机以顶视角度安装于场所出入口处,所述图像包括检测区域、统计区域和拌线。
S2、通过深度学习算法模型检测所述检测区域内的人头目标,并对所述人头目标进行拌线检测。
S3、根据拌线检测结果,统计所述统计区域内的所述人头目标数。
需要说明的是,单目摄像机以顶视角度安装于场所出入口处,即单目摄像机的镜头向下垂直90°安装于场所出入口的天花板等位置。
在本实施中,将单目摄像机以顶视角度安装在场所出入口处,使得单目摄像机只能从上往下拍摄图像,即只能拍摄到进出人员的人头图像。由于人员人头重叠遮挡的概率较低,将单目摄像机以顶视角度安装在场所出入口处,能够有效避免因人员重叠遮挡导致的人员漏检问题,提高人员检测的准确度。
在获取单目摄像机采集的图像后,通过在图像中绘制检测区域、统计区域和拌线,进而通过深度学习算法模型检测图像中检测区域内的人头目标,并对人头目标进行拌线检测,从而根据拌线检测结果,统计图像中统计区域内的人头目标数,即统计人员数量。
可以理解的是,通过在图像中绘制检测区域、统计区域和拌线,利用深度学习算法模型检测图像中检测区域内的人头目标后,对人头目标进行拌线检测,以根据拌线检测结果统计图像中统计区域内的人头目标数,实现实时统计人员数量。
在本实施的一种优选的实施方式中,遵循从左到右或从上到下绘制拌线。绘制的检测区域用于检测图像中的人头目标,绘制的拌线用于进行拌线检测,绘制的统计区域用于统计图像中的人头目标数。
在图像中绘制两个区域,并对统计区域内的人头目标进行计数,能够防止人员在拌线附近来回徘徊而干扰计数,有利于保证统计结果的准确度。
本实施例选用单目摄像机拍摄图像,并将单目摄像机以顶视角度安装在场所出入口处,使得通过深度学习算法模型即可进行人员检测,不仅能够避免人员漏检,提高人员检测的准确度,还能够降低算法的复杂度,压缩项目实施成本,从而高效准确地进行人员检测,实现实时统计人员数量。
在优选的实施例当中,所述深度学习算法模型包括MobileNet V2_SSD模型。
例如,如图2所示,选用MobileNet V2_SSD模型进行人员检测。
将分辨率为300*300的图像输入MobileNet V2_SSD模型,该模型在前面卷积层中使用MobileNet V2基础网络,从第13个bottleneck(倒残差)网络开始,作为第一个特征图进行检测,接MobileNet V2的第14-16个bottleneck网络后,在第16个bottleneck网络后执行一个卷积1*1的卷积操作(卷积操作1),将得到的特征图作为第二层预测输出,再对特征图进行1*1卷积操作、3*3的深度可分离卷积操作和1*1卷积操作(卷积操作2),将得到的特征图作为第三层预测输出。根据类别和置信度,确定输出的特征图中每个预测框的类别以及置信度值,并根据置信度阈值过滤阈值较低的预测框。对保留的预测框进行解码得到其真实的位置参数。在预测框解码后,根据置信度值进行降序排列,保留置信度排在前N的预测框,最后通过NMS极大值抑制算法过滤重叠度较大的预测框,剩余的预测框作为检测结果输出,即人头目标。
本实施例选用MobileNet V2_SSD模型进行人员检测,有利于提高人员检测的准确度。
如图3所示,在优选的实施例当中,所述步骤S2,包括步骤S21~S22:
S21、通过KCF跟踪算法跟踪所述人头目标,得到所述人头目标的两帧图像。
S22、根据所述两帧图像,对所述人头目标进行拌线检测。
KCF跟踪算法是在跟踪过程中训练一个目标检测器,使用该目标检测器去检测下一帧图像中预测位置是否为人头目标,然后再用新的检测结果去更新训练集进而更新目标检测器。
通过KCF跟踪算法跟踪人头目标,给人头目标分配ID。为避免人头目标跟踪失败和人头目标漏检,增加一种策略。该策略在人头目标跟踪失败时,将上一帧图像跟踪失败的跟踪框与当前帧图像检测到的所有人头框进行iou匹配,获取当前帧图像中具有最大重叠度的人头框,并当该重叠度大于预设阈值T,认为该人头框与上一帧图像跟踪失败的跟踪框匹配,属于同一目标ID,则将该人头框作为该人头目标的跟踪结果,从而在检测到跟踪失败的人头目标的情况下,能够通过KCF跟踪算法继续跟踪之前跟踪失败的人头目标。同样地,该策略在人头目标漏检时,将当前帧图像中的跟踪框作为上一帧图像漏检的人头框,从而在跟踪到漏检的人头目标的情况下,能够通过KCF跟踪算法跟踪之前漏检的人头目标。
本实施例选用KCF跟踪算法跟踪人头目标以对人头目标进行拌线检测,能够避免人头目标跟踪失败和人头目标漏检,有利于提高人员检测的准确度。
在优选的实施例中,所述步骤S22,具体为:根据所述两帧图像中所述人头目标的坐标,以及所述拌线的坐标,检测所述目标人头的移动轨迹,并根据所述移动轨迹判断所述目标人头的越线行为;其中,所述越线行为包括正向越线进入所述统计区域、逆向越线离开所述统计区域,在所述统计区域内正向或逆向越线。
根据上一帧图像和当前帧图像中同一人头目标的坐标,检测该人头目标的移动轨迹,以及根据拌线的起点坐标和终点坐标,判断该人头目标的移动轨迹与拌线的位置关系并返回一个值,从而判断该人头目标的越线行为,即正向越线进入统计区域、逆向越线离开统计区域,在统计区域内正向或逆向越线。
本实施例通过跟踪人头目标检测该人头目标的移动轨迹,并判断该人头目标的越线行为,能够实现实时统计人员数量。
在优选的实施例当中,所述拌线包括竖直直线、水平直线和倾斜直线。
假设上一帧图像中人头目标的坐标为(Xp,Yp),当前帧图像中人头目标的坐标为(Xc,Yc),拌线的起点坐标为(Xb,Yb),拌线的终点坐标为(Xe,Ye),判断位置关系的返回值为R。
当拌线为竖直直线,即为垂直于X轴的直线时,默认X轴正方向为进入方向,若Xp<Xb且Xc≥Xb,则认为该人头目标的越线行为是正向越线进入统计区域,返回R=direction=1;若Xp≥Xb且Xc<Xb,则认为该人头目标的越线行为是逆向越线离开统计区域,返回R=-direction=-1;若为其他情况,则认为该人头目标依旧在统计区域内,返回R=0。
当拌线为水平直线,即为垂直于Y轴的直线时,默认Y轴正方向为进入方向,若Yp<Yb且Yc≥Yb,则认为该人头目标的越线行为是正向越线进入统计区域,返回R=direction=1;若Yp≥Yb且Yc<Yb,则认为该人头目标的越线行为是逆向越线离开统计区域,返回R=-direction=-1;若为其他情况,则认为该人头目标依旧在统计区域内,返回R=0。
当拌线为倾斜直线,即斜率为K=(Ye-Yb)/(Xe-Xb)的直线时,默认Y轴正方向为进入方向,计算上一帧图像中人头目标与拌线起点所连直线的斜率Kp=(Ye-Yp)/(Xe–Xp),以及当前帧图像中人头目标与拌线起点所连直线的斜率Kc=(Ye-Yc)/(Xe–Xc),若Kp<K且Kc≥K,则认为该人头目标的越线行为是正向越线进入统计区域,返回R=direction=1;若Kp≥K且Kc<K,则认为该人头目标的越线行为是逆向越线离开统计区域,返回R=-direction=-1;若为其他情况,则认为该人头目标依旧在统计区域内,返回R=0。
根据拌线检测结果,统计图像中统计区域内的人头目标数。
假设进入人员数量为PE,离开人员数量为PL。
当检测到人头目标进入统计区域时,更新进入人员数量PE,当检测到该人头目标在统计区域内穿越拌线但未离开统计区域,将该人头目标的计数变量N加上返回值R,当该人头目标离开统计区域,更新进入人员数量PE和离开人员数量PL。具体地,如果该人头目标的计数变量N>0,则PE=PE+N,否则PL=PL-N。
经统计,场所内的人员数量PN=PE-PL。
请参阅图4。
如图4所示,第二实施例提供一种基于顶视单目摄像机的人员数量的实时统计装置,包括:
图像获取模块21,用于获取单目摄像机采集的图像;其中,所述单目摄像机以顶视角度安装于场所出入口处,所述图像包括检测区域、统计区域和拌线;
目标检测模块22,用于通过深度学习算法模型检测所述检测区域内的人头目标,并对所述人头目标进行拌线检测;
目标统计模块23,用于根据拌线检测结果,统计所述统计区域内的所述人头目标数。
需要说明的是,单目摄像机以顶视角度安装于场所出入口处,即单目摄像机的镜头向下垂直90°安装于场所出入口的天花板等位置。
在本实施中,将单目摄像机以顶视角度安装在场所出入口处,使得单目摄像机只能从上往下拍摄图像,即只能拍摄到进出人员的人头图像。由于人员人头重叠遮挡的概率较低,将单目摄像机以顶视角度安装在场所出入口处,能够有效避免因人员重叠遮挡导致的人员漏检问题,提高人员检测的准确度。
通过图像获取模块21获取单目摄像机采集的图像,并在获取单目摄像机采集的图像后,在图像中绘制检测区域、统计区域和拌线,进而通过目标检测模块22,利用深度学习算法模型检测图像中检测区域内的人头目标,并对人头目标进行拌线检测,从而通过目标统计模块23,根据拌线检测结果,统计图像中统计区域内的人头目标数,即统计人员数量。
可以理解的是,通过在图像中绘制检测区域、统计区域和拌线,利用深度学习算法模型检测图像中检测区域内的人头目标后,对人头目标进行拌线检测,以根据拌线检测结果统计图像中统计区域内的人头目标数,实现实时统计人员数量。
在本实施的一种优选的实施方式中,遵循从左到右或从上到下绘制拌线。绘制的检测区域用于检测图像中的人头目标,绘制的拌线用于进行拌线检测,绘制的统计区域用于统计图像中的人头目标数。
在图像中绘制两个区域,并对统计区域内的人头目标进行计数,能够防止人员在拌线附近来回徘徊而干扰计数,有利于保证统计结果的准确度。
本实施例选用单目摄像机拍摄图像,并将单目摄像机以顶视角度安装在场所出入口处,使得通过深度学习算法模型即可进行人员检测,不仅能够避免人员漏检,提高人员检测的准确度,还能够降低算法的复杂度,压缩项目实施成本,从而高效准确地进行人员检测,实现实时统计人员数量。
在优选的实施例当中,所述深度学习算法模型包括MobileNet V2_SSD模型。
例如,选用MobileNet V2_SSD模型进行人员检测。
将分辨率为300*300的图像输入MobileNet V2_SSD模型,该模型在前面卷积层中使用MobileNet V2基础网络,从第13个bottleneck(倒残差)网络开始,作为第一个特征图进行检测,接MobileNet V2的第14-16个bottleneck网络后,在第16个bottleneck网络后执行一个卷积1*1的卷积操作(卷积操作1),将得到的特征图作为第二层预测输出,再对特征图进行1*1卷积操作、3*3的深度可分离卷积操作和1*1卷积操作(卷积操作2),将得到的特征图作为第三层预测输出。根据类别和置信度,确定输出的特征图中每个预测框的类别以及置信度值,并根据置信度阈值过滤阈值较低的预测框。对保留的预测框进行解码得到其真实的位置参数。在预测框解码后,根据置信度值进行降序排列,保留置信度排在前N的预测框,最后通过NMS极大值抑制算法过滤重叠度较大的预测框,剩余的预测框作为检测结果输出,即人头目标。
本实施例选用MobileNet V2_SSD模型进行人员检测,有利于提高人员检测的准确度。
在本实施例中,所述目标检测模块22,包括:目标跟踪单元221,用于通过KCF跟踪算法跟踪所述人头目标,得到所述人头目标的两帧图像;目标检测单元222,用于根据所述两帧图像,对所述人头目标进行拌线检测。
KCF跟踪算法是在跟踪过程中训练一个目标检测器,使用该目标检测器去检测下一帧图像中预测位置是否为人头目标,然后再用新的检测结果去更新训练集进而更新目标检测器。
通过目标跟踪单元221,利用KCF跟踪算法跟踪人头目标,给人头目标分配ID。为避免人头目标跟踪失败和人头目标漏检,增加一种策略。该策略在人头目标跟踪失败时,将上一帧图像跟踪失败的跟踪框与当前帧图像检测到的所有人头框进行iou匹配,获取当前帧图像中具有最大重叠度的人头框,并当该重叠度大于预设阈值T,认为该人头框与上一帧图像跟踪失败的跟踪框匹配,属于同一目标ID,则将该人头框作为该人头目标的跟踪结果,从而在检测到跟踪失败的人头目标的情况下,能够通过KCF跟踪算法继续跟踪之前跟踪失败的人头目标。同样地,该策略在人头目标漏检时,将当前帧图像中的跟踪框作为上一帧图像漏检的人头框,从而在跟踪到漏检的人头目标的情况下,能够通过KCF跟踪算法跟踪之前漏检的人头目标。
本实施例选用KCF跟踪算法跟踪人头目标以对人头目标进行拌线检测,能够避免人头目标跟踪失败和人头目标漏检,有利于提高人员检测的准确度。
在优选的实施例当中,所述根据所述两帧图像,对所述人头目标进行拌线检测,具体为:根据所述两帧图像中所述人头目标的坐标,以及所述拌线的坐标,检测所述目标人头的移动轨迹,并根据所述移动轨迹判断所述目标人头的越线行为;其中,所述越线行为包括正向越线进入所述统计区域、逆向越线离开所述统计区域,在所述统计区域内正向或逆向越线。
通过目标检测单元222,根据上一帧图像和当前帧图像中同一人头目标的坐标,检测该人头目标的移动轨迹,以及根据拌线的起点坐标和终点坐标,判断该人头目标的移动轨迹与拌线的位置关系并返回一个值,从而判断该人头目标的越线行为,即正向越线进入统计区域、逆向越线离开统计区域,在统计区域内正向或逆向越线。
本实施例通过跟踪人头目标检测该人头目标的移动轨迹,并判断该人头目标的越线行为,能够实现实时统计人员数量。
在优选的实施例当中,所述拌线包括竖直直线、水平直线和倾斜直线。
假设上一帧图像中人头目标的坐标为(Xp,Yp),当前帧图像中人头目标的坐标为(Xc,Yc),拌线的起点坐标为(Xb,Yb),拌线的终点坐标为(Xe,Ye),判断位置关系的返回值为R。
当拌线为竖直直线,即为垂直于X轴的直线时,默认X轴正方向为进入方向,若Xp<Xb且Xc≥Xb,则认为该人头目标的越线行为是正向越线进入统计区域,返回R=direction=1;若Xp≥Xb且Xc<Xb,则认为该人头目标的越线行为是逆向越线离开统计区域,返回R=-direction=-1;若为其他情况,则认为该人头目标依旧在统计区域内,返回R=0。
当拌线为水平直线,即为垂直于Y轴的直线时,默认Y轴正方向为进入方向,若Yp<Yb且Yc≥Yb,则认为该人头目标的越线行为是正向越线进入统计区域,返回R=direction=1;若Yp≥Yb且Yc<Yb,则认为该人头目标的越线行为是逆向越线离开统计区域,返回R=-direction=-1;若为其他情况,则认为该人头目标依旧在统计区域内,返回R=0。
当拌线为倾斜直线,即斜率为K=(Ye-Yb)/(Xe-Xb)的直线时,默认Y轴正方向为进入方向,计算上一帧图像中人头目标与拌线起点所连直线的斜率Kp=(Ye-Yp)/(Xe–Xp),以及当前帧图像中人头目标与拌线起点所连直线的斜率Kc=(Ye-Yc)/(Xe–Xc),若Kp<K且Kc≥K,则认为该人头目标的越线行为是正向越线进入统计区域,返回R=direction=1;若Kp≥K且Kc<K,则认为该人头目标的越线行为是逆向越线离开统计区域,返回R=-direction=-1;若为其他情况,则认为该人头目标依旧在统计区域内,返回R=0。
根据拌线检测结果,统计图像中统计区域内的人头目标数。
假设进入人员数量为PE,离开人员数量为PL。
当检测到人头目标进入统计区域时,更新进入人员数量PE,当检测到该人头目标在统计区域内穿越拌线但未离开统计区域,将该人头目标的计数变量N加上返回值R,当该人头目标离开统计区域,更新进入人员数量PE和离开人员数量PL。具体地,如果该人头目标的计数变量N>0,则PE=PE+N,否则PL=PL-N。
经统计,场所内的人员数量PN=PE-PL。
综上所述,本实施例具有如下有益效果:
在获取以顶视角度安装于场所出入口处的单目摄像机采集的图像后,通过在图像中绘制检测区域、统计区域和拌线,进而通过深度学习算法模型检测图像中检测区域内的人头目标,并对人头目标进行拌线检测,从而根据拌线检测结果,统计图像中统计区域内的人头目标数,即统计人员数量。本实施例通过将单目摄像机以顶视角度安装在场所出入口处,使单目摄像机以顶视角度拍摄图像,能够避免因人员重复遮挡导致的人员漏检问题,通过在图像中绘制检测区域、统计区域和拌线,利用深度学习算法模型检测图像中检测区域内的人头目标后,对人头目标进行拌线检测,以根据拌线检测结果统计图像中统计区域内的人头目标数,实现实时统计人员数量。本实施例选用单目摄像机拍摄图像,并将单目摄像机以顶视角度安装在场所出入口处,使得通过深度学习算法模型即可进行人员检测,不仅能够避免人员漏检,提高人员检测的准确度,还能够降低算法的复杂度,压缩项目实施成本,从而高效准确地进行人员检测,实现实时统计人员数量。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围。
本领域普通技术人员可以理解实现上述实施例中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random Access Memory,RAM)等。
Claims (10)
1.一种基于顶视单目摄像机的人员数量的实时统计方法,其特征在于,包括:
获取单目摄像机采集的图像;其中,所述单目摄像机以顶视角度安装于场所出入口处,所述图像包括检测区域、统计区域和拌线;
通过深度学习算法模型检测所述检测区域内的人头目标,并对所述人头目标进行拌线检测;
根据拌线检测结果,统计所述统计区域内的所述人头目标数。
2.如权利要求1所述的基于顶视单目摄像机的人员数量的实时统计方法,其特征在于,所述深度学习算法模型包括MobileNet V2_SSD模型。
3.如权利要求1所述的基于顶视单目摄像机的人员数量的实时统计方法,其特征在于,所述对所述人头目标进行拌线检测,具体为:
通过KCF跟踪算法跟踪所述人头目标,得到所述人头目标的两帧图像;
根据所述两帧图像,对所述人头目标进行拌线检测。
4.如权利要求3所述的基于顶视单目摄像机的人员数量的实时统计方法,其特征在于,所述根据所述两帧图像,对所述人头目标进行拌线检测,具体为:
根据所述两帧图像中所述人头目标的坐标,以及所述拌线的坐标,检测所述目标人头的移动轨迹,并根据所述移动轨迹判断所述目标人头的越线行为;其中,所述越线行为包括正向越线进入所述统计区域、逆向越线离开所述统计区域,在所述统计区域内正向或逆向越线。
5.如权利要求1所述的基于顶视单目摄像机的人员数量的实时统计方法,其特征在于,所述拌线包括竖直直线、水平直线和倾斜直线。
6.一种基于顶视单目摄像机的人员数量的实时统计装置,其特征在于,包括:
图像获取模块,用于获取单目摄像机采集的图像;其中,所述单目摄像机以顶视角度安装于场所出入口处,所述图像包括检测区域、统计区域和拌线;
目标检测模块,用于通过深度学习算法模型检测所述检测区域内的人头目标,并对所述人头目标进行拌线检测;
目标统计模块,用于根据拌线检测结果,统计所述统计区域内的所述人头目标数。
7.如权利要求6所述的基于顶视单目摄像机的人员数量的实时统计装置,其特征在于,所述深度学习算法模型包括MobileNet V2_SSD模型。
8.如权利要求6所述的基于顶视单目摄像机的人员数量的实时统计装置,其特征在于,所述目标检测模块,包括:
目标跟踪单元,用于通过KCF跟踪算法跟踪所述人头目标,得到所述人头目标的两帧图像;
目标检测单元,用于根据所述两帧图像,对所述人头目标进行拌线检测。
9.如权利要求8所述的基于顶视单目摄像机的人员数量的实时统计装置,其特征在于,所述根据所述两帧图像,对所述人头目标进行拌线检测,具体为:
根据所述两帧图像中所述人头目标的坐标,以及所述拌线的坐标,检测所述目标人头的移动轨迹,并根据所述移动轨迹判断所述目标人头的越线行为;其中,所述越线行为包括正向越线进入所述统计区域、逆向越线离开所述统计区域,在所述统计区域内正向或逆向越线。
10.如权利要求6所述的基于顶视单目摄像机的人员数量的实时统计装置,其特征在于,所述拌线包括竖直直线、水平直线和倾斜直线。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010194036.3A CN111382720A (zh) | 2020-03-18 | 2020-03-18 | 基于顶视单目摄像机的人员数量的实时统计方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010194036.3A CN111382720A (zh) | 2020-03-18 | 2020-03-18 | 基于顶视单目摄像机的人员数量的实时统计方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111382720A true CN111382720A (zh) | 2020-07-07 |
Family
ID=71221634
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010194036.3A Pending CN111382720A (zh) | 2020-03-18 | 2020-03-18 | 基于顶视单目摄像机的人员数量的实时统计方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111382720A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114241015A (zh) * | 2022-02-28 | 2022-03-25 | 长沙莫之比智能科技有限公司 | 一种基于毫米波雷达的进出人数计数方法和装置 |
CN115690162A (zh) * | 2022-12-28 | 2023-02-03 | 武汉凡德智能科技有限公司 | 一种固定视频中移动大目标的检测方法及装置 |
CN116245911A (zh) * | 2023-02-08 | 2023-06-09 | 珠海安联锐视科技股份有限公司 | 一种视频过线统计方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110084197A (zh) * | 2019-04-28 | 2019-08-02 | 苏州清研微视电子科技有限公司 | 基于深度学习的公交车客流量统计方法和系统 |
CN110688924A (zh) * | 2019-09-19 | 2020-01-14 | 天津天地伟业机器人技术有限公司 | 一种基于rfcn的垂直单目客流量统计方法 |
-
2020
- 2020-03-18 CN CN202010194036.3A patent/CN111382720A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110084197A (zh) * | 2019-04-28 | 2019-08-02 | 苏州清研微视电子科技有限公司 | 基于深度学习的公交车客流量统计方法和系统 |
CN110688924A (zh) * | 2019-09-19 | 2020-01-14 | 天津天地伟业机器人技术有限公司 | 一种基于rfcn的垂直单目客流量统计方法 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114241015A (zh) * | 2022-02-28 | 2022-03-25 | 长沙莫之比智能科技有限公司 | 一种基于毫米波雷达的进出人数计数方法和装置 |
CN115690162A (zh) * | 2022-12-28 | 2023-02-03 | 武汉凡德智能科技有限公司 | 一种固定视频中移动大目标的检测方法及装置 |
CN115690162B (zh) * | 2022-12-28 | 2023-03-10 | 武汉凡德智能科技有限公司 | 一种固定视频中移动大目标的检测方法及装置 |
CN116245911A (zh) * | 2023-02-08 | 2023-06-09 | 珠海安联锐视科技股份有限公司 | 一种视频过线统计方法 |
CN116245911B (zh) * | 2023-02-08 | 2023-11-03 | 珠海安联锐视科技股份有限公司 | 一种视频过线统计方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111382720A (zh) | 基于顶视单目摄像机的人员数量的实时统计方法及装置 | |
CN110334569B (zh) | 客流量进出识别方法、装置、设备及存储介质 | |
KR102195706B1 (ko) | 침입 탐지방법 및 그 장치 | |
US11263446B2 (en) | Method for person re-identification in closed place, system, and terminal device | |
US20200167959A1 (en) | Method and device for capturing target object and video monitoring device | |
CN108021848A (zh) | 客流量统计方法及装置 | |
CN110390229B (zh) | 一种人脸图片筛选方法、装置、电子设备及存储介质 | |
CN107862713B (zh) | 针对轮询会场的摄像机偏转实时检测预警方法及模块 | |
CN109522846B (zh) | 一种起立监测方法、装置、服务器及起立监测系统 | |
CN114842393A (zh) | 一种人流量的统计方法和装置 | |
CN105763868A (zh) | 云台故障的检测方法及装置 | |
CN111191506A (zh) | 人员流量统计方法、装置、计算机设备和存储介质 | |
CN114359594B (zh) | 一种场景匹配方法、装置、电子设备和存储介质 | |
CN110334568B (zh) | 轨迹生成与监控方法、装置、设备及存储介质 | |
KR20200059643A (ko) | 영상 분석 기반의 금융자동화기기 보안 시스템 및 그 방법 | |
CN115620192A (zh) | 一种高空作业安全绳穿戴检测的方法和装置 | |
CN113744221B (zh) | 拍摄对象计数方法、装置、计算机设备和存储介质 | |
CN117809351A (zh) | 一种安全帽佩戴状态检测方法和装置 | |
CN110659627A (zh) | 一种基于视频分割的智能视频监控方法 | |
CN114677608A (zh) | 身份特征生成方法、设备及存储介质 | |
CN116740885A (zh) | 烟雾火焰报警方法、装置、电子设备及存储介质 | |
CN111325073A (zh) | 基于运动信息聚类的监控视频异常行为检测方法 | |
CN113312981B (zh) | 机房鼠类图像识别方法、系统和存储介质 | |
CN110400329B (zh) | 人流计数方法及其系统 | |
CN113496200A (zh) | 数据处理方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200707 |