CN107016349B - 一种基于深度相机的人群流量分析方法 - Google Patents

一种基于深度相机的人群流量分析方法 Download PDF

Info

Publication number
CN107016349B
CN107016349B CN201710141277.XA CN201710141277A CN107016349B CN 107016349 B CN107016349 B CN 107016349B CN 201710141277 A CN201710141277 A CN 201710141277A CN 107016349 B CN107016349 B CN 107016349B
Authority
CN
China
Prior art keywords
image
target
depth
depth map
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710141277.XA
Other languages
English (en)
Other versions
CN107016349A (zh
Inventor
王海滨
曹黎俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vistek Technology Beijing Co ltd
Original Assignee
Vistek Technology Beijing Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vistek Technology Beijing Co ltd filed Critical Vistek Technology Beijing Co ltd
Priority to CN201710141277.XA priority Critical patent/CN107016349B/zh
Publication of CN107016349A publication Critical patent/CN107016349A/zh
Application granted granted Critical
Publication of CN107016349B publication Critical patent/CN107016349B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明提供了一种基于深度相机的人群流量分析方法,包括步骤:多元二项式回归拟合虚拟地面的深度图D;获取目标前景图F;计算前景图像对应的高度图H;深度图像的目标区域的过分割;分割区域的聚合,得到行人检测结果;目标跟踪与流量统计;该方法与现有方法相比,不需要对数据库中大量的数据进行训练;数学模型简单有效,能准确分析出区域内人群的流量大小,直观性强;计算量小,适合实时视觉监控;本发明能广泛地应用于公交、地铁和广场等人群流量大的公共场所的监控和管理。

Description

一种基于深度相机的人群流量分析方法
技术领域
本发明涉及模式识别,特别涉及基于深度相机的人群流量分析方法。
背景技术
随着计算机技术以及数码电子技术的迅速发展,视觉监控技术得到了越来越广泛的应用。传统的视觉监控系统往往只能提供视频采集和存储的功能,需要监控人员在监控室观看显示屏来发现异常情况,不但增加了监控成本,而且长时间观看显示屏导致的视觉疲劳会使监控人员的警惕性降低,使得监控系统在某些关键时刻不能发挥应有的作用。目前,智能视觉监控技术正在兴起,并且越来越受到媒体的关注。智能视觉监控技术就是要让计算机代替人的大脑,让摄像头代替人的眼睛,由计算机智能地分析从摄像头中获取的图像序列,对被监控场景中的内容进行理解,与传统视觉监控系统相比有明显的优势:一方面,能大大减少监控人员的数量降低成本;另一方面,可以通过联网建设大型分布式智能监控系统来实时获取大面积区域的所关心的信息(异常事件、交通违章、客流等),方便资源(保安、警力、公共交通工具等)调度,尽快消除公共场合下即将发生或已发生的安全隐患。基于深度相机的人群流量分析方法是一种非常具有应用价值的智能视觉监控技术,它可以应用于地铁、公交站台、广场等监控场景,实时获取人群流量信息,对于人群流量过大的场景进行报警。
基于深度相机的人群流量分析方法的主要难点在于如何简单快速地识别出画面中人群的流量大小。现在其它已有的人群流量分析方法一般是基于机器学习方法的,该方法是需要使用巨大的数据库中的数据进行训练,且需要利用多个模型对多个数据进行分析。
发明内容
本发明的目的在于提供了一种基于深度相机的人群流量分析方法,包括步骤:步骤a)多元二项式回归拟合虚拟地面的深度图D;步骤b)获取目标前景图F;步骤c)计算前景图像对应的高度图H;步骤d)深度图像的目标区域的过分割;步骤e)分割区域的聚合,得到行人检测结果;步骤f)目标跟踪与流量统计。
优选地,所述步骤a的获取多元二项式回归拟合虚拟地面的深度图D方法为:
多元二项式回归分析的模型为:
Figure BDA0001242887630000021
式中β0,β1,β2,β3,β4,β5,σ2都是与x1,x2无关的未知参数,其中β0,β1,β2,β3,β4,β5,σ2称为回归系数。
已知当前深度图为P,局部地面深度图为R,虚拟地面的深度图为D,对于虚拟地面的深度图D中像素i,估计值Di的计算方式如下:
现得到n2组数据(Pij,xi,yj),i,j=1,...,n,Pij为局部地面深度图R中某一像素点深度值,(xi,yj)为局部地面深度图R中某一像素点坐标,由(1)得:
Figure BDA0001242887630000022
参数估计:
模型(1)中的参数β0,β1,β2,β3,β4,β5使用最小二乘法估计,应选取虚拟地面的深度图估计值Dij,使得当
Figure BDA0001242887630000023
时,误差平方和
Figure BDA0001242887630000024
达到最小。
优选地,所述步骤b的获取目标前景图F的方法为:将当前背景深度图D和当前深度图P作差,求取差值图像,即目标前景图F。
优选地,所述步骤c的方法为:针对当前深度图P中目标区域的像素i,该像素反应的物体实际高度Hi的计算方式为:
Figure BDA0001242887630000025
优选地,所述步骤d的方法为:首先制作模板,在一个空白的灰度图中每隔一定间距作一个种子点,以此布满目标区域,利用分水岭算法将制作好的模板与需要分割的图片一起进行处理,得到处理后的有过分割情况的图像。
本发明与目前发表的最新的方法相比具有几个明显优点:1)利用深度相机实时获取监控画面,灵敏度高,并且能适应光照的缓慢变化,比较鲁棒。2)数学模型简单,深度图背景的拟合及行人检测的处理过程直观3)计算量小,可以满足实时视频处理的要求。
应当理解,前述大体的描述和后续详尽的描述均为示例性说明和解释,并不应当用作对本发明所要求保护内容的限制。
附图说明
参考随附的附图,本发明更多的目的、功能和优点将通过本发明实施方式的如下描述得以阐明,其中:
图1示出了本发明的基于深度相机的人群流量分析方法的流程图;
图2示出了本发明的工作时情况;
图3示出了本发明的某个室内场景的背景图;
图4示出了本发明的某个室内场景的当前图;
图5示出了本发明的某个室内场景的前景图;
图6示出了本发明的深度图像中计算物体实际高度示意图;
图7示出了本发明的对图像利用分水岭算法处理后的情况;
图8示出了本发明的新的前景图;
图9示出了本发明的处理后得到的结果。
具体实施方式
通过参考示范性实施例,本发明的目的和功能以及用于实现这些目的和功能的方法将得以阐明。然而,本发明并不受限于以下所公开的示范性实施例;可以通过不同形式来对其加以实现。说明书的实质仅仅是帮助相关领域技术人员综合理解本发明的具体细节。
在下文中,将参考附图描述本发明的实施例。在附图中,相同的附图标记代表相同或类似的部件,或者相同或类似的步骤。
为了便于本领域普通技术人员理解和实施本发明,下面结合附图对本发明作进一步的详细描述。
本发明的思想要点是:1)前景区域可以通过与背景图作差而去除掉;2)每个种子点所在的区域的灰度值可以近似的由一个值替代;3)由于一个人的体形处于一定的范围之内且在每一帧中同属于同一个人的分割区域灰度值差距很小,所以可以通过这些先验信息来进行分割区域的聚合。本发明的整个技术方案流程图如附图1所示。下面对发明中所涉及到的技术细节予以说明,最后给出实验结果。
图1示出了本发明的基于深度相机的人群流量分析方法的流程图;
步骤101:多元二项式回归拟合虚拟地面的深度图D;
由于实际场景中往往存在家具等物体,实际图像中的地面区域往往是局部区域,为了利用深度图得到图像中像素点的实际高度,我们需要拟合出一幅图像中所有像素点都是实际地面的深度图,称之为虚拟地面的深度图D。
多元二项式回归分析可以准确地计量各个因素之间的相关程度与回归拟合程度的高低,对于深度图,使用回归分析就可以利用局部区域拟合出整张图像的虚拟地面深度图,从而计算目标像素的实际高度。
多元二项式回归分析的模型为:
Figure BDA0001242887630000041
式中β0,β1,β2,β3,β4,β5,σ2都是与x1,x2无关的未知参数,其中β0,β1,β2,β3,β4,β5,σ2称为回归系数。
已知当前深度图为P,局部地面深度图为R,虚拟地面的深度图为D,对于虚拟地面的深度图D中像素i,估计值Di的计算方式如下:
现得到n2组数据(Pij,xi,yj),i,j=1,...,n,Pij为局部地面深度图R中某一像素点深度值,(xi,yj)为局部地面深度图R中某一像素点坐标,由(1)得:
Figure BDA0001242887630000042
参数估计:
模型(1)中的参数β0,β1,β2,β3,β4,β5使用最小二乘法估计,应选取虚拟地面的深度图估计值Dij,使得当
Figure BDA0001242887630000051
时,误差平方和达到最小。
Figure BDA0001242887630000052
步骤102:获取目标前景图F;
将当前背景深度图D,如图3所示,和当前深度图P作差,如图4所示,求取差值图像,即目标前景图F,如图5所示。在目标前景图中,地面深度信息为0,目标深度信息为1。对于目标前景图F中像素i,Fi的计算方式为:
Figure BDA0001242887630000053
步骤103:计算前景图像对应的高度图H;
如图6所示,H_C表示深度相机的安装高度,Hi表示当前深度图P中目标区域的实际高度,Di表示虚拟地面的深度图估计值,Pi表示当前深度图P中目标区域的深度图值。
针对当前深度图P中目标区域的像素i,该像素反应的物体实际高度Hi的计算方式为:
Figure BDA0001242887630000054
步骤104:深度图像的目标区域的过分割;
首先制作mask,在一个空白的灰度图中每隔一定间距(例如30)作一个种子点,以此布满目标区域,利用分水岭算法将制作好的mask与需要分割的图片一起进行处理,得到处理后的有过分割情况的图像,如图7所示。
步骤105:分割区域的聚合,得到行人检测结果;
首先取前景图中高度值大于1米的部分(可以理解为图中所有行人的上半身)作为一个新的前景图,如图8所示,将此前景图与分割过后的图像进行与处理。得到各个行人的上半身区域的分割图。接下来将对过分割的区域进行聚合。
由于每个种子点所在的区域的灰度值(G)可以近似的由一个值替代,因此在目标图像中由每个种子点出出发向上下左右四个方向分别找分水岭边界,将边界点与种子点之间的所有像素点的灰度值的平均值作为这个分割区域的灰度值。
公式如下(某一帧中的某一个种子点P(i,j)):
jdown:下边界点 jup:上边界点 J:纵向上的点数
iright:右边界点 ileft:左边界点 I:横向上的点数
GP(i,j):P(i,j)点处的灰度值 Ga:这个种子点所在区域的平均灰度值
J=jdown-jup+1 (6)
I=iright-ileft+1 (7)
Figure BDA0001242887630000061
又因为一个人的体形处于一定的范围之内且在每一帧中同属于同一个人的分割区域灰度值差距很小,所以可以根据相邻上下两个区域的灰度值差值小于一个阈值(T1)时,将两个区域合并(两个框合并,注:框由上下左右四个边界点决定),左右两个区域合并时则取决于合并后的宽度w与上下方向上的框的长度l的比值是否在阈值内(T2)。
公式如下:
if|GP(i,j)-GP(i,j+30)|<T1,则(i,j)与(i,j+30)两个外框合并; (9)
if
Figure BDA0001242887630000062
则(i,j)与(i+30,j)两个外框合并; (10)
步骤106:目标跟踪与流量统计。
根据第105步的检测结果,通过最近邻方法进行目标跟踪。轨迹通过图像中设置的虚拟线的目标,计入统计流量。
以上就是本发明实施步骤的详细说明,下面以某室内场景为例,进行说明。图2是工作时的情况,红线右侧为统计区域,只有处于红线右侧的人才会被统计;图3是深度相机拍摄的某个室内活动的场景背景图。图4是某时刻采样的图像,此时有人在室内行走;图5由背景图与当前图作差得到的前景图;图7是进行分水岭算法得到的分割后的图像;图8是新的前景图(有高度大于1米得到);图9是得到的结果图。
本发明所提出的基于深度相机的人群流量分析方法能够准确迅速地识别出一个区域内的行人,并且通过目标跟踪与流量统计得出这个区域内的人群流量的大小;与其它已有的人群流量分析方法相比,该方法直观性强,设备简单,受限制少,计算量小,适合公交、地铁和广场等公共场所的人群流量分析方法。
结合这里披露的本发明的说明和实践,本发明的其他实施例对于本领域技术人员都是易于想到和理解的。说明和实施例仅被认为是示例性的,本发明的真正范围和主旨均由权利要求所限定。

Claims (5)

1.一种基于深度相机的人群流量分析方法,包括步骤:
步骤a)多元二项式回归拟合虚拟地面的深度图D;
步骤b)获取目标前景图F;
步骤c)计算所述目标前景图F对应的高度图H;
步骤d)利用分水岭算法进行深度图像的目标区域的过分割;
步骤e)分割区域的聚合,得到行人检测结果,其中,
取前景图中高度值大于1米的部分作为一个新的前景图,将此前景图与分割过后的图像进行与处理,得到各个行人的上半身区域的分割图;
在目标图像中由每个种子点出发向上下左右四个方向分别找分水岭边界,将边界点与种子点之间的所有像素点的灰度值的平均值作为分割区域的灰度值;
如果相邻上下两个区域的灰度值差值小于一个阈值T1,则上下两个区域合并,如果左右两个区域合并后的宽度w与上下方向上的框的长度l的比值小于阈值T2,则左右两个区域合并,框由上下左右四个边界点决定;
步骤f)目标跟踪与流量统计。
2.根据权利要求1所述的方法,其特征在于:所述步骤a的获取多元二项式回归拟合虚拟地面的深度图D方法为:
多元二项式回归分析的模型为:
Figure FDA0002622407490000011
其中β0,β1,β2,β3,β4,β5,σ2称为回归系数,ε表示误差;
拟定当前深度图为P,局部地面深度图为R,虚拟地面的深度图为D,对于虚拟地面的深度图D的计算方法为:
Figure FDA0002622407490000012
其中,(Rij,xi,yj),i,j=1,...,n为n2组数据,Rij为局部地面深度图R中坐标值为(xi,yj)的像素点的深度值;
对模型(1)中的参数β0,β1,β2,β3,β4,β5使用最小二乘法估计,使得误差平方和
Figure FDA0002622407490000021
达到最小。
3.根据权利要求1所述的方法,其特征在于:所述步骤b的获取所述目标前景图F的方法为:将当前背景深度图D和当前深度图P作差,求取差值图像,即所述目标前景图F。
4.根据权利要求1所述的方法,其特征在于:所述步骤c的方法为:
在目标前景图中,地面深度信息为0,目标深度信息为1,对于目标前景图F中像素i,Fi的计算方式为:
Figure FDA0002622407490000022
针对当前深度图P中目标区域的像素i,该像素反应的物体实际高度Hi的计算方式为:
Figure FDA0002622407490000023
其中,HC表示深度相机的安装高度。
5.根据权利要求1所述的方法,其特征在于:所述步骤d的方法为:首先制作模板,在一个空白的灰度图中每隔一定间距作一个种子点,以此布满目标区域,利用分水岭算法将制作好的模板与需要分割的图片一起进行处理,得到处理后的有过分割情况的图像。
CN201710141277.XA 2017-03-10 2017-03-10 一种基于深度相机的人群流量分析方法 Active CN107016349B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710141277.XA CN107016349B (zh) 2017-03-10 2017-03-10 一种基于深度相机的人群流量分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710141277.XA CN107016349B (zh) 2017-03-10 2017-03-10 一种基于深度相机的人群流量分析方法

Publications (2)

Publication Number Publication Date
CN107016349A CN107016349A (zh) 2017-08-04
CN107016349B true CN107016349B (zh) 2020-11-06

Family

ID=59440614

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710141277.XA Active CN107016349B (zh) 2017-03-10 2017-03-10 一种基于深度相机的人群流量分析方法

Country Status (1)

Country Link
CN (1) CN107016349B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111868783B (zh) * 2019-02-14 2021-03-23 中国水利水电科学研究院 基于边界提取的区域合并图像分割算法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101425128A (zh) * 2007-10-30 2009-05-06 同济大学 基于激光传感器深度图像的人流检测方法
CN104408445A (zh) * 2014-12-19 2015-03-11 吉林纪元时空动漫游戏科技股份有限公司 实时人体自动检测方法
CN104751491A (zh) * 2015-04-10 2015-07-01 中国科学院宁波材料技术与工程研究所 一种人群跟踪及人流量统计方法及装置
CN104835147A (zh) * 2015-04-15 2015-08-12 中国科学院上海微系统与信息技术研究所 基于三维深度图数据的密集人流量实时检测方法
CN106407937A (zh) * 2016-09-21 2017-02-15 俞大海 基于深度图像的公交车车载人流统计系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170032676A1 (en) * 2015-07-30 2017-02-02 Illinois Institute Of Technology System for detecting pedestrians by fusing color and depth information

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101425128A (zh) * 2007-10-30 2009-05-06 同济大学 基于激光传感器深度图像的人流检测方法
CN104408445A (zh) * 2014-12-19 2015-03-11 吉林纪元时空动漫游戏科技股份有限公司 实时人体自动检测方法
CN104751491A (zh) * 2015-04-10 2015-07-01 中国科学院宁波材料技术与工程研究所 一种人群跟踪及人流量统计方法及装置
CN104835147A (zh) * 2015-04-15 2015-08-12 中国科学院上海微系统与信息技术研究所 基于三维深度图数据的密集人流量实时检测方法
CN106407937A (zh) * 2016-09-21 2017-02-15 俞大海 基于深度图像的公交车车载人流统计系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于RGB-D相机的实时人数统计方法;张华 等;《计算机工程与应用》;20141231;第156-162页 *

Also Published As

Publication number Publication date
CN107016349A (zh) 2017-08-04

Similar Documents

Publication Publication Date Title
CN107256225B (zh) 一种基于视频分析的热度图生成方法及装置
Xia et al. Towards improving quality of video-based vehicle counting method for traffic flow estimation
CN108665487B (zh) 基于红外和可见光融合的变电站作业对象和目标定位方法
CN111047818A (zh) 一种基于视频图像的森林火灾预警系统
CN110517288A (zh) 基于全景多路4k视频图像的实时目标检测跟踪方法
US20190147283A1 (en) Deep convolutional neural networks for crack detection from image data
CN105404847B (zh) 一种遗留物实时检测方法
CN103729858B (zh) 一种视频监控系统中遗留物品的检测方法
CN104966304A (zh) 基于卡尔曼滤波与非参数背景模型的多目标检测跟踪方法
CN109359563B (zh) 一种基于数字图像处理的占道现象实时检测方法
CN111723773B (zh) 遗留物检测方法、装置、电子设备及可读存储介质
CN107248174A (zh) 一种基于tld算法的目标跟踪方法
CN110096945B (zh) 基于机器学习的室内监控视频关键帧实时提取方法
Karpagavalli et al. Estimating the density of the people and counting the number of people in a crowd environment for human safety
CN109117774B (zh) 一种基于稀疏编码的多视角视频异常检测方法
CN106570440A (zh) 基于图像分析的人数统计方法和人数统计装置
CN107016349B (zh) 一种基于深度相机的人群流量分析方法
CN107729811B (zh) 一种基于场景建模的夜间火焰检测方法
CN117041484B (zh) 基于物联网的人流密集区域监控方法及系统
CN111950518B (zh) 一种用于暴力行为识别的视频图像增强方法
CN112633179A (zh) 基于视频分析的农贸市场过道物体占道检测方法
CN105678268B (zh) 一种基于双区域学习的地铁站场景行人计数实现方法
KR20150005863A (ko) 이동 방향별 보행자 계수 방법 및 장치
CN101685538B (zh) 对象跟踪方法和装置
CN114677667A (zh) 一种基于深度学习的变电站电气设备红外故障识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant