CN102890791A - 基于深度信息聚类的复杂场景人数统计方法 - Google Patents

基于深度信息聚类的复杂场景人数统计方法 Download PDF

Info

Publication number
CN102890791A
CN102890791A CN2012103177856A CN201210317785A CN102890791A CN 102890791 A CN102890791 A CN 102890791A CN 2012103177856 A CN2012103177856 A CN 2012103177856A CN 201210317785 A CN201210317785 A CN 201210317785A CN 102890791 A CN102890791 A CN 102890791A
Authority
CN
China
Prior art keywords
pixel
density
gauss
human body
depth map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2012103177856A
Other languages
English (en)
Inventor
尚凌辉
王弘玥
张兆生
余天明
高勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZHEJIANG ICARE VISION TECHNOLOGY Co Ltd
Original Assignee
ZHEJIANG ICARE VISION TECHNOLOGY Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZHEJIANG ICARE VISION TECHNOLOGY Co Ltd filed Critical ZHEJIANG ICARE VISION TECHNOLOGY Co Ltd
Priority to CN2012103177856A priority Critical patent/CN102890791A/zh
Publication of CN102890791A publication Critical patent/CN102890791A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明涉及一种基于深度信息聚类的复杂场景人数统计方法。现有技术一般采用简单的深度图阈值化来实现对人头的检测,这样做虽然简单,计算速度快,但没有完全利用好深度信息,导致人体过于拥挤时性能会下降。本发明是以双目相机为硬件,在深度信息的基础上,采用了深度信息聚类分割的方法,将复杂场景下的人群进行很好的独立分割,即使在多人拥挤的情况下,也能较好的区分每个人体的位置,然后对每个人体进行跟踪。本发明利用DENCLUE的聚类方法,充分利用了人体全局的聚类信息,包括深度差,人体先验尺度等,从而可以将人体进行较好的检测和分割,即使在人群拥挤,互相遮挡的复杂环境下也能达到98%以上统计准确率。

Description

基于深度信息聚类的复杂场景人数统计方法
技术领域
本发明属于视频智能监控技术领域,涉及一种基于深度信息聚类的复杂场景人数统计方法。
背景技术
目前人数统计方法主要有基于红外感应器,基于单目相机和基于双目相机三种不同的硬件。
基于红外感应器的人数统计方法主要是利用有人体经过时,会阻断红外信号的接受,从而实现计数功能,但由于红外信号阻断时,无法准确统计经过的人数,所以如果多人统计经过感应器,则会产生漏检,此方法的整体统计精度在80%左右。
基于单目的人数统计算法主要依靠常见的图像处理算法以及模式识别方法,对经过场景的人头进行检测跟踪,从而达到人数统计的目的,这种方法由于计算机视觉算法的成熟度原因,无法很好的处理光照,阴影等干扰,统计精度一般只能达到90%左右,如果遇到多人拥挤通过的情况,性能会更低。
而基于双目的人数统计算法,利用立体视觉的特性,可将拍摄场景中的深度信息计算出来,从而能对人头位置有更好的估计和检测,但由于现有深度信息的精度较低,因此对其如何利用就成为影响统计精度的关键,目前一般是以简单的阈值来区分人头和头肩位置,从而检测人头的个数,但这种方法在人数十分拥挤,或者人体互相遮挡严重时,性能下降会比较厉害,一般统计精度能在95%左右。
发明内容
本发明是以双目相机为硬件,在深度信息的基础上,采用了深度信息聚类分割的方法,将复杂场景下的人群进行很好的独立分割,即使在多人拥挤的情况下,也能较好的区分每个人体的位置,然后对每个人体进行跟踪,从而达到很高的人数统计精度。
本发明解决技术问题所采取的技术方案为:
步骤1:采用双目相机作为深度信息的获取设备,输出为帧率25FPS的CIF分辨率的深度图,深度图中,每个像素的取值范围为0-255,值越大表示该像素所代表的目标距离镜头越近;
步骤2:对深度图进行背景建模,并随着场景的变化,学习更新每个像素的混合高斯模型,确定背景分布,具体是:
首先对深度图进行背景建模,用由K个高斯成分组成的混合高斯模型表示像素在时间域上的概率分布模型,即深度图中像素jt时刻取值为                                               
Figure 2012103177856100002DEST_PATH_IMAGE002
的概率为
Figure 2012103177856100002DEST_PATH_IMAGE004
其中
Figure 2012103177856100002DEST_PATH_IMAGE006
表示在t时刻像素j的混合高斯模型中的第i个高斯成分的权重,表示第i个高斯成分的均值,
Figure 2012103177856100002DEST_PATH_IMAGE010
表示第i个高斯成分的协方差,η表示高斯概率密度函数:
Figure 2012103177856100002DEST_PATH_IMAGE012
其中d为
Figure 2012103177856100002DEST_PATH_IMAGE014
的维数;
然后随着场景的变化,学习更新每个像素的混合高斯模型;
最后像素j的混合高斯模型描述了其特征值
Figure 448024DEST_PATH_IMAGE014
在时间域上的概率分布,为了确定像素的混合高斯模型里哪些高斯成分是由背景产生的,根据每个高斯成分的权重与其标准差之比排序后,取前
Figure 2012103177856100002DEST_PATH_IMAGE016
个高斯成分作为背景的分布,
Figure 349115DEST_PATH_IMAGE016
根据下式计算
阈值T度量了背景高斯成分在像素的整个概率分布中所占得最小比例;
    步骤3:利用深度图背景模型,进行前景目标检测,即对每帧新深度图中的每个像素,求其在每个背景混合高斯模型中的概率值:
Figure 2012103177856100002DEST_PATH_IMAGE020
若概率最大值小于阈值,则认为当前像素为前景点,说明可能有人体;
步骤4:对前景深度图,利用DENCLUE算法进行聚类分割,具体是:
已知空间
Figure 2012103177856100002DEST_PATH_IMAGE022
中包含n个对象的数据集
Figure 2012103177856100002DEST_PATH_IMAGE024
,DENCLUE算法的基本思想可以形式化描述为:全局密度函数的核估计、密度吸引子和密度吸引、基于中心的聚类;
步骤5:在聚类分割完成后,就将原本联通的前景深度图分割成若干个区域,每个区域代表一个人体;
步骤6:对于每帧深度图,都进行上述步骤2-步骤5的处理,每帧都会得到一个人体分割结果,再利用面积匹配的方法进行帧间关联,从而得到每个人体的跟踪轨迹;
步骤7:结合规则线和跟踪轨迹,得出人数统计结果。
步骤2中的学习更新方法是:将混合高斯模型中的K个高斯成分按照
Figure 2012103177856100002DEST_PATH_IMAGE026
由大到小排序,然后用像素的当前值
Figure 262755DEST_PATH_IMAGE014
与其混合高斯模型中的K个高斯成分逐一比较,若与第i个高斯成分的均值
Figure 2012103177856100002DEST_PATH_IMAGE028
之间的差小于δ倍的该高斯成分的标准差
Figure 2012103177856100002DEST_PATH_IMAGE030
,则该高斯成分被更新,其余高斯成分保持不变,更新方程如下:
Figure 2012103177856100002DEST_PATH_IMAGE032
Figure 2012103177856100002DEST_PATH_IMAGE034
Figure 2012103177856100002DEST_PATH_IMAGE036
Figure 2012103177856100002DEST_PATH_IMAGE038
其中
Figure 2012103177856100002DEST_PATH_IMAGE040
是模型的学习率,当第i个高斯成分与
Figure 560116DEST_PATH_IMAGE014
匹配时,
Figure 2012103177856100002DEST_PATH_IMAGE042
为1,否则为0;如果
Figure 501396DEST_PATH_IMAGE014
与像素j的混合高斯模型中的K个高斯成分都不匹配,则该像素混合高斯模型中排在最后的高斯成分被新的高斯成分取代,新的高斯成分均值为
Figure 300725DEST_PATH_IMAGE014
,初始标准差及权重设为
Figure 2012103177856100002DEST_PATH_IMAGE046
;在更新完成后,各高斯成分的权重被归一化,以使
Figure 2012103177856100002DEST_PATH_IMAGE048
步骤4中全局密度函数的核估计具体是:空间任一点x的概率密度可估计为,其中,K(x)为核函数,采用是高斯核函数,
Figure 2012103177856100002DEST_PATH_IMAGE052
表示窗宽。
步骤4中密度吸引子和密度吸引具体是:已知全局密度函数的局部极大值点
Figure 2012103177856100002DEST_PATH_IMAGE054
,对任意的
Figure 2012103177856100002DEST_PATH_IMAGE056
,如果存在点集
Figure 2012103177856100002DEST_PATH_IMAGE058
,使得
Figure 2012103177856100002DEST_PATH_IMAGE060
Figure 2012103177856100002DEST_PATH_IMAGE062
位于
Figure 2012103177856100002DEST_PATH_IMAGE064
的梯度方向上,则称x被密度吸引,而称
Figure 1757DEST_PATH_IMAGE054
为x的密度吸引;如果核函数K(x)在空间中的每一点都连续、可微,密度吸引子可以采用梯度方向指引的爬山法来搜索。
步骤4中基于中心的聚类具体是:已知密度吸引子
Figure 289388DEST_PATH_IMAGE054
,如果存在
Figure 2012103177856100002DEST_PATH_IMAGE066
使得
Figure 2012103177856100002DEST_PATH_IMAGE068
,x都被
Figure 705457DEST_PATH_IMAGE054
密度吸引且,则称C为以
Figure 722829DEST_PATH_IMAGE054
为中心的聚类,其中
Figure 2012103177856100002DEST_PATH_IMAGE072
为预设的密度门限值。
更进一步说,窗宽
Figure 933362DEST_PATH_IMAGE052
的选取直接会影响全局密度的估计结果,从而影响聚类数目,
Figure 662283DEST_PATH_IMAGE052
的取值应和实际目标的大小一致,由于本方法应用在拍摄角度垂直向下的客流统计场景,所以人体目标在深度图中的大小,是可以根据人体的高度估计出来的,所以这里的
Figure 803415DEST_PATH_IMAGE052
的取值为估计人体宽度的一半。
更进一步说,
Figure 612976DEST_PATH_IMAGE072
用于过滤噪声产生的影响,在相机高度已确定的情况下,可以计算出需要关注的人体高度所对应的深度图灰度值,只要按此深度图灰度值来设置,即可把不要的噪声过滤。
本发明有益效果:本发明利用DENCLUE的聚类方法,充分利用了人体全局的聚类信息,包括深度差,人体先验尺度等,从而可以将人体(比起人头,人体区域更大,具有更多的信息,对后期跟踪等策略会有更好的作用)进行较好的检测和分割,即使在人群拥挤,互相遮挡的复杂环境下也能达到98%以上统计准确率。
附图说明
图1为实施例中双目相机安装示意图;
图2为拍摄到的原始图和深度图;
图3为本发明方法步骤4流程图;
图4为聚类分割图;
图5人数统计结果图。
具体实施方式
以下结合附图和实施例对本发明作进一步说明。
本发明方法包括以下步骤:
步骤1:采用自主研发的双目相机,安装在2.3-2.5m的高度,垂直拍摄地面,保证人体通过时能完整拍摄到整个俯视人体。由于工地电梯有两个门可以进出,所以需要安装2个,具体如图1所示;安装好后,拍摄到的原始图和深度图如图2所示。
步骤2:利用每帧采集到的深度图进行背景建模,模型用由3个高斯成分组成的混合高斯模型表示像素在时间域上的概率分布模型,即深度图中像素jt时刻取值为的概率为
Figure DEST_PATH_IMAGE076
其中
Figure DEST_PATH_IMAGE078
表示在t时刻像素j的混合高斯模型中的第i个高斯成分的权重,
Figure DEST_PATH_IMAGE080
表示第i个高斯成分的均值,
Figure 459896DEST_PATH_IMAGE010
表示第i个高斯成分的协方差,η表示高斯概率密度函数:
Figure 404718DEST_PATH_IMAGE012
其中d为
Figure 68786DEST_PATH_IMAGE014
的维数,在这里由于是2维图像,所以d=2。
然后随着场景的变化,学习更新每个像素的混合高斯模型。
最后像素j的混合高斯模型描述了其特征值在时间域上的概率分布,为了确定像素的混合高斯模型里哪些高斯成分是由背景产生的,根据每个高斯成分的权重与其标准差之比排序后,取前
Figure 511586DEST_PATH_IMAGE016
个高斯成分作为背景的分布,
Figure 745252DEST_PATH_IMAGE016
根据下式计算
Figure 280139DEST_PATH_IMAGE018
阈值T度量了背景高斯成分在像素的整个概率分布中所占得最小比例,这里我们取T=0.3,得到
Figure 439594DEST_PATH_IMAGE016
=2
步骤3:利用深度图背景模型,进行前景目标检测,即对每帧新深度图中的每个像素,求其在每个背景混合高斯模型中的概率值:
若概率最大值小于阈值,则认为当前像素为前景点,说明可能有人体;
这里我们假设j = 1时,
=0.1,
Figure DEST_PATH_IMAGE084
=0.24,
Figure DEST_PATH_IMAGE086
=0.14,
Figure DEST_PATH_IMAGE088
= 2.2,
Figure DEST_PATH_IMAGE090
= 1.4,
Figure DEST_PATH_IMAGE092
= 1.7,
则我们可以得出P()= 0.752,
而当j=2时,
Figure 776083DEST_PATH_IMAGE082
=0.1,
Figure 414744DEST_PATH_IMAGE084
=0.11,
Figure 574461DEST_PATH_IMAGE086
=0.05,
= 1.24,
= 0.98,
Figure 390645DEST_PATH_IMAGE092
= 0.001,
则我们可以得出P(
Figure DEST_PATH_IMAGE096
)= 0.23185,
若我们设置概率阈值为0.5,那么j=2的像素点就可认为是前景点,说明可能有物体在背景上。而j=1的像素点则认为还是背景。
步骤4:对前景深度图,利用DENCLUE算法进行聚类分割,参见图3,具体是:
已知空间
Figure 658947DEST_PATH_IMAGE022
中包含n个对象的数据集
Figure 621087DEST_PATH_IMAGE024
,DENCLUE算法的基本思想可以形式化描述为:全局密度函数的核估计、密度吸引子和密度吸引、基于中心的聚类;这里我们是对尺度为320*240的深度图做处理,所以n=320*240=76800
步骤5:在聚类分割完成后,就将原本联通的前景深度图分割成若干个区域,每个区域代表一个人体;如图4所示,左图为前景深度图,右图为聚类分割的结果。
步骤6:对于每帧深度图,都进行上述步骤2-步骤5的处理,每帧都会得到一个人体分割结果,再利用面积匹配的方法进行帧间关联,从而得到每个人体的跟踪轨迹;
步骤7:结合规则线和跟踪轨迹,得出人数统计结果,如5图所示,右侧为深度图,左侧为原始图并显示算法效果,其中每个框代表一个检测目标,框边上的曲线为跟踪轨迹,屏幕中间的水平白线为规则线,只要目标的跟踪轨迹穿越了绊线,则触发一次计数。
步骤2中的学习更新方法是:将混合高斯模型中的3个高斯成分按照
Figure 498782DEST_PATH_IMAGE026
由大到小排序,然后用像素的当前值与其混合高斯模型中的3个高斯成分逐一比较,若
Figure 36390DEST_PATH_IMAGE014
与第i个高斯成分的均值
Figure 485826DEST_PATH_IMAGE028
之间的差小于2倍的该高斯成分的标准差
Figure 901633DEST_PATH_IMAGE030
,则该高斯成分被
Figure 120125DEST_PATH_IMAGE014
更新,其余高斯成分保持不变,更新方程如下:
Figure 339065DEST_PATH_IMAGE034
Figure 574874DEST_PATH_IMAGE036
Figure 897140DEST_PATH_IMAGE038
其中
Figure 927413DEST_PATH_IMAGE040
是模型的学习率,假设为0.5,当第i个高斯成分与
Figure 836594DEST_PATH_IMAGE014
匹配时,
Figure 344936DEST_PATH_IMAGE042
为1,否则为0;如果
Figure 475703DEST_PATH_IMAGE014
与像素j的混合高斯模型中的K个高斯成分都不匹配,则该像素混合高斯模型中排在最后的高斯成分被新的高斯成分取代,新的高斯成分均值为
Figure 926144DEST_PATH_IMAGE014
,初始标准差及权重设为
Figure 571889DEST_PATH_IMAGE044
Figure 634655DEST_PATH_IMAGE046
;在更新完成后,各高斯成分的权重被归一化,以使
步骤4中全局密度函数的核估计具体是:空间任一点x的概率密度可估计为
Figure 303588DEST_PATH_IMAGE050
,其中,K(x)为核函数,采用是高斯核函数,
Figure 436629DEST_PATH_IMAGE052
表示窗宽。
步骤4中密度吸引子和密度吸引具体是:已知全局密度函数的局部极大值点
Figure 303085DEST_PATH_IMAGE054
,对任意的
Figure 142865DEST_PATH_IMAGE056
,如果存在点集,使得
Figure 289867DEST_PATH_IMAGE060
位于
Figure 716618DEST_PATH_IMAGE064
的梯度方向上,则称x被密度吸引,而称为x的密度吸引;如果核函数K(x)在空间中的每一点都连续、可微,密度吸引子可以采用梯度方向指引的爬山法来搜索。
步骤4中基于中心的聚类具体是:已知密度吸引子
Figure 244923DEST_PATH_IMAGE054
,如果存在
Figure 606765DEST_PATH_IMAGE066
使得
Figure 694807DEST_PATH_IMAGE068
,x都被
Figure 24157DEST_PATH_IMAGE054
密度吸引且,则称C为以
Figure 258DEST_PATH_IMAGE054
为中心的聚类,其中
Figure 72250DEST_PATH_IMAGE072
为预设的密度门限值。
更进一步说,窗宽的选取直接会影响全局密度的估计结果,从而影响聚类数目,
Figure 937493DEST_PATH_IMAGE052
的取值应和实际目标的大小一致,由于本方法应用在拍摄角度垂直向下的客流统计场景,所以人体目标在深度图中的大小,是可以根据人体的高度估计出来的,所以这里的
Figure 460878DEST_PATH_IMAGE052
的取值为10。
更进一步说,
Figure 687460DEST_PATH_IMAGE072
用于过滤噪声产生的影响,在相机高度已确定的情况下,可以计算出需要关注的人体高度所对应的深度图灰度值,只要按此深度图灰度值来设置
Figure 742135DEST_PATH_IMAGE072
,即可把不要的噪声过滤。这里取值为50。
以上所述,仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围,应带理解,本发明并不限于这里所描述的实现方案,这些实现方案描述的目的在于帮助本领域中的技术人员实践本发明。

Claims (7)

1. 基于深度信息聚类的复杂场景人数统计方法,其特征在于该方法包括以下步骤:
步骤1:采用双目相机作为深度信息的获取设备,输出为帧率25FPS的CIF分辨率的深度图,深度图中,每个像素的取值范围为0-255,值越大表示该像素所代表的目标距离镜头越近;
步骤2:对深度图进行背景建模,并随着场景的变化,学习更新每个像素的混合高斯模型,确定背景分布,具体是:
首先对深度图进行背景建模,用由K个高斯成分组成的混合高斯模型表示像素在时间域上的概率分布模型,即深度图中像素jt时刻取值为                                               
Figure 2012103177856100001DEST_PATH_IMAGE002
的概率为
Figure 2012103177856100001DEST_PATH_IMAGE004
其中表示在t时刻像素j的混合高斯模型中的第i个高斯成分的权重,
Figure DEST_PATH_IMAGE008
表示第i个高斯成分的均值,表示第i个高斯成分的协方差,η表示高斯概率密度函数:
Figure DEST_PATH_IMAGE012
其中d为
Figure DEST_PATH_IMAGE014
的维数;
然后随着场景的变化,学习更新每个像素的混合高斯模型;
最后像素j的混合高斯模型描述了其特征值
Figure 677857DEST_PATH_IMAGE014
在时间域上的概率分布,为了确定像素的混合高斯模型里哪些高斯成分是由背景产生的,根据每个高斯成分的权重与其标准差之比排序后,取前
Figure DEST_PATH_IMAGE016
个高斯成分作为背景的分布,根据下式计算
阈值T度量了背景高斯成分在像素的整个概率分布中所占得最小比例;
    步骤3:利用深度图背景模型,进行前景目标检测,即对每帧新深度图中的每个像素,求其在每个背景混合高斯模型中的概率值:
Figure DEST_PATH_IMAGE020
若概率最大值小于阈值,则认为当前像素为前景点,说明可能有人体;
步骤4:对前景深度图,利用DENCLUE算法进行聚类分割,具体是:
已知空间
Figure DEST_PATH_IMAGE022
中包含n个对象的数据集,DENCLUE算法的基本思想可以形式化描述为:全局密度函数的核估计、密度吸引子和密度吸引、基于中心的聚类;
步骤5:在聚类分割完成后,就将原本联通的前景深度图分割成若干个区域,每个区域代表一个人体;
步骤6:对于每帧深度图,都进行上述步骤2-步骤5的处理,每帧都会得到一个人体分割结果,再利用面积匹配的方法进行帧间关联,从而得到每个人体的跟踪轨迹;
步骤7:结合规则线和跟踪轨迹,得出人数统计结果。
2.根据权利要求1所述的基于深度信息聚类的复杂场景人数统计方法,其特征在于:步骤2中的学习更新方法是:将混合高斯模型中的K个高斯成分按照
Figure DEST_PATH_IMAGE026
由大到小排序,然后用像素的当前值
Figure 341981DEST_PATH_IMAGE014
与其混合高斯模型中的K个高斯成分逐一比较,若
Figure 618372DEST_PATH_IMAGE014
与第i个高斯成分的均值
Figure DEST_PATH_IMAGE028
之间的差小于δ倍的该高斯成分的标准差
Figure DEST_PATH_IMAGE030
,则该高斯成分被
Figure 336667DEST_PATH_IMAGE014
更新,其余高斯成分保持不变,更新方程如下:
Figure DEST_PATH_IMAGE032
Figure DEST_PATH_IMAGE034
Figure DEST_PATH_IMAGE036
Figure DEST_PATH_IMAGE038
其中
Figure DEST_PATH_IMAGE040
是模型的学习率,当第i个高斯成分与
Figure 146229DEST_PATH_IMAGE014
匹配时,
Figure DEST_PATH_IMAGE042
为1,否则为0;如果
Figure 527663DEST_PATH_IMAGE014
与像素j的混合高斯模型中的K个高斯成分都不匹配,则该像素混合高斯模型中排在最后的高斯成分被新的高斯成分取代,新的高斯成分均值为
Figure 55465DEST_PATH_IMAGE014
,初始标准差及权重设为
Figure DEST_PATH_IMAGE044
;在更新完成后,各高斯成分的权重被归一化,以使
Figure DEST_PATH_IMAGE048
3.根据权利要求1所述的基于深度信息聚类的复杂场景人数统计方法,其特征在于:步骤4中全局密度函数的核估计具体是:空间任一点x的概率密度可估计为,其中,K(x)为核函数,采用是高斯核函数,表示窗宽。
4.根据权利要求1所述的基于深度信息聚类的复杂场景人数统计方法,其特征在于:步骤4中密度吸引子和密度吸引具体是:已知全局密度函数的局部极大值点
Figure DEST_PATH_IMAGE054
,对任意的,如果存在点集
Figure DEST_PATH_IMAGE058
,使得
Figure DEST_PATH_IMAGE060
Figure DEST_PATH_IMAGE062
位于
Figure DEST_PATH_IMAGE064
的梯度方向上,则称x被
Figure 498823DEST_PATH_IMAGE054
密度吸引,而称
Figure 664356DEST_PATH_IMAGE054
为x的密度吸引;如果核函数K(x)在空间中的每一点都连续、可微,密度吸引子可以采用梯度方向指引的爬山法来搜索。
5.根据权利要求1所述的基于深度信息聚类的复杂场景人数统计方法,其特征在于:步骤4中基于中心的聚类具体是:已知密度吸引子
Figure 341325DEST_PATH_IMAGE054
,如果存在
Figure DEST_PATH_IMAGE066
使得
Figure DEST_PATH_IMAGE068
,x都被
Figure 215478DEST_PATH_IMAGE054
密度吸引且
Figure DEST_PATH_IMAGE070
,则称C为以为中心的聚类,其中为预设的密度门限值。
6.根据权利要求3所述的基于深度信息聚类的复杂场景人数统计方法,其特征在于:窗宽
Figure 295615DEST_PATH_IMAGE052
的选取直接会影响全局密度的估计结果,从而影响聚类数目,
Figure 409065DEST_PATH_IMAGE052
的取值应和实际目标的大小一致,由于本方法应用在拍摄角度垂直向下的客流统计场景,所以人体目标在深度图中的大小,是可以根据人体的高度估计出来的,所以这里的的取值为估计人体宽度的一半。
7.根据权利要求5所述的基于深度信息聚类的复杂场景人数统计方法,其特征在于:
Figure 433969DEST_PATH_IMAGE072
用于过滤噪声产生的影响,在相机高度已确定的情况下,可以计算出需要关注的人体高度所对应的深度图灰度值,只要按此深度图灰度值来设置
Figure 761046DEST_PATH_IMAGE072
,即可把不要的噪声过滤。
CN2012103177856A 2012-08-31 2012-08-31 基于深度信息聚类的复杂场景人数统计方法 Pending CN102890791A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2012103177856A CN102890791A (zh) 2012-08-31 2012-08-31 基于深度信息聚类的复杂场景人数统计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2012103177856A CN102890791A (zh) 2012-08-31 2012-08-31 基于深度信息聚类的复杂场景人数统计方法

Publications (1)

Publication Number Publication Date
CN102890791A true CN102890791A (zh) 2013-01-23

Family

ID=47534287

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2012103177856A Pending CN102890791A (zh) 2012-08-31 2012-08-31 基于深度信息聚类的复杂场景人数统计方法

Country Status (1)

Country Link
CN (1) CN102890791A (zh)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103345792A (zh) * 2013-07-04 2013-10-09 南京理工大学 基于传感器景深图像的客流统计装置及其方法
CN104636745A (zh) * 2013-11-08 2015-05-20 株式会社理光 尺度不变特征提取方法和装置、对象识别方法和装置
CN104657993A (zh) * 2015-02-12 2015-05-27 北京格灵深瞳信息技术有限公司 一种镜头遮挡检测方法及装置
CN104715471A (zh) * 2014-01-03 2015-06-17 杭州海康威视数字技术股份有限公司 目标定位跟踪方法及其装置
CN104866844A (zh) * 2015-06-05 2015-08-26 中国人民解放军国防科学技术大学 一种面向监控视频的人群聚集检测方法
CN105096292A (zh) * 2014-04-30 2015-11-25 株式会社理光 对象数量估计方法和装置
CN106228560A (zh) * 2016-07-28 2016-12-14 长安大学 一种复杂场景下的人数统计方法
CN106446788A (zh) * 2016-08-31 2017-02-22 山东恒宇电子有限公司 基于视神经机制的高动态范围图像统计客流的方法
CN107111764A (zh) * 2015-01-16 2017-08-29 高通股份有限公司 由对象在成像装置的视野中的深度触发的事件
CN107977612A (zh) * 2017-11-21 2018-05-01 中国电影科学技术研究所 一种红外图像人数识别方法
CN108446719A (zh) * 2018-02-09 2018-08-24 浙江新再灵科技股份有限公司 基于深度相机衡量商场内广告牌关注度的方法
CN110705408A (zh) * 2019-09-23 2020-01-17 东南大学 基于混合高斯人数分布学习的室内人数统计方法及系统
CN112097272A (zh) * 2020-08-14 2020-12-18 杭州科晟能源技术有限公司 一种面向垃圾焚烧进料的自动给料控制方法及系统
WO2021093276A1 (zh) * 2019-11-12 2021-05-20 通号通信信息集团有限公司 人群计数系统中基于可变形高斯核的训练数据生成方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7391898B2 (en) * 2003-10-10 2008-06-24 Nova Packaging Systems, Inc. Method and apparatus for programmable zoned array counter
CN102222265A (zh) * 2010-04-13 2011-10-19 上海申腾三盛信息技术工程有限公司 基于双目视觉和侧安装摄像机的客流计数方法
CN202058221U (zh) * 2011-04-25 2011-11-30 湖州康普医疗器械科技有限公司 一种基于双目视觉的客流统计装置
CN102521646A (zh) * 2011-11-11 2012-06-27 浙江捷尚视觉科技有限公司 基于深度信息聚类的复杂场景人数统计算法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7391898B2 (en) * 2003-10-10 2008-06-24 Nova Packaging Systems, Inc. Method and apparatus for programmable zoned array counter
CN102222265A (zh) * 2010-04-13 2011-10-19 上海申腾三盛信息技术工程有限公司 基于双目视觉和侧安装摄像机的客流计数方法
CN202058221U (zh) * 2011-04-25 2011-11-30 湖州康普医疗器械科技有限公司 一种基于双目视觉的客流统计装置
CN102521646A (zh) * 2011-11-11 2012-06-27 浙江捷尚视觉科技有限公司 基于深度信息聚类的复杂场景人数统计算法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
周蓉君: "基于视觉的人体检测与跟踪", 《中国优秀硕士学位论文全文数据库信息科技辑(月刊)》, no. 1, 15 January 2011 (2011-01-15), pages 138 - 1260 *
王亮生等: "一种改进的基于混合高斯分布模型的自适应背景消除算法", 《北京交通大学学报》, vol. 27, no. 6, 31 December 2003 (2003-12-31), pages 22 - 25 *

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103345792B (zh) * 2013-07-04 2016-03-02 南京理工大学 基于传感器景深图像的客流统计装置及其方法
CN103345792A (zh) * 2013-07-04 2013-10-09 南京理工大学 基于传感器景深图像的客流统计装置及其方法
CN104636745A (zh) * 2013-11-08 2015-05-20 株式会社理光 尺度不变特征提取方法和装置、对象识别方法和装置
CN104636745B (zh) * 2013-11-08 2018-04-10 株式会社理光 尺度不变特征提取方法和装置、对象识别方法和装置
CN104715471A (zh) * 2014-01-03 2015-06-17 杭州海康威视数字技术股份有限公司 目标定位跟踪方法及其装置
CN104715471B (zh) * 2014-01-03 2018-01-02 杭州海康威视数字技术股份有限公司 目标定位跟踪方法及其装置
CN105096292A (zh) * 2014-04-30 2015-11-25 株式会社理光 对象数量估计方法和装置
CN105096292B (zh) * 2014-04-30 2018-02-02 株式会社理光 对象数量估计方法和装置
CN107111764A (zh) * 2015-01-16 2017-08-29 高通股份有限公司 由对象在成像装置的视野中的深度触发的事件
CN104657993A (zh) * 2015-02-12 2015-05-27 北京格灵深瞳信息技术有限公司 一种镜头遮挡检测方法及装置
CN104866844A (zh) * 2015-06-05 2015-08-26 中国人民解放军国防科学技术大学 一种面向监控视频的人群聚集检测方法
CN104866844B (zh) * 2015-06-05 2018-03-13 中国人民解放军国防科学技术大学 一种面向监控视频的人群聚集检测方法
CN106228560A (zh) * 2016-07-28 2016-12-14 长安大学 一种复杂场景下的人数统计方法
CN106228560B (zh) * 2016-07-28 2019-05-14 长安大学 一种复杂场景下的人数统计方法
CN106446788A (zh) * 2016-08-31 2017-02-22 山东恒宇电子有限公司 基于视神经机制的高动态范围图像统计客流的方法
CN107977612A (zh) * 2017-11-21 2018-05-01 中国电影科学技术研究所 一种红外图像人数识别方法
CN108446719A (zh) * 2018-02-09 2018-08-24 浙江新再灵科技股份有限公司 基于深度相机衡量商场内广告牌关注度的方法
CN110705408A (zh) * 2019-09-23 2020-01-17 东南大学 基于混合高斯人数分布学习的室内人数统计方法及系统
WO2021093276A1 (zh) * 2019-11-12 2021-05-20 通号通信信息集团有限公司 人群计数系统中基于可变形高斯核的训练数据生成方法
CN112097272A (zh) * 2020-08-14 2020-12-18 杭州科晟能源技术有限公司 一种面向垃圾焚烧进料的自动给料控制方法及系统

Similar Documents

Publication Publication Date Title
CN102890791A (zh) 基于深度信息聚类的复杂场景人数统计方法
CN102799863B (zh) 视频监控中的团体人群异常行为检测方法
CN103077386B (zh) 一种级联的视频流虹膜图像质量检测方法
US7965866B2 (en) System and process for detecting, tracking and counting human objects of interest
CN103971386B (zh) 一种动态背景场景下的前景检测方法
CN103530874B (zh) 基于Kinect的人流计数方法
CN103279791B (zh) 基于多特征的行人计算方法
CN103927520A (zh) 一种逆光环境下人脸检测方法
CN105608450A (zh) 基于深度卷积神经网络的异质人脸识别方法
CN102521646B (zh) 基于深度信息聚类的复杂场景人数统计方法
US20130251197A1 (en) Method and a device for objects counting
CN104978567B (zh) 基于场景分类的车辆检测方法
CN107491749B (zh) 一种人群场景中全局和局部异常行为检测方法
CN103824070A (zh) 一种基于计算机视觉的快速行人检测方法
CN103077539A (zh) 一种复杂背景及遮挡条件下的运动目标跟踪方法
CN103106659A (zh) 基于双目视觉稀疏点匹配的空旷区域目标检测与跟踪方法
CN104318263A (zh) 一种实时高精度人流计数方法
CN104200485A (zh) 一种面向视频监控的人体跟踪方法
CN103605969A (zh) 一种人脸录入的方法及装置
CN102609720A (zh) 一种基于位置校正模型的行人检测方法
CN103325115B (zh) 一种基于头顶摄像头的监控行人计数的方法
CN102930524A (zh) 一种基于垂直放置的深度摄像头的人头检测方法
CN104063692A (zh) 一种行人定位检测方法及系统
CN103679704A (zh) 一种基于光照补偿的视频运动阴影检测方法
CN109711256A (zh) 一种低空复杂背景无人机目标检测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C53 Correction of patent of invention or patent application
CB02 Change of applicant information

Address after: Hangzhou City, Zhejiang province Yuhang District 311121 West Street Wuchang No. 998 building 7 East

Applicant after: Zhejiang iCare Vision Technology Co., Ltd.

Address before: 310013, Zhejiang, Xihu District, Hangzhou, Tian Shan Road, No. 398, Kun building, four floor, South Block

Applicant before: Zhejiang iCare Vision Technology Co., Ltd.

C53 Correction of patent of invention or patent application
CB02 Change of applicant information

Address after: Hangzhou City, Zhejiang province Yuhang District 311121 West Street Wuchang No. 998 building 7 East

Applicant after: ZHEJIANG ICARE VISION TECHNOLOGY CO., LTD.

Address before: Hangzhou City, Zhejiang province Yuhang District 311121 West Street Wuchang No. 998 building 7 East

Applicant before: Zhejiang iCare Vision Technology Co., Ltd.

COR Change of bibliographic data

Free format text: CORRECT: APPLICANT; FROM: HANGZHOU ICARE VISION TECHNOLOGY CO., LTD. TO: ZHEJIANG ICARE VISION TECHNOLOGY CO., LTD.

C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20130123