CN103530874A - 基于Kinect的人流计数方法 - Google Patents
基于Kinect的人流计数方法 Download PDFInfo
- Publication number
- CN103530874A CN103530874A CN201310464624.4A CN201310464624A CN103530874A CN 103530874 A CN103530874 A CN 103530874A CN 201310464624 A CN201310464624 A CN 201310464624A CN 103530874 A CN103530874 A CN 103530874A
- Authority
- CN
- China
- Prior art keywords
- tracking object
- point
- follows
- tracking
- profile
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
本发明公开了一种基于Kinect的人流计数方法。该方法步骤包括:读入深度图像当前帧,设置阈值对深度图像进行分割,得到阈值分割图;对阈值分割图去噪,获得跟踪对象图;对像素点作投影处理,获得跟踪对象投影图;在投影图中获得跟踪对象连通区域的轮廓序列;在跟踪对象图中获得头部跟踪对象连通区域,构成当前帧轨迹点集合;判断各轨迹点的跟踪对象归属,更新或新建跟踪对象的轨迹点集合;判断所有跟踪对象轨迹点集合是否满足跟踪计数条件,更新入出计数器;排除已离开场景跟踪对象的轨迹点集合。该方法适用于各类通道口的人流计数,计数准确率高,设备复杂度低,不受场景光线变化、阴影、透视效应及遮挡的影响,适应于不同环境场所的人流计数。
Description
技术领域
本发明是涉及一种视频目标跟踪及计数的方法,具体地说是涉及一种基于Kinect立体视觉的人流计数方法。该方法采用Microsoft Kinect 3D立体感摄像机作为视频输入,可用于深度图像的动态捕捉实现实时的人头目标跟踪与计数,尤其适用于公众场所通道出入口的人流计数。
背景技术
基于机器视觉的通道出入口处的人流计数是根据摄像机拍摄的场景图像,通过对场景图像的处理检测场景图像内的人,统计通过通道出入口处的人流的数量。比如,通过在展厅的出入口处安装摄像机,实时估计展厅内的人数,得到展厅的拥挤程度,进而作出判断和处理。
目前基于机器视觉的人流计数系统是利用对人体跟踪的方法进行人流计数。对人体跟踪的方法,有单个摄像机获取的单目视觉的人体跟踪计数方法和多个摄像机同步获取的立体视觉的人体跟踪计数方法。
基于单目视觉的人体跟踪计数方法,该方法的跟踪算法复杂度较低,但是视频图像的特征的提取具有较大的难度。对视频图像中人体和背景的对比程度有着较高要求,且对光照、阴影、服饰等的变化较为敏感。当人体旋转或被其它物遮挡时,视频图像中无法得到人体区域的特征,会出现跟踪目标丢失的现象。
基于多个摄像机同步获取的立体视觉的人体跟踪计数方法,是通过人体的空间三维信息进行跟踪和计数,该方法有赖于图像的无歧义匹配,由于受到摄像机拍摄的场景中诸多因素的影响,例如,场景中物体几何形状、噪声干扰及摄像机特性等因素的影响,同一被拍摄对象在不同视点下获取的图像,拍摄的图像会有很大的差别,难以将不同视点下的图像进行无歧义地匹配,三维场景中的部分空间信息将丢失或出错,在拍摄的视频图像中无法得到全部人体区域的特征,将导致跟踪目标丢失,人流计数准确率下降。
Microsoft公司的Kinect系统是一种基于红外结构光原理的深度相机,在3.5m的短距离范围内可以获得较精确的跟踪目标动态深度和色彩图像,这为利用跟踪目标深度信息进行跟踪目标的检测与分割提供了较好的硬件解决手段。
发明内容
本发明的目的在于针对现有基于立体视觉人流跟踪计数技术中存在的技术问题,提供一种基于Kinect的人流计数方法,该方法采用Kinect摄像机,自顶向下安装,能拍摄人体的深度视频图像,适用于通道出入口的人流计数的需求,不受摄像机拍摄的场景光线变化的影响,进而提高人流计数准确率。
为了达到上述目的,本发明的技术方案是:上述基于Kinect的人流计数方法,其特征在于该方法包括如下步骤:
(1)、采用OpenNI驱动读入深度图像的当前帧,遍历深度图像中的每一个像素点,设置用于分割深度图像的阈值,按分割阈值对深度图像分割,得到阈值分割图;对阈值分割图作消除噪声处理,获得跟踪对象图;
(2)、遍历上述跟踪对象图中每一个像素点,对像素点作投影处理,获得跟踪对象投影图;在跟踪对象投影图中获得跟踪对象连通区域的轮廓序列;在跟踪对象图中排除肩部连通区域;通过跟踪对象连通区域存在交点轮廓序列获得头部跟踪对象连通区域;将头部跟踪对象连通区域中心点作为跟踪对象轨迹点,构成当前帧轨迹点集合;
(3)、判断当前帧各轨迹点的跟踪对象归属,若属于现有跟踪对象的轨迹点集合,则将轨迹点加入该集合;若是新进轨迹点,则建立新的跟踪对象的轨迹点集合;
(4)、判断上述所有跟踪对象轨迹点集合中的跟踪对象轨迹点是否满足跟踪计数条件,若是满足跟踪计数条件,则相应“入”的计数器或“出”的计数器加1,并删除该跟踪对象的轨迹点;否则保留该跟踪对象的轨迹点;
(5)、排除已离开场景跟踪对象的轨迹点集合,返回步骤(1), 重复循环进行步骤(1)至步骤(5),直至计数结束。
本发明的基于Kinect的人流计数方法与现有人流计数方法相比较,具有如下特征和优点:本发明采用Kinect设备,以此来获得场景的深度图像,Kinect使用不可见的红外线来获取场景的深度信息,不受场景光线变化的影响;利用透视投影和贝叶斯框架跟踪方法来实现精确获取场景中人头位置并实现运动跟踪,达到计数的目的。本发明提出的基于Kinect的人流计数方法适用于公众场所的通道口人流计数的需求,不受场景光线变化、阴影、透视效应及遮挡的影响,具有设备简单,计数准确率高的特点。
附图说明
图1是本发明的基于Kinect的人流计数方法的硬件构成示意图。
图2是本发明的基于Kinect的人流计数方法的流程图。
图3是本发明的基于kinect的人流计数方法的具体实施方式流程示意图。
具体实施方式
以下结合附图对本发明的基于Kinect的人流计数方法作进一步的详细描述。
如图1所示,上述基于Kinect的计数方法所涉硬件由自顶向下安装的Kinect深度摄像机和计数主机组成;如图2、图3所示,上述基于Kinect的人流计数方法,其特征在于包括如下步骤:
(1)、通过OpenNI驱动读入深度图像的当前帧,遍历深度图像中的每一个像素点,设置用于分割深度图像的阈值T,按分割阈值对深度图像分割,得到阈值分割图;对阈值分割图作消除噪声处理,获得跟踪对象图,其具体步骤如下:
(1-1)、、上述步骤(1)所述的采用通过OpenNI驱动读入深度图像,遍历深度图像中的每一个像素点,设置用于分割深度图像的阈值T,按分割阈值对深度图像分割,得到阈值分割图,其具体如下:
将上述深度图像中的像素点位置记为(i,j),该像素点的灰度值记为f(i,j),设置用于分割深度图像的阈值T,判断深度图像中的灰度值f(i,j)是否大于阈值T, 如果灰度值f(i,j)大于阈值T,则将灰度值f(i,j)所表示的像素点的灰度值保留,否则将灰度值f(i,j)所表示的像素点的灰度值置为255,其表达式如下:
式(1)中,(i,j)是像素点坐标位置,f(i,j) 表示像素点的灰度值,T为用于分割深度图像的阈值,该阈值为Kinect安装高度与所检测运动目标高度的差值,g(i,j)为域值分割后的阈值分割图;
(1-2)、对步骤(1-1)中所述的的阈值分割图作消除噪声处理,获得跟踪对象图,其具体如下:
以3×3的像素点作为结构元素,记为b,对阈值分割图g(i,j)分别作形态学的开运算及闭运算处理,以去除噪声,分别得到开运算后的跟踪对象图、闭运算后的跟踪对象图,其表达式分别如下:
(2)、遍历上述跟踪对象图中每一个像素点,对像素点作透视投影处理,获得跟踪对象投影图;在跟踪对象投影图中获得跟踪对象连通区域的轮廓序列;通过轮廓序列获得头部跟踪对象连通区域位置的中心点作为跟踪对象轨迹点,构成当前帧轨迹点集合,其具体步骤如下:
(2-1)、遍历步骤(1)的跟踪对象图中每一个像素点,对每一个像素点作透视投影,获得跟踪对象的地面投影图,其具体如下:
遍历步骤(1-2)所得的跟踪对象图中的每一个像素点的灰度值g 2(i,j),判断跟踪对象图中的各像素点的灰度值是否等于255,如果像素点的灰度值不等于255,则将灰度值g 2(i,j)进行透视坐标映射,其表达式如下:
(4)
(2-2)、获得跟踪对象连通区域的轮廓点,其具体步骤如下:
在步骤(2-1)得到的跟踪对象投影图g 3中,以2×2的像素点作为结构元素进行形态学处理,该结构元素记为b 2 , 跟踪对象投影图g 3中连通区域的轮廓序列可以通过b 2对跟踪对象投影图的腐蚀,再用跟踪对象投影图减去b 2对跟踪对象投影图的腐蚀得到,其表达式如下:
(5)
统计轮廓点集合中各联通区域的轮廓点长度,记为len,设置连通区域的轮廓长度len的长度阈值Q,判断轮廓长度len是否小于长度阈值Q,如果轮廓序列长度len < Q ,则舍弃该轮廓所表示的连通区域,如果轮廓序列长度len ≥ Q,则保留该轮廓序列所表示的连通区域;
(2-3)、在跟踪对象图中获取头部连通区域,其具体如下:
检测步骤(2-2)得到的所有跟踪对象连通区域的轮廓点是否有交点,如果各跟踪对象连通区域的轮廓点存在交点,则认为存在交点的轮廓是跟踪对象,跳转步骤(2-4);如果跟踪对象连通区域的轮廓点不存在交点,则认为不是跟踪对象;
(2-4)、头部跟踪对象联通区域的确定,其具体如下:
设置确定头部跟踪对象的的灰度平均值,该灰度平均值为P,统计跟踪对象连通区域的存在交点的轮廓灰度值是否有小于头部跟踪对象的灰度平均值P,如果有小于头部跟踪对象的灰度平均值P,则将小于灰度平均值P对应的交点的轮廓作为头部跟踪对象连通区域,如果没有小于头部跟踪对象的灰度平均值P,则将大于或等于灰度平均值P对应的交点的轮廓丢弃;
(2-5)、将步骤(2-4)所述的头部连通区域位置的中心点作为跟踪对象轨迹点,其具体如下:
将步骤(2-3)中所述的轮廓长度len所表示的连通区域设定为跟踪对象连通区域,将连通区域的中心点作为跟踪对象轨迹点,所有连通区域中心点将构成当前帧轨迹点的集合,记为
Pt ={e k1, e k2,…,e km,}={(x k1,y k1), (x k2,y k2),…(x km,y km)} (6)
其中,e ki 表示当前第k帧中第i个联通区域,m为联通区域个数,即有m个待跟踪对象;
(3)、判断当前帧各轨迹点的跟踪对象归属,若属于现有跟踪对象的轨迹点集合,则将轨迹点加入该集合;若是新进轨迹点,则建立新的跟踪对象的轨迹点集合,其具体步骤如下:
(3-1)、对由步骤(2)获得的各轨迹点作归属判断,其具体如下:
设第i个跟踪对象的轨迹点集合为E i,其表达式为:
E i={e 1,e 2,…,e k},
其中e k=(x k,y k)为集合中的第k个轨迹点,
p(e k|s k)为以下一帧预测轨迹点为均值的高斯分布,其表达式如下:
(7)
其中,б表示x方向分布的标准差,б y 表示y方向分布的标准差,x方向分布的标准差与跟踪对象的速度成正比,即,б x =λv x ,y方向分布的标准差与跟踪对象的速度成正比,即,б y =λv y ,取λ=0.25,Δt=t k -t k-1则,预测轨迹点表达式为:
如果第i个跟踪对象的轨迹集合E i中的轨迹点不足10个轨迹点,则计算第i个跟踪对象的E i中的所有轨迹点平均速度,
P={p k1,p k2,…,p km},
设置概率阈值T,选取集合P中最大的概率值pmax,将最大的概率值pmax与概率阈值T比较,判断是否大于概率阈值T,如果pmax < T,则认定该轨迹点为不匹配轨迹点;如果pmax ≥ T,则认定该轨迹点为匹配轨迹点,将该匹配轨迹点加入到第i个跟踪对象的轨迹集合E i,
(3-2)、在所有m个轨迹点中,如果其中一个轨迹点对所有的跟踪对象的概率值均小于概率阈值T,则认为该轨迹点为新进的跟踪对象,为该新进的跟踪对象建立新的跟踪对象轨迹点集合;
(4)、判断上述所有跟踪对象轨迹点集合是否满足跟踪计数条件,若是满足跟踪计数条件,则相应“入”的计数器或“出”的计数器加1,并删除该跟踪对象的轨迹点,否则留该跟踪对象的轨迹点,其具体步骤如下:
(4-1)、根据步骤(4),对跟踪对象的轨迹点集合状态作判断,其具体如下:
对于第i个跟踪对象轨迹点集合E i,统计集合E i在x及y方向上的偏移,表示为下式:
(9)
判断第i个跟踪对象轨迹点集合E i 在x及y方向上的偏移是否满足下列表达式:
Δx < k-1,且 Δy < k-1,
如果满足,则认为第i个跟踪对象轨迹点集合E i所表示的对象为静止对象,删除第i个跟踪对象轨迹点集合E;,否则,是正常的跟踪对象,跳转入步骤(4-2);
(4-2)、对跟踪对象进行计数判定,其具体如下:
定义第i个跟踪对象轨迹点集合E i 的判断,其判断表达式为:
(10)
其中,ybase是图像中垂直方向的中间基准线位置的数值,
分别定义计数器的中的“入”、“出”,具体如下:
跟踪对象从图像上半部分运动到图像下半部分称为“入”, 跟踪对象由图像下半部分运动到图像上半部分称为“出”,
如果当跟踪对象满足y1<ybase,yk>ybase 且Δy>k-1,则对第i个跟踪对象轨迹点集E i 的跟踪结束,“出”方向的计数器加1;反之,如果当跟踪对象满足y1>ybase,yk<ybase 且Δy>k-1,则“入”方向的计数器加1;
如果当跟踪对象满足“入”、“出”判定,则删除该跟踪对象轨迹点集合E i ,否则更新该跟踪对象轨迹点集合E i中的元素个数集合n i ,其表达式为:
ni={n i1,n i2,…,n ik},
对更新后的第i个跟踪对象轨迹点集合E i 续继续跟踪;(5)、排除已离开场景跟踪对象的轨迹集合,返回步骤(1)重复循环进行步骤(1)至步骤(5),直至计数结束,其具体如下:
统计各跟踪对象轨迹点集合E i 中最后5个元素个数,其表达式如下式:
如公式(11)成立,则删除集合n i 代表的跟踪对象的轨迹集合E i ,否则返回步骤(1)重复循环进行步骤(1)至步骤(5),直至计数结束。
Claims (5)
1.一种基于Kinect的人流计数方法,其特征在于,该方法包括如下步骤:
(1)、采用OpenNI驱动读入深度图像的当前帧,遍历深度图像中的每一个像素点,设置用于分割深度图像的阈值,按分割阈值对深度图像分割,得到阈值分割图;对阈值分割图作消除噪声处理,获得跟踪对象图;
(2)、遍历上述跟踪对象图中每一个像素点,对像素点作投影处理,获得跟踪对象投影图;在跟踪对象投影图中获得跟踪对象连通区域的轮廓序列;在跟踪对象图中排除肩部连通区域;通过跟踪对象连通区域存在交点轮廓序列获得头部跟踪对象连通区域;将头部跟踪对象连通区域中心点作为跟踪对象轨迹点,构成当前帧轨迹点集合;
(3)、判断当前帧各轨迹点的跟踪对象归属,若属于现有跟踪对象的轨迹点集合,则将轨迹点加入该集合;若是新进轨迹点,则建立新的跟踪对象的轨迹点集合;
(4)、判断上述所有跟踪对象轨迹点集合中的跟踪对象轨迹点是否满足跟踪计数条件,若是满足跟踪计数条件,则相应“入”的计数器或“出”的计数器加1,并删除该跟踪对象的轨迹点;否则保留该跟踪对象的轨迹点;
(5)、排除已离开场景跟踪对象的轨迹点集合,返回步骤(1), 重复循环进行步骤(1)至步骤(5),直至计数结束。
2.根据权利要求1所述的基于Kinect的人流计数方法,其特征在于,上述步骤(1)所述的通过OpenNI驱动读入深度图像的当前帧,遍历深度图像中的每一个像素点,设置用于分割深度图像的阈值T,按分割阈值对深度图像分割,得到阈值分割图;对阈值分割图作消除噪声处理,获得跟踪对象图,其具体步骤如下:
(1-1)、上述步骤(1)所述的采用通过OpenNI驱动读入深度图像,遍历深度图像中的每一个像素点,设置用于分割深度图像的阈值T,按分割阈值对深度图像分割,得到阈值分割图,其具体如下:
将上述深度图像中的像素点位置记为(i,j),该像素点的灰度值记为f(i,j),设置用于分割深度图像的阈值T,判断深度图像中的灰度值f(i,j)是否大于阈值T, 如果灰度值f(i,j)大于阈值T,则将灰度值f(i,j)所表示的像素点的灰度值保留,否则将灰度值f(i,j)所表示的像素点的灰度值置为255,其表达式如下:
式(1)中,(i,j)是像素点坐标位置,f(i,j) 表示像素点的灰度值,T为用于分割深度图像的阈值,该阈值为Kinect安装高度与所检测运动目标高度的差值,g(i,j)为域值分割后的阈值分割图;
(1-2)、对步骤(1-1)中所述的的阈值分割图作消除噪声处理,获得跟踪对象图,其具体如下:
以3×3的像素点作为结构元素,记为b,对阈值分割图g(i,j)分别作形态学的开运算及闭运算处理,以去除噪声,分别得到开运算后的跟踪对象图、闭运算后的跟踪对象图,其表达式分别如下:
(2)
3.根据权利要求2所述的基于Kinect的人流计数方法,其特征在于,上述步骤(2)所述的遍历上述跟踪对象图中每一个像素点,对像素点作透视投影处理,获得跟踪对象投影图;在跟踪对象投影图中获得跟踪对象连通区域的轮廓序列;通过轮廓序列获得头部跟踪对象连通区域位置的中心点作为跟踪对象轨迹点,构成当前帧轨迹点集合,其具体步骤如下:
(2-1)、遍历步骤(1)的跟踪对象图中每一个像素点,对每一个像素点作透视投影,获得跟踪对象的地面投影图,其具体如下:
遍历步骤(1-2)所得的跟踪对象图中的每一个像素点的灰度值g 2(i,j),判断跟踪对象图中的各像素点的灰度值是否等于255,如果像素点的灰度值不等于255,则将灰度值g 2(i,j)进行透视坐标映射,其表达式如下:
(2-2)、获得跟踪对象连通区域的轮廓点,其具体步骤如下:
在步骤(2-1)得到的跟踪对象投影图g 3中,以2×2的像素点作为结构元素进行形态学处理,该结构元素记为b 2 , 跟踪对象投影图g 3中连通区域的轮廓序列可以通过b 2对跟踪对象投影图的腐蚀,再用跟踪对象投影图减去b 2对跟踪对象投影图的腐蚀得到,其表达式如下:
(5)
统计轮廓点集合中各联通区域的轮廓点长度,记为len,设置连通区域的轮廓长度len的长度阈值Q,判断轮廓长度len是否小于长度阈值Q,如果轮廓序列长度len < Q ,则舍弃该轮廓所表示的连通区域,如果轮廓序列长度len ≥ Q,则保留该轮廓序列所表示的连通区域;
(2-3)、在跟踪对象图中获取头部连通区域,其具体如下:
检测步骤(2-2)得到的所有跟踪对象连通区域的轮廓点是否有交点,如果各跟踪对象连通区域的轮廓点存在交点,则认为存在交点的轮廓是跟踪对象,跳转步骤(2-4);如果跟踪对象连通区域的轮廓点不存在交点,则认为不是跟踪对象;
(2-4)、头部跟踪对象联通区域的确定,其具体如下:
设置确定头部跟踪对象的的灰度平均值,该灰度平均值为P,统计跟踪对象连通区域的存在交点的轮廓灰度值是否有小于头部跟踪对象的灰度平均值P,如果有小于头部跟踪对象的灰度平均值P,则将小于灰度平均值P对应的交点的轮廓作为头部跟踪对象连通区域,如果没有小于头部跟踪对象的灰度平均值P,则将大于或等于灰度平均值P对应的交点的轮廓丢弃;
(2-5)、将步骤(2-4)所述的头部连通区域位置的中心点作为跟踪对象轨迹点,其具体如下:
将步骤(2-3)中所述的轮廓长度len所表示的连通区域设定为跟踪对象连通区域,将连通区域的中心点作为跟踪对象轨迹点,所有连通区域中心点将构成当前帧轨迹点的集合,记为
Pt ={e k1, e k2,…,e km,}={(x k1,y k1), (x k2,y k2),…(x km,y km)} (6)
其中,e ki 表示当前第k帧中第i个联通区域,m为联通区域个数,即有m个待跟踪对象。
4.根据权利要求3所述的基于Kinect的人流计数方法,其特征在于,上述步骤(3)所述的判断当前帧各轨迹点的跟踪对象归属,若属于现有跟踪对象的轨迹点集合,则将轨迹点加入该集合;若是新进轨迹点,则建立新的跟踪对象的轨迹点集合,其具体步骤如下:
(3-1)、对由步骤(2)获得的各轨迹点作归属判断,其具体如下:
设第i个跟踪对象的轨迹点集合为E i,其表达式为:
E i={e 1,e 2,…,e k},
其中e k=(x k,y k)为集合中的第k个轨迹点,
p(e k|s k)为以下一帧预测轨迹点为均值的高斯分布,其表达式如下:
其中,б表示x方向分布的标准差,б y 表示y方向分布的标准差,x方向分布的标准差与跟踪对象的速度成正比,即,б x =λv x ,y方向分布的标准差与跟踪对象的速度成正比,即,б y =λv y ,取λ=0.25,Δt=t k -t k-1则,预测轨迹点表达式为:
如果第i个跟踪对象的轨迹集合E i中的轨迹点不足10个轨迹点,则计算第i个跟踪对象的E i中的所有轨迹点平均速度,
P={p k1,p k2,…,p km},
设置概率阈值T,选取集合P中最大的概率值pmax,将最大的概率值pmax与概率阈值T比较,判断是否大于概率阈值T,如果pmax < T,则认定该轨迹点为不匹配轨迹点;如果pmax ≥ T,则认定该轨迹点为匹配轨迹点,将该匹配轨迹点加入到第i个跟踪对象的轨迹集合E i,
(3-2)、在所有m个轨迹点中,如果其中一个轨迹点对所有的跟踪对象的概率值均小于概率阈值T,则认为该轨迹点为新进的跟踪对象,为该新进的跟踪对象建立新的跟踪对象轨迹点集合。
5.根据权利要求4所述的基于Kinect的人流计数方法,其特征在于,上述步骤(4)所述的判断上述所有跟踪对象轨迹点集合是否满足跟踪计数条件,若是满足跟踪计数条件,则相应“入”的计数器或“出”的计数器加1,并删除该跟踪对象的轨迹点,否则保留该跟踪对象的轨迹点,其具体步骤如下:
(4-1)、根据步骤(4),对跟踪对象的轨迹点集合状态作判断,其具体如下:
对于第i个跟踪对象轨迹点集合E i,统计集合E i在x及y方向上的偏移,表达式为:
判断第i个跟踪对象轨迹点集合E i 在x及y方向上的偏移是否满足下列表达式:
Δx < k-1,且 Δy < k-1,
如果满足,则认为第i个跟踪对象轨迹点集合E i所表示的对象为静止对象,删除第i个跟踪对象轨迹点集合E;,否则,是正常的跟踪对象,跳转入步骤(4-2);
(4-2)、对跟踪对象进行计数判定,其具体如下:
定义第i个跟踪对象轨迹点集合E i 的判断,其判断表达式为:
其中,ybase是图像中垂直方向的中间基准线位置的数值,
分别定义计数器的中的“入”、“出”,具体如下:
跟踪对象从图像上半部分运动到图像下半部分称为“入”, 跟踪对象由图像下半部分运动到图像上半部分称为“出”,
如果当跟踪对象满足y1<ybase,yk>ybase 且Δy>k-1,则对第i个跟踪对象轨迹点集E i 的跟踪结束,“出”方向的计数器加1;反之,如果当跟踪对象满足y1>ybase,yk<ybase 且Δy>k-1,则“入”方向的计数器加1;
如果当跟踪对象满足“入”、“出”判定,则删除该跟踪对象轨迹点集合E i ,否则更新该跟踪对象轨迹点集合E i中的元素个数集合n i ,其表达式为:
ni={n i1,n i2,…,n ik},
对更新后的第i个跟踪对象轨迹点集合E i 续继续跟踪;(5)、排除已离开场景跟踪对象的轨迹集合,返回步骤(1)重复循环进行步骤(1)至步骤(5),直至计数结束,其具体如下:
统计各跟踪对象轨迹点集合E i 中最后5个元素个数,其表达式如下式:
(11)
如公式(11)成立,则删除集合n i 代表的跟踪对象的轨迹集合E i ,否则返回步骤(1)重复循环进行步骤(1)至步骤(5),直至计数结束。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310464624.4A CN103530874B (zh) | 2013-10-09 | 2013-10-09 | 基于Kinect的人流计数方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310464624.4A CN103530874B (zh) | 2013-10-09 | 2013-10-09 | 基于Kinect的人流计数方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103530874A true CN103530874A (zh) | 2014-01-22 |
CN103530874B CN103530874B (zh) | 2016-06-29 |
Family
ID=49932853
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310464624.4A Expired - Fee Related CN103530874B (zh) | 2013-10-09 | 2013-10-09 | 基于Kinect的人流计数方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103530874B (zh) |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104658009A (zh) * | 2015-01-09 | 2015-05-27 | 北京环境特性研究所 | 一种基于视频图像的运动目标检测方法 |
CN104835147A (zh) * | 2015-04-15 | 2015-08-12 | 中国科学院上海微系统与信息技术研究所 | 基于三维深度图数据的密集人流量实时检测方法 |
CN104952056A (zh) * | 2014-03-26 | 2015-09-30 | 株式会社理光 | 一种基于立体视觉的目标检测方法和系统 |
CN105096292A (zh) * | 2014-04-30 | 2015-11-25 | 株式会社理光 | 对象数量估计方法和装置 |
CN105631463A (zh) * | 2014-11-28 | 2016-06-01 | 无锡慧眼电子科技有限公司 | 一种基于时空体运动轮廓特征的行人检测方法 |
CN106056030A (zh) * | 2015-04-03 | 2016-10-26 | 韩华泰科株式会社 | 用于对人数进行计数的方法和设备 |
CN106530310A (zh) * | 2016-10-25 | 2017-03-22 | 深圳大学 | 一种基于人体头顶部识别的行人统计方法及装置 |
CN106570883A (zh) * | 2016-10-25 | 2017-04-19 | 长安大学 | 一种基于rgb‑d相机的人数统计方法 |
CN106600777A (zh) * | 2016-12-09 | 2017-04-26 | 济南赛英立德电子科技有限公司 | 基于红外阵列人数传感器的计数方法及装置 |
CN106914016A (zh) * | 2015-12-25 | 2017-07-04 | 北京奇虎科技有限公司 | 游戏选手确定方法及装置 |
CN107225570A (zh) * | 2017-04-20 | 2017-10-03 | 深圳前海勇艺达机器人有限公司 | 智能机器人的避障方法及装置 |
CN107481646A (zh) * | 2017-08-15 | 2017-12-15 | 福州东方智慧网络科技有限公司 | 一种提高受众量的广告机装置 |
CN109447016A (zh) * | 2018-11-07 | 2019-03-08 | 浩云科技股份有限公司 | 一种基于结构光的加钞间人数统计方法及系统 |
CN109508652A (zh) * | 2018-10-25 | 2019-03-22 | 国影(北京)科技有限责任公司 | 观影人数统计方法、装置及电子设备 |
CN110335216A (zh) * | 2019-07-09 | 2019-10-15 | Oppo广东移动通信有限公司 | 图像处理方法、图像处理装置、终端设备及可读存储介质 |
CN110717926A (zh) * | 2018-07-13 | 2020-01-21 | 杭州海康威视数字技术股份有限公司 | 一种获取行人流量信息的方法及装置 |
CN110717400A (zh) * | 2019-09-12 | 2020-01-21 | 北京华捷艾米科技有限公司 | 一种客流统计方法、装置及系统 |
CN110816355A (zh) * | 2019-11-12 | 2020-02-21 | 深圳创维数字技术有限公司 | 车辆充电方法、设备及计算机可读存储介质 |
CN112819835A (zh) * | 2021-01-21 | 2021-05-18 | 博云视觉科技(青岛)有限公司 | 一种基于3d深度视频的客流计数方法 |
CN113361360A (zh) * | 2021-05-31 | 2021-09-07 | 山东大学 | 基于深度学习的多人跟踪方法及系统 |
CN114119648A (zh) * | 2021-11-12 | 2022-03-01 | 史缔纳农业科技(广东)有限公司 | 一种用于固定通道的猪只计数方法 |
CN116110081A (zh) * | 2023-04-12 | 2023-05-12 | 齐鲁工业大学(山东省科学院) | 基于深度学习的安全帽佩戴的检测方法及系统 |
-
2013
- 2013-10-09 CN CN201310464624.4A patent/CN103530874B/zh not_active Expired - Fee Related
Non-Patent Citations (4)
Title |
---|
CHING-TANG HSIEH等: "《A Kinect-Based People-flow Counting System》", 《2012 IEEE INTERNATIONAL SYMPOSIUM ON INTELLIGENT SIGNAL PROCESSINGAND COMMUNICATION SYSTEMS (ISPACS 2012)》 * |
DAW-TUNG LIN等: "《A Novel Layer-Scanning Method for Improving Real-Time People Counting》", 《HCI INTERNATIONAL 2013 - POSTERS’ EXTENDED ABSTRACTS》 * |
DONG CHAO等: "《Design and Implementation of an Intelligent Passenger Counting System Based on the Kinect Sensor》", 《PROC. SPIE 8908, INTERNATIONAL SYMPOSIUM ON PHOTOELECTRONIC DETECTION AND IMAGING 2013: IMAGING SENSORS AND APPLICATIONS》 * |
GUANGYU ZHAO等: "《Depth-Assisted Face Detection and Association for People Counting》", 《PATTERN RECOGNITION》 * |
Cited By (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104952056B (zh) * | 2014-03-26 | 2018-01-16 | 株式会社理光 | 一种基于立体视觉的目标检测方法和系统 |
CN104952056A (zh) * | 2014-03-26 | 2015-09-30 | 株式会社理光 | 一种基于立体视觉的目标检测方法和系统 |
CN105096292B (zh) * | 2014-04-30 | 2018-02-02 | 株式会社理光 | 对象数量估计方法和装置 |
CN105096292A (zh) * | 2014-04-30 | 2015-11-25 | 株式会社理光 | 对象数量估计方法和装置 |
CN105631463A (zh) * | 2014-11-28 | 2016-06-01 | 无锡慧眼电子科技有限公司 | 一种基于时空体运动轮廓特征的行人检测方法 |
CN104658009A (zh) * | 2015-01-09 | 2015-05-27 | 北京环境特性研究所 | 一种基于视频图像的运动目标检测方法 |
CN106056030A (zh) * | 2015-04-03 | 2016-10-26 | 韩华泰科株式会社 | 用于对人数进行计数的方法和设备 |
CN106056030B (zh) * | 2015-04-03 | 2021-11-30 | 韩华泰科株式会社 | 用于对人数进行计数的方法和设备 |
CN104835147A (zh) * | 2015-04-15 | 2015-08-12 | 中国科学院上海微系统与信息技术研究所 | 基于三维深度图数据的密集人流量实时检测方法 |
CN106914016A (zh) * | 2015-12-25 | 2017-07-04 | 北京奇虎科技有限公司 | 游戏选手确定方法及装置 |
CN106530310A (zh) * | 2016-10-25 | 2017-03-22 | 深圳大学 | 一种基于人体头顶部识别的行人统计方法及装置 |
CN106570883A (zh) * | 2016-10-25 | 2017-04-19 | 长安大学 | 一种基于rgb‑d相机的人数统计方法 |
CN106570883B (zh) * | 2016-10-25 | 2019-10-22 | 长安大学 | 一种基于rgb-d相机的人数统计方法 |
JP2018535457A (ja) * | 2016-10-25 | 2018-11-29 | シェンチェン ユニバーシティー | 人体頭頂部の識別に基づく通行人の統計方法及び装置 |
CN106530310B (zh) * | 2016-10-25 | 2018-02-23 | 深圳大学 | 一种基于人体头顶部识别的行人统计方法及装置 |
WO2018076392A1 (zh) * | 2016-10-25 | 2018-05-03 | 深圳大学 | 一种基于人体头顶部识别的行人统计方法及装置 |
CN106600777A (zh) * | 2016-12-09 | 2017-04-26 | 济南赛英立德电子科技有限公司 | 基于红外阵列人数传感器的计数方法及装置 |
CN106600777B (zh) * | 2016-12-09 | 2019-02-22 | 济南赛英立德电子信息股份有限公司 | 基于红外阵列人数传感器的计数方法及装置 |
CN107225570A (zh) * | 2017-04-20 | 2017-10-03 | 深圳前海勇艺达机器人有限公司 | 智能机器人的避障方法及装置 |
CN107481646A (zh) * | 2017-08-15 | 2017-12-15 | 福州东方智慧网络科技有限公司 | 一种提高受众量的广告机装置 |
CN110717926A (zh) * | 2018-07-13 | 2020-01-21 | 杭州海康威视数字技术股份有限公司 | 一种获取行人流量信息的方法及装置 |
CN110717926B (zh) * | 2018-07-13 | 2022-05-17 | 杭州海康威视数字技术股份有限公司 | 一种获取行人流量信息的方法及装置 |
CN109508652A (zh) * | 2018-10-25 | 2019-03-22 | 国影(北京)科技有限责任公司 | 观影人数统计方法、装置及电子设备 |
CN109447016A (zh) * | 2018-11-07 | 2019-03-08 | 浩云科技股份有限公司 | 一种基于结构光的加钞间人数统计方法及系统 |
CN110335216A (zh) * | 2019-07-09 | 2019-10-15 | Oppo广东移动通信有限公司 | 图像处理方法、图像处理装置、终端设备及可读存储介质 |
CN110717400A (zh) * | 2019-09-12 | 2020-01-21 | 北京华捷艾米科技有限公司 | 一种客流统计方法、装置及系统 |
CN110816355A (zh) * | 2019-11-12 | 2020-02-21 | 深圳创维数字技术有限公司 | 车辆充电方法、设备及计算机可读存储介质 |
CN112819835A (zh) * | 2021-01-21 | 2021-05-18 | 博云视觉科技(青岛)有限公司 | 一种基于3d深度视频的客流计数方法 |
CN113361360A (zh) * | 2021-05-31 | 2021-09-07 | 山东大学 | 基于深度学习的多人跟踪方法及系统 |
CN113361360B (zh) * | 2021-05-31 | 2023-07-25 | 山东大学 | 基于深度学习的多人跟踪方法及系统 |
CN114119648A (zh) * | 2021-11-12 | 2022-03-01 | 史缔纳农业科技(广东)有限公司 | 一种用于固定通道的猪只计数方法 |
CN116110081A (zh) * | 2023-04-12 | 2023-05-12 | 齐鲁工业大学(山东省科学院) | 基于深度学习的安全帽佩戴的检测方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN103530874B (zh) | 2016-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103530874A (zh) | 基于Kinect的人流计数方法 | |
JP5603403B2 (ja) | 対象物計数方法、対象物計数装置および対象物計数プログラム | |
CN109522854B (zh) | 一种基于深度学习和多目标跟踪的行人流量统计方法 | |
CN108986064B (zh) | 一种人流量统计方法、设备及系统 | |
CA2692424C (en) | System and process for detecting, tracking and counting human objects of interest | |
Bondi et al. | Real-time people counting from depth imagery of crowded environments | |
CN103400157B (zh) | 一种基于视频分析的道路行人及非机动车检测方法 | |
Denman et al. | Improved simultaneous computation of motion detection and optical flow for object tracking | |
Simon et al. | Bottleneck detection in crowded video scenes utilizing lagrangian motion analysis via density and arc length measures | |
CN109086724B (zh) | 一种加速的人脸检测方法及存储介质 | |
JP2019505866A (ja) | 通行人の頭部識別方法及びシステム | |
Liem et al. | Joint multi-person detection and tracking from overlapping cameras | |
CN103325115B (zh) | 一种基于头顶摄像头的监控行人计数的方法 | |
CN104091348A (zh) | 融合显著特征和分块模板的多目标跟踪方法 | |
CN102298781A (zh) | 基于颜色和梯度特征的运动阴影检测方法 | |
CN106709938B (zh) | 基于改进tld的多目标追踪方法 | |
CN102521646B (zh) | 基于深度信息聚类的复杂场景人数统计方法 | |
CN102890791A (zh) | 基于深度信息聚类的复杂场景人数统计方法 | |
Yam et al. | Effective bi-directional people flow counting for real time surveillance system | |
CN104778676A (zh) | 基于深度测距的运动目标检测方法及系统 | |
Furuya et al. | Road intersection monitoring from video with large perspective deformation | |
Ling et al. | Colour-based object tracking in surveillance application | |
Almomani et al. | Segtrack: A novel tracking system with improved object segmentation | |
Wang et al. | Tracking objects through occlusions using improved Kalman filter | |
CN102005052A (zh) | 基于核密度估计的遮挡人体跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160629 Termination date: 20181009 |
|
CF01 | Termination of patent right due to non-payment of annual fee |