CN103150559A - 基于Kinect三维深度图像的头部识别与跟踪方法 - Google Patents

基于Kinect三维深度图像的头部识别与跟踪方法 Download PDF

Info

Publication number
CN103150559A
CN103150559A CN2013100646419A CN201310064641A CN103150559A CN 103150559 A CN103150559 A CN 103150559A CN 2013100646419 A CN2013100646419 A CN 2013100646419A CN 201310064641 A CN201310064641 A CN 201310064641A CN 103150559 A CN103150559 A CN 103150559A
Authority
CN
China
Prior art keywords
gray
gray level
flight path
head
mark
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2013100646419A
Other languages
English (en)
Other versions
CN103150559B (zh
Inventor
顾国华
尹章芹
顾骋
胡楷
董超
钱惟贤
陈钱
路东明
任侃
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Science and Technology
Original Assignee
Nanjing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology filed Critical Nanjing University of Science and Technology
Priority to CN201310064641.9A priority Critical patent/CN103150559B/zh
Publication of CN103150559A publication Critical patent/CN103150559A/zh
Application granted granted Critical
Publication of CN103150559B publication Critical patent/CN103150559B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于Kinect三维深度图像的头部识别与跟踪方法,本发明首先分析Kinect传感器输出的原始深度图,找出距离与灰度级的对应关系;目标分割,标定距离与灰度级关系后对原始深度图取反得到灰度图,通过聚类算法把灰度图中头部和肩部分成两类,并利用直方图计算得到的灰度级分割灰度图,得到二值图序列;头部识别以及跟踪计数,即基于人体头部的类椭圆状、头部的大小以及头部与肩部的空间位置等特征遍历二值图序列和灰度图,识别人体头部位置,并建立航迹,统计进出的人数;本发明解决了目前客流统计中的拥挤,受环境影响等许多问题,利用VS2008软件仿真,确定了系统的可行性和稳定性,系统精度在93%以上。

Description

基于Kinect三维深度图像的头部识别与跟踪方法
技术领域
本发明属于数字图像处理与模式识别领域,特别是一种基于Kinect三维深度图像的头部识别与跟踪方法。
背景技术
随着计算机技术和统计分析技术的不断发展,客流统计已经开始进入自动化阶段,实时、可靠地获取客流信息已经成为可能。同时,客流信息的重要性也日益表现出来。对于公交车、地铁、长途客车、铁路等公共交通系统,详实地掌握各条线路、各个站点流量、流时和分布等信息,将方便公司调整线路,合理分配资源,提高资源的利用率,同时能为智能交通的发展提供数据支持。对于大型商场或超市,通过对客流量的深层分析,可以为商场管理提供科学依据,特别是对提高商场日常经营决策的科学性、人力资源调度的合理性等方面起到重要作用。自动客流计数技术在发达国家已经广泛应用,而国内也有不少商家开始应用该技术以提高商场竞争力。同时,图书馆、体育馆、展览馆等公共安全要求很高的公共场所安装智能监控摄像头和调度系统,这些系统来说,实时准确地获取客流量信息同样很重要。
传统自动客流计数的主要手段是压力传感器系统或者红外遮挡系统,他们虽然成本低,实现简单,但计数不准确,不适合客流拥挤的状况下,且应用场合受限。随着图像处理技术的兴起和发展,结合传统自动客流计数系统面临的问题,提出了许多新的方法。目前基于图像处理的自动客流计数主要是基于普通彩色图像,利用特征识别和模式匹配等方式查找目标,统计客流信息,这种方法虽然能适合拥挤的客流统计,但受光线影响很大,仅适用于背景简单情况下的客流统计,且计算量大,维护工作量繁琐。
随着立体视觉的发展,充分发挥空间立体信息,可以解决基于图像处理的自动客流计数系统中存在的许多问题。
发明内容
本发明的目的在于提供一种能够自动识别跟踪身高1米以上的人体头部,并可以解决基于视频流图像处理中的客流拥挤、受环境变化影响等问题的基于Kinect三维深度图像的头部识别与跟踪方法。
实现本发明目的的技术解决方案为:
基于Kinect三维深度图像的头部识别与跟踪方法,具体步骤包含如下:
步骤一:利用Kinect传感器输出的第一帧灰度图标定传感器距离地面                                                
Figure 2013100646419100002DEST_PATH_IMAGE001
Figure 2013100646419100002DEST_PATH_IMAGE002
对应的灰度级,表示第一帧中没有人在视场范围内地面对应的灰度级,
Figure 2013100646419100002DEST_PATH_IMAGE006
Kinect传感器的标定是以厘米为单位,距离与灰度级的比例系数
Figure 2013100646419100002DEST_PATH_IMAGE007
大于1.4小于1.7,距离
Figure 2013100646419100002DEST_PATH_IMAGE008
 ,
步骤二:图像取反,即设
Figure 836163DEST_PATH_IMAGE001
对应的灰度级
Figure 2013100646419100002DEST_PATH_IMAGE010
为阈值,用
Figure 2013100646419100002DEST_PATH_IMAGE011
表示原始深度图对应的灰度值,用
Figure 2013100646419100002DEST_PATH_IMAGE012
表示取反后对应的灰度级,遍历原始深度图,如果像素灰度级满足
Figure 2013100646419100002DEST_PATH_IMAGE013
,则得到
Figure 2013100646419100002DEST_PATH_IMAGE014
,否则
Figure 2013100646419100002DEST_PATH_IMAGE015
,其中
Figure 2013100646419100002DEST_PATH_IMAGE016
Figure 2013100646419100002DEST_PATH_IMAGE017
表示对应像素的行和列,且
Figure 2013100646419100002DEST_PATH_IMAGE018
Figure 2013100646419100002DEST_PATH_IMAGE019
,取反后得到灰度图的灰度级与身高成正比;
步骤3:均值漂移聚类分割,即利用均值漂移聚类分割算法对经过第二步处理得到的灰度图进行聚类分割,均值漂移矢量指向梯度变化最大的方向,在核窗口依次计算特征空间数据点的均值漂移聚类分割矢量,沿均值漂移聚类分割梯度方向移动到新位置,然后将这点作为新点,继续计算均值漂移聚类分割矢量并移动,直到满足一定的条件结束迭代。其中参数空间半径
Figure 2013100646419100002DEST_PATH_IMAGE020
,颜色半径
Figure 2013100646419100002DEST_PATH_IMAGE021
,分割级数
Figure 2013100646419100002DEST_PATH_IMAGE022
Figure 2013100646419100002DEST_PATH_IMAGE023
为整数。分割后得到人体头部与肩部灰度级彼此分离的灰度图,  
                   
Figure 2013100646419100002DEST_PATH_IMAGE024
      
式中
Figure DEST_PATH_IMAGE025
处以核
Figure DEST_PATH_IMAGE026
计算出加权平均值
Figure DEST_PATH_IMAGE027
步骤4:获取目标灰度级,对经过聚类分割处理得到的灰度图进行直方图统计;统计直方图中满足灰度级大于
Figure DEST_PATH_IMAGE028
且像素个数大于
Figure DEST_PATH_IMAGE029
对应的灰度级,取
Figure 254768DEST_PATH_IMAGE029
最小值为150。得到灰度级
Figure DEST_PATH_IMAGE030
,经第三步均值漂移聚类分割后处理后,头部与肩部一般占小于7个灰度级,且头部与肩部灰度级不连续,基于这一特征将灰度级
Figure DEST_PATH_IMAGE031
划分成N部分,其中N大于等于0,记作
Figure DEST_PATH_IMAGE033
,其中
Figure 2013100646419100002DEST_PATH_IMAGE034
表示区域边间对应的灰度级,
步骤5:头部识别,首先,造
Figure 2013100646419100002DEST_PATH_IMAGE036
幅初始值为
Figure DEST_PATH_IMAGE037
的二值图,编号为1~N;其次,遍历经过第三步均值漂移聚类处理后的灰度图,如果
Figure 2013100646419100002DEST_PATH_IMAGE038
,则第
Figure DEST_PATH_IMAGE039
幅二值图对应的
Figure 2013100646419100002DEST_PATH_IMAGE040
位置赋值为255;最后,基于以下特征:(1)面积大于Area,取Area的最小值为500;(2)类椭圆状;(3)宽高按如下公式换算后满足小于25且大于15,其中
Figure DEST_PATH_IMAGE041
Figure 2013100646419100002DEST_PATH_IMAGE042
表示人体头部的实际大小,
Figure DEST_PATH_IMAGE043
Figure 2013100646419100002DEST_PATH_IMAGE044
表示二值图中求出的区域宽和高,表示区域灰度均值,
Figure 2013100646419100002DEST_PATH_IMAGE046
是比例系数且
Figure DEST_PATH_IMAGE047
;记录所有满足条件的区域起始坐标、宽高以及区域均值,即头部信息,
Figure 2013100646419100002DEST_PATH_IMAGE048
Figure DEST_PATH_IMAGE049
 ;
步骤6:头部跟踪,视场范围内以头部中心点为点迹,波门形状为矩形,头部的宽高值作为波门大小,取波门最小尺寸大于20,由点迹
Figure 405477DEST_PATH_IMAGE040
与波门
Figure DEST_PATH_IMAGE050
确定以目标点迹预测值
Figure DEST_PATH_IMAGE051
为中心的空间搜索区域,其中点迹
Figure 863003DEST_PATH_IMAGE040
与航迹相关;首先,假定航迹,第K帧初次记录目标,基于第K+1帧得到的坐标对目标的速度进行估计,如果估计的速度在取值范围内,则生成一条暂时航迹;其次,基于第K+2帧目标的位置进行预测,并以预测位置为中心,确定一个关联区域,任何落在关联区域内的点迹扩展一条暂时的航迹,继续估计速度值,基于速度值对下一帧的位置进行预测并建立相关区域,任何落在相关区域内的点迹将生成一条新的航迹;最后,对所有生成的航迹用二次曲线进行拟合,如果航迹上的点和拟合曲线的误差在一定范围内,则确定该航迹,如果不满足,则删除该航迹;确定目标运动航迹后,在经过第三步分割处理后的灰度图的第
Figure 2013100646419100002DEST_PATH_IMAGE052
行和第
Figure DEST_PATH_IMAGE053
行画两条判断线,其中
Figure 2013100646419100002DEST_PATH_IMAGE054
,,如果当前目标点迹
Figure DEST_PATH_IMAGE055
小于
Figure 2013100646419100002DEST_PATH_IMAGE056
且航迹存在行坐标大于
Figure 802009DEST_PATH_IMAGE053
的点迹,则进的人数加1,反之如果当前目标点迹
Figure 624472DEST_PATH_IMAGE055
大于
Figure 953822DEST_PATH_IMAGE053
且航迹存在行坐标小于
Figure 152722DEST_PATH_IMAGE056
的点迹,则出的人数加1,同时,删除该航迹,
Figure DEST_PATH_IMAGE057
Figure DEST_PATH_IMAGE058
对于第一帧后的图像,循环第二至六步骤。
本发明与现有技术相比,其显著优点:
(1)系统传感器主要是利用红外发射器发出红外激光散斑,打在物体表面,用COMS感光器拍摄散斑图像,再利用后期的硬件电路处理,得到深度图,不受背景环境变化的影响,能全天候工作。
(2)系统无需考虑双目立体视觉中传感器同步的问题。
(3)系统通过俯视获取人体的三维信息,解决了基于彩色客流统计中的客流拥挤、相互遮挡、阴影等问题。
(4)系统稳定性强,帧频为30pf/s,能实时检测统计客流量,精度在93%以上。
下面结合附图对本发明作进一步详细描述。
附图说明
图1是本发明方法的流程图。
图2是本发明的二值图序列,(a)对应的灰度区域188~182;(b)对应的灰度区域177~170;(c)对应的灰度区域169~162;(d)对应的灰度区域160~153;(e)对应的灰度区域151~145;(f)对应的灰度区域143~138;(g)对应的灰度区域126~118。
具体实施方式
本发明主要是通过Kinect传感器(基于3D体感摄影机)输出的原始深度图实现对目标头部的的识别与统计。结合图,本发明的步骤如下:
第一步,利用Kinect传感器输出的第一帧灰度图标定传感器距离地面
Figure DEST_PATH_IMAGE059
Figure DEST_PATH_IMAGE060
对应的灰度级
Figure 2013100646419100002DEST_PATH_IMAGE061
Figure DEST_PATH_IMAGE062
,
Figure 2013100646419100002DEST_PATH_IMAGE063
表示第一帧中没有人在视场范围内地面对应的灰度级。
Figure 949164DEST_PATH_IMAGE006
Kinect传感器的标定是以厘米为单位。距离与灰度级的比例系数是
Figure DEST_PATH_IMAGE064
第二步,图像取反,即设50对应的灰度级
Figure 4845DEST_PATH_IMAGE010
为阈值,用
Figure 2013100646419100002DEST_PATH_IMAGE065
表示原始深度图对应的灰度值,用
Figure DEST_PATH_IMAGE066
表示取反后对应的灰度级,遍历原始深度图,如果像素灰度级满足
Figure 2013100646419100002DEST_PATH_IMAGE067
,则得到
Figure DEST_PATH_IMAGE068
,否则
Figure 2013100646419100002DEST_PATH_IMAGE069
,其中
Figure DEST_PATH_IMAGE070
Figure 883808DEST_PATH_IMAGE017
表示对应像素的行和列,且
Figure 620820DEST_PATH_IMAGE018
Figure 206522DEST_PATH_IMAGE019
。取反后得到的灰度图灰度级与身高成正比。
第三步,均值漂移聚类分割。即利用均值漂移聚类分割(mean Shift)算法对经过第二步处理得到的灰度图进行聚类分割,均值漂移聚类分割是用核窗口扫描空间来找出颜色数据密度最高的“聚块”。均值漂移矢量指向梯度变化最大的方向,在核窗口依次计算特征空间数据点的Mean Shift矢量,沿Mean shift梯度方向移动到新位置,然后将这点作为新点,继续计算Mean Shift矢量并移动,直到满足一定的条件结束迭代。参数空间半径
Figure 2013100646419100002DEST_PATH_IMAGE071
等于20和颜色半径
Figure DEST_PATH_IMAGE072
等于40以及分割的级数
Figure 2013100646419100002DEST_PATH_IMAGE073
等于2。由于头部与肩部的数据内部密度高,但彼此数据密度低,因此分割后得到人体头部与肩部灰度级彼此分离的灰度图。  
式中处以核计算出加权平均值
Figure 2626DEST_PATH_IMAGE027
。  
第四步,获取目标灰度级。对经过聚类分割处理得到的灰度图进行直方图统计。由于视场范围内灰度级主要表示人体头部和肩部,头部与肩部占据的面积大,像素个数多,表示为直方图中纵坐标值大对应的横坐标灰度级,因此统计直方图中满足灰度级大于
Figure DEST_PATH_IMAGE076
且像素个数大于300对应的灰度级,得到灰度级
Figure 340066DEST_PATH_IMAGE030
。经第三步均值漂移聚类分割后处理后,头部与肩部一般占小于7个灰度级,且头部与肩部灰度级不连续,基于这一特征将灰度级
Figure 983537DEST_PATH_IMAGE031
划分成几个部分,记作
Figure 318703DEST_PATH_IMAGE032
Figure 107012DEST_PATH_IMAGE033
,其中
Figure 185827DEST_PATH_IMAGE034
表示区域边间对应的灰度级,
Figure 683804DEST_PATH_IMAGE035
,求出的灰度级区域边界如表1中(a)~(g)对应的边界值。
表1灰度级区域
Figure DEST_PATH_IMAGE077
第五步,头部识别。首先,造
Figure 517768DEST_PATH_IMAGE036
幅初始值为
Figure 468406DEST_PATH_IMAGE037
的二值图,编号为1~N;其次,遍历经过第三步均值漂移聚类处理后的灰度图,如果
Figure DEST_PATH_IMAGE078
,则第
Figure 413229DEST_PATH_IMAGE039
幅二值图对应的
Figure 765712DEST_PATH_IMAGE040
位置赋值为255,结果如图2;最后,基于以下特征:(1)面积大于1000,(2)类椭圆状,(3)按如下公式换算后宽高满足小于25且大于15,其中
Figure 208512DEST_PATH_IMAGE042
表示人体头部的实际大小,
Figure 629129DEST_PATH_IMAGE043
Figure 164016DEST_PATH_IMAGE044
表示二值图中求出的区域宽和高 ,
Figure 277465DEST_PATH_IMAGE045
表示区域灰度均值,比例系数
Figure DEST_PATH_IMAGE080
等于0.0055。记录所有满足条件的区域起始坐标、区域宽和高以及区域均值,即头部信息。
Figure 265013DEST_PATH_IMAGE048
Figure 489321DEST_PATH_IMAGE049
第六步,头部跟踪。视场范围内以头部中心点为点迹,波门形状为矩形,头部的宽高值作为波门大小,取波门最小尺寸为50,由点迹
Figure 550818DEST_PATH_IMAGE040
与波门
Figure 835168DEST_PATH_IMAGE050
确定以目标点迹预测值
Figure 310012DEST_PATH_IMAGE051
为中心的空间搜索区域,其中点迹与航迹相关。首先,假定航迹,第K帧初次记录目标,基于第K+1帧得到的坐标对目标的速度进行估计,如果估计的速度在取值范围内,则生成一条暂时航迹。其次,基于第K+2帧目标的位置进行预测,并以预测位置为中心,确定一个关联区域,任何落在关联区域内的点迹扩展一条暂时的航迹,继续估计速度值,基于速度值对下一帧的位置进行预测并建立相关区域,任何落在相关区域内的点迹将生成一条新的航迹。最后对所有生成的航迹用二次曲线进行拟合,如果航迹上的点和拟合曲线的误差在一定范围内,则确定该航迹,如果不满足,则删除该航迹。确定目标运动航迹后,在经过第三步分割处理后的灰度图的第
Figure DEST_PATH_IMAGE081
行和第
Figure DEST_PATH_IMAGE082
行画两条判断线,如果当前目标点迹
Figure DEST_PATH_IMAGE083
小于
Figure DEST_PATH_IMAGE084
且航迹存在行坐标大于
Figure DEST_PATH_IMAGE085
的点迹,则进的人数加1。反之如果当前目标点迹
Figure 647157DEST_PATH_IMAGE083
大于
Figure 836830DEST_PATH_IMAGE085
且航迹存在行坐标小于
Figure 798970DEST_PATH_IMAGE084
的点迹,则出的人数加1。同时,删除该航迹。
Figure 365080DEST_PATH_IMAGE057
Figure 666749DEST_PATH_IMAGE058
对于第一帧后的图像,循环第二至六步骤。
部分的统计结果如表2所示。
表2 统计结果

Claims (1)

1.基于Kinect三维深度图像的头部识别与跟踪方法,具体步骤包含如下:
步骤一:利用Kinect传感器输出的第一帧灰度图标定传感器距离地面                                                
Figure 352762DEST_PATH_IMAGE002
Figure 739881DEST_PATH_IMAGE004
对应的灰度级
Figure 2013100646419100001DEST_PATH_IMAGE005
Figure 172000DEST_PATH_IMAGE006
,
Figure 2013100646419100001DEST_PATH_IMAGE007
表示第一帧中没有人在视场范围内地面对应的灰度级,
Figure 124912DEST_PATH_IMAGE008
Kinect传感器的标定是以厘米为单位,距离与灰度级的比例系数
Figure 921967DEST_PATH_IMAGE010
大于1.4小于1.7,距离
Figure 590190DEST_PATH_IMAGE012
 ,
Figure 763682DEST_PATH_IMAGE014
步骤二:图像取反,即设
Figure 2013100646419100001DEST_PATH_IMAGE015
对应的灰度级
Figure 836681DEST_PATH_IMAGE016
为阈值,用
Figure 2013100646419100001DEST_PATH_IMAGE017
表示原始深度图对应的灰度值,用
Figure 866953DEST_PATH_IMAGE018
表示取反后对应的灰度级,遍历原始深度图,如果像素灰度级满足,则得到
Figure 2013100646419100001DEST_PATH_IMAGE020
,否则,其中
Figure 2013100646419100001DEST_PATH_IMAGE022
Figure 861640DEST_PATH_IMAGE023
表示对应像素的行和列,且
Figure DEST_PATH_IMAGE024
Figure 726828DEST_PATH_IMAGE025
,取反后得到灰度图的灰度级与身高成正比;
步骤3:均值漂移聚类分割,即利用均值漂移聚类分割算法对经过第二步处理得到的灰度图进行聚类分割,均值漂移矢量指向梯度变化最大的方向,在核窗口依次计算特征空间数据点的均值漂移聚类分割矢量,沿均值漂移聚类分割梯度方向移动到新位置,然后将这点作为新点,继续计算均值漂移聚类分割矢量并移动,直到满足一定的条件结束迭代,其中参数空间半径
Figure 928002DEST_PATH_IMAGE027
,颜色半径,分割级数
Figure 823463DEST_PATH_IMAGE031
Figure 808737DEST_PATH_IMAGE033
为整数,分割后得到人体头部与肩部灰度级彼此分离的灰度图,  
                   
Figure DEST_PATH_IMAGE034
      
式中
Figure 183742DEST_PATH_IMAGE035
处以核
Figure DEST_PATH_IMAGE036
计算出加权平均值
步骤4:获取目标灰度级,对经过聚类分割处理得到的灰度图进行直方图统计;统计直方图中满足灰度级大于
Figure DEST_PATH_IMAGE038
且像素个数大于
Figure DEST_PATH_IMAGE040
对应的灰度级,取
Figure 370189DEST_PATH_IMAGE040
最小值为150,得到灰度级
Figure 272286DEST_PATH_IMAGE041
,经第三步均值漂移聚类分割后处理后,头部与肩部一般占小于7个灰度级,且头部与肩部灰度级不连续,基于这一特征将灰度级
Figure DEST_PATH_IMAGE042
划分成N部分,其中N大于等于0,记作
Figure 752946DEST_PATH_IMAGE043
Figure DEST_PATH_IMAGE044
,其中表示区域边间对应的灰度级,
Figure DEST_PATH_IMAGE046
步骤5:头部识别,首先,造
Figure 27119DEST_PATH_IMAGE047
幅初始值为
Figure DEST_PATH_IMAGE048
的二值图,编号为1~N;其次,遍历经过第三步均值漂移聚类处理后的灰度图,如果
Figure 721405DEST_PATH_IMAGE049
,则第
Figure 372966DEST_PATH_IMAGE051
幅二值图对应的
Figure DEST_PATH_IMAGE052
位置赋值为255;最后,基于以下特征:(1)面积大于Area,取Area的最小值为500;(2)类椭圆状;(3)宽高按如下公式换算后满足小于25且大于15,其中
Figure 480600DEST_PATH_IMAGE053
Figure DEST_PATH_IMAGE054
表示人体头部的实际大小,
Figure DEST_PATH_IMAGE056
表示二值图中求出的区域宽和高,
Figure 486919DEST_PATH_IMAGE057
表示区域灰度均值,
Figure 637277DEST_PATH_IMAGE059
是比例系数且
Figure DEST_PATH_IMAGE061
;记录所有满足条件的区域起始坐标、宽高以及区域均值,即头部信息,
Figure 904311DEST_PATH_IMAGE062
Figure DEST_PATH_IMAGE063
 ;
步骤6:头部跟踪,视场范围内以头部中心点为点迹,波门形状为矩形,头部的宽高值作为波门大小,取波门最小尺寸大于20,由点迹
Figure 162598DEST_PATH_IMAGE052
与波门
Figure 565898DEST_PATH_IMAGE064
确定以目标点迹预测值
Figure DEST_PATH_IMAGE065
为中心的空间搜索区域,其中点迹与航迹相关;首先,假定航迹,第K帧初次记录目标,基于第K+1帧得到的坐标对目标的速度进行估计,如果估计的速度在取值范围内,则生成一条暂时航迹;其次,基于第K+2帧目标的位置进行预测,并以预测位置为中心,确定一个关联区域,任何落在关联区域内的点迹扩展一条暂时的航迹,继续估计速度值,基于速度值对下一帧的位置进行预测并建立相关区域,任何落在相关区域内的点迹将生成一条新的航迹;最后,对所有生成的航迹用二次曲线进行拟合,如果航迹上的点和拟合曲线的误差在一定范围内,则确定该航迹,如果不满足,则删除该航迹;确定目标运动航迹后,在经过第三步分割处理后的灰度图的第
Figure DEST_PATH_IMAGE067
行和第
Figure DEST_PATH_IMAGE069
行画两条判断线,其中
Figure DEST_PATH_IMAGE071
,,如果当前目标点迹
Figure 703804DEST_PATH_IMAGE072
小于
Figure DEST_PATH_IMAGE073
且航迹存在行坐标大于
Figure 440816DEST_PATH_IMAGE069
的点迹,则进的人数加1,反之如果当前目标点迹
Figure 26518DEST_PATH_IMAGE072
大于
Figure 456362DEST_PATH_IMAGE069
且航迹存在行坐标小于
Figure 432408DEST_PATH_IMAGE073
的点迹,则出的人数加1,同时,删除该航迹,
Figure DEST_PATH_IMAGE075
对于第一帧后的图像,循环第二至六步骤。
CN201310064641.9A 2013-03-01 2013-03-01 基于Kinect三维深度图像的头部识别与跟踪方法 Expired - Fee Related CN103150559B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310064641.9A CN103150559B (zh) 2013-03-01 2013-03-01 基于Kinect三维深度图像的头部识别与跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310064641.9A CN103150559B (zh) 2013-03-01 2013-03-01 基于Kinect三维深度图像的头部识别与跟踪方法

Publications (2)

Publication Number Publication Date
CN103150559A true CN103150559A (zh) 2013-06-12
CN103150559B CN103150559B (zh) 2016-07-06

Family

ID=48548622

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310064641.9A Expired - Fee Related CN103150559B (zh) 2013-03-01 2013-03-01 基于Kinect三维深度图像的头部识别与跟踪方法

Country Status (1)

Country Link
CN (1) CN103150559B (zh)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103971116A (zh) * 2014-04-24 2014-08-06 西北工业大学 基于Kinect的感兴趣区域检测方法
CN104751491A (zh) * 2015-04-10 2015-07-01 中国科学院宁波材料技术与工程研究所 一种人群跟踪及人流量统计方法及装置
CN104778676A (zh) * 2014-01-09 2015-07-15 中国科学院大学 基于深度测距的运动目标检测方法及系统
CN104835147A (zh) * 2015-04-15 2015-08-12 中国科学院上海微系统与信息技术研究所 基于三维深度图数据的密集人流量实时检测方法
CN105225248A (zh) * 2014-06-27 2016-01-06 株式会社理光 识别物体的运动方向的方法和设备
CN105306909A (zh) * 2015-11-20 2016-02-03 中国矿业大学(北京) 基于视觉的煤矿井下作业人员超员报警系统
CN105718873A (zh) * 2016-01-18 2016-06-29 北京联合大学 基于双目视觉的人流分析方法
CN105956539A (zh) * 2016-04-27 2016-09-21 武汉大学 一种基于背景建模和双目视觉的人体身高测量方法
CN105957106A (zh) * 2016-04-26 2016-09-21 湖南拓视觉信息技术有限公司 三维目标跟踪的方法和装置
CN103971380B (zh) * 2014-05-05 2016-09-28 中国民航大学 基于rgb-d的行人尾随检测方法
CN106127137A (zh) * 2016-06-21 2016-11-16 长安大学 一种基于3d轨迹分析的目标检测识别算法
CN106446788A (zh) * 2016-08-31 2017-02-22 山东恒宇电子有限公司 基于视神经机制的高动态范围图像统计客流的方法
CN106485265A (zh) * 2016-09-22 2017-03-08 深圳大学 一种图像识别方法和装置
US9727778B2 (en) 2014-03-28 2017-08-08 Wipro Limited System and method for guided continuous body tracking for complex interaction
WO2018076392A1 (zh) * 2016-10-25 2018-05-03 深圳大学 一种基于人体头顶部识别的行人统计方法及装置
CN108182410A (zh) * 2017-12-28 2018-06-19 南通大学 一种联合目标区域定位和深度特征学习的跌倒识别算法
CN109697444A (zh) * 2017-10-20 2019-04-30 中国移动通信有限公司研究院 基于深度图像的对象识别方法及装置、设备、存储介质
CN111931670A (zh) * 2020-08-14 2020-11-13 成都数城科技有限公司 基于卷积神经网的深度图像头部检测与定位方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110234589A1 (en) * 2009-10-07 2011-09-29 Microsoft Corporation Systems and methods for tracking a model
CN102638653A (zh) * 2012-03-01 2012-08-15 北京航空航天大学 一种基于Kinect的自动面部追踪方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110234589A1 (en) * 2009-10-07 2011-09-29 Microsoft Corporation Systems and methods for tracking a model
CN102638653A (zh) * 2012-03-01 2012-08-15 北京航空航天大学 一种基于Kinect的自动面部追踪方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ANH TUAN NGHIEM等: "HEAD DETECTION USING KINECT CAMERA AND ITS APPLICATION TO FALL DETECTION", 《THE 11TH INTERNATIONAL CONFERENCE ON INFORMATION SCIENCE, SIGNAL PROCESSING AND THEIR APPLICATIONS (ISSPA),2012》 *
李红波 等: "基于Kinect深度图像的人体识别分析", 《数字通信》 *

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104778676A (zh) * 2014-01-09 2015-07-15 中国科学院大学 基于深度测距的运动目标检测方法及系统
US9727778B2 (en) 2014-03-28 2017-08-08 Wipro Limited System and method for guided continuous body tracking for complex interaction
CN103971116A (zh) * 2014-04-24 2014-08-06 西北工业大学 基于Kinect的感兴趣区域检测方法
CN103971380B (zh) * 2014-05-05 2016-09-28 中国民航大学 基于rgb-d的行人尾随检测方法
CN105225248A (zh) * 2014-06-27 2016-01-06 株式会社理光 识别物体的运动方向的方法和设备
CN105225248B (zh) * 2014-06-27 2018-02-02 株式会社理光 识别物体的运动方向的方法和设备
CN104751491A (zh) * 2015-04-10 2015-07-01 中国科学院宁波材料技术与工程研究所 一种人群跟踪及人流量统计方法及装置
CN104751491B (zh) * 2015-04-10 2018-01-23 中国科学院宁波材料技术与工程研究所 一种人群跟踪及人流量统计方法及装置
CN104835147A (zh) * 2015-04-15 2015-08-12 中国科学院上海微系统与信息技术研究所 基于三维深度图数据的密集人流量实时检测方法
CN105306909A (zh) * 2015-11-20 2016-02-03 中国矿业大学(北京) 基于视觉的煤矿井下作业人员超员报警系统
CN105306909B (zh) * 2015-11-20 2018-04-03 中国矿业大学(北京) 基于视觉的煤矿井下作业人员超员报警系统
CN105718873A (zh) * 2016-01-18 2016-06-29 北京联合大学 基于双目视觉的人流分析方法
CN105718873B (zh) * 2016-01-18 2019-04-19 北京联合大学 基于双目视觉的人流分析方法
CN105957106A (zh) * 2016-04-26 2016-09-21 湖南拓视觉信息技术有限公司 三维目标跟踪的方法和装置
CN105957106B (zh) * 2016-04-26 2019-02-22 湖南拓视觉信息技术有限公司 三维目标跟踪的方法和装置
CN105956539B (zh) * 2016-04-27 2019-06-25 武汉大学 一种应用背景建模和双目视觉原理的人体身高测量方法
CN105956539A (zh) * 2016-04-27 2016-09-21 武汉大学 一种基于背景建模和双目视觉的人体身高测量方法
CN106127137A (zh) * 2016-06-21 2016-11-16 长安大学 一种基于3d轨迹分析的目标检测识别算法
CN106446788A (zh) * 2016-08-31 2017-02-22 山东恒宇电子有限公司 基于视神经机制的高动态范围图像统计客流的方法
CN106485265A (zh) * 2016-09-22 2017-03-08 深圳大学 一种图像识别方法和装置
CN106485265B (zh) * 2016-09-22 2020-01-17 深圳大学 一种图像识别方法和装置
JP2018535457A (ja) * 2016-10-25 2018-11-29 シェンチェン ユニバーシティー 人体頭頂部の識別に基づく通行人の統計方法及び装置
WO2018076392A1 (zh) * 2016-10-25 2018-05-03 深圳大学 一种基于人体头顶部识别的行人统计方法及装置
CN109697444A (zh) * 2017-10-20 2019-04-30 中国移动通信有限公司研究院 基于深度图像的对象识别方法及装置、设备、存储介质
CN108182410A (zh) * 2017-12-28 2018-06-19 南通大学 一种联合目标区域定位和深度特征学习的跌倒识别算法
CN111931670A (zh) * 2020-08-14 2020-11-13 成都数城科技有限公司 基于卷积神经网的深度图像头部检测与定位方法及系统
CN111931670B (zh) * 2020-08-14 2024-05-31 成都数城科技有限公司 基于卷积神经网的深度图像头部检测与定位方法及系统

Also Published As

Publication number Publication date
CN103150559B (zh) 2016-07-06

Similar Documents

Publication Publication Date Title
CN103150559A (zh) 基于Kinect三维深度图像的头部识别与跟踪方法
CN103473554B (zh) 人流统计系统及方法
CN110379168B (zh) 一种基于Mask R-CNN的交通车辆信息获取方法
CN110175576A (zh) 一种结合激光点云数据的行驶车辆视觉检测方法
CN110688905B (zh) 一种基于关键帧的三维物体检测与跟踪方法
CN108320510A (zh) 一种基于无人机航拍视频交通信息统计方法及系统
CN104517095B (zh) 一种基于深度图像的人头分割方法
CN106127137A (zh) 一种基于3d轨迹分析的目标检测识别算法
CN105654021A (zh) 检测人群对目标位置关注度的方法及设备
CN105528794A (zh) 基于混合高斯模型与超像素分割的运动目标检测方法
CN102867311A (zh) 目标跟踪方法和目标跟踪设备
CN104899590A (zh) 一种无人机视觉目标跟随方法及系统
CN103049787A (zh) 一种基于头肩特征的人数统计方法和系统
CN103268470A (zh) 基于任意场景的视频对象实时统计方法
CN102289948A (zh) 高速公路场景下一种多特征融合的多车辆视频跟踪方法
CN103164711A (zh) 基于像素和支持向量机的区域人流密度估计的方法
CN102930524A (zh) 一种基于垂直放置的深度摄像头的人头检测方法
CN103794050A (zh) 一种实时的交通车辆检测与跟踪方法
CN103325115A (zh) 一种基于头顶摄像头的监控行人计数的方法
CN107689060A (zh) 目标对象的视觉处理方法、装置及基于视觉处理的设备
CN103646254A (zh) 一种高密度行人检测方法
Liu et al. Dloam: Real-time and robust lidar slam system based on cnn in dynamic urban environments
CN105023231A (zh) 基于视频识别和手机gps的公交数据获取方法
Omar et al. Detection and localization of traffic lights using YOLOv3 and Stereo Vision
CN104123569A (zh) 一种基于有监督学习的视频人数信息统计方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20160706

Termination date: 20190301

CF01 Termination of patent right due to non-payment of annual fee