CN109919137B - 一种行人结构化特征表达方法 - Google Patents
一种行人结构化特征表达方法 Download PDFInfo
- Publication number
- CN109919137B CN109919137B CN201910242434.5A CN201910242434A CN109919137B CN 109919137 B CN109919137 B CN 109919137B CN 201910242434 A CN201910242434 A CN 201910242434A CN 109919137 B CN109919137 B CN 109919137B
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- joint point
- joint
- feature
- calculating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Abstract
一种行人结构化特征表达方法,包括步骤:S1,获取行人监控图像,提取行人主要关节点的图像位置信息;S2,计算行人时间运动特征数据,形成行人的时间运动特征数据集;S3,根据行人关节点图像位置信息估计行人局部区域在图像中的位置,提取行人局部区域的空间特征数据,形成行人空间特征数据集;S4,融合时间运动特征数据和空间特征数据,形成行人时空特征向量,设计行人结构化特征表达模型;S5,提取待识别行人的时间运动特征数据和空间特征数据,形成时空特征向量;S6,利用行人结构化特征表达模型,对比行人目标与待识别行人之间的相似度,实现行人的识别。本发明实现人体动态、静态情况下个体化特征描述,可确保行人识别时匹配特征的有效性。
Description
技术领域
本发明属于模式识别技术领域,具体地说是一种行人结构化特征表达方法。
背景技术
步态识别是一种新兴的生物特征识别技术,旨在通过人们走路的姿态进行身份识别,与其他的生物识别技术相比,步态识别具有非接触远距离和不容易伪装的优点。在智能视频监控领域,比图像识别更具优势。步态是指人们行走时的方式,这是一种复杂的行为特征。罪犯或许会给自己化装,不让自己身上的哪怕一根毛发掉在作案现场,但有样东西他们是很难控制的,这就是走路的姿势。人类自身很善于进行步态识别,在一定距离之外都有经验能够根据人的步态辨别出熟悉的人。步态识别的输入是一段行走的视频图像序列,因此其数据采集与面像识别类似,具有非侵犯性和可接受性。但是,由于序列图像的数据量较大,因此步态识别的计算复杂性比较高,处理起来也比较困难。尽管生物力学中对于步态进行了大量的研究工作,基于步态的身份鉴别的研究工作却是刚刚开始。
发明内容
为了解决上述的技术问题,本发明提供了一种行人结构化特征表达方法,提高了识别速度和识别准确率。
为了解决上述技术问题,本发明采取以下技术方案:
一种行人结构化特征表达方法,包括以下步骤:
S1,获取行人监控图像,提取行人预设的主要的关节点的图像位置信息;
S2,结合行人连续运动特点,计算行人的时间运动特征数据,形成行人的时间运动特征数据集,时间运动特征数据包括行人步态周期内最大步幅大小、人体运动速度、关节点摆动幅度频率、关节点之间的距离比、关节夹角;
S3,根据关节点的图像位置信息估计行人的局部区域在图像中的位置,利用HOG特征提取算法与LBP特征提取算法,提取行人的局部区域的空间特征数据,形成行人空间特征数据集,该空间特征包括梯度特征、纹理细节、旋转不变量;
S4,融合行人的时间运动特征数据和空间特征数据,形成行人时空特征向量,设计行人结构化特征表达模型;
S5,提取待识别行人的时间运动特征数据和空间特征数据,形成时空特征向量;
S6,利用行人结构化特征表达模型,对比分析行人目标与待识别行人之间的相似度,实现行人的识别。
所述步骤S2中计算行人的时间运动特征数据,具体包括以下:
其中,(xf1,yf1)表示左脚踝关节点坐标,(xf2,yf2)表示右脚踝关节点坐标,步态周期T表示人在行走时,一侧脚掌离地到该脚掌再次着地期间所用的时间;
S2.3,计算关节点摆动幅度频率fk,通过下列公式计算得到,Tk表示行人第K关节点从距离身体中垂线最远的关节点到该第K关节点摆回到身体中垂线同侧距离身体中垂线最远关节点所用的时间,则n个步态周期内的摆动幅度频率为:
S2.4,计算行人颈部关节点到胯部关节点的距离L1与颈部关节点到脚踝关节点的距离L′1之比γ1,颈部关节点到胯部关节点的距离L2与胯部关节点到脚踝关节点的距离L′2之比γ2,距离比γ可通过下式求得:
其中,Li和L′i都采用欧式距离公式进行计算;
S2.5,分别计算得到上关节夹角σ1、中关节夹角σ2和下关节夹角σ3,其中上关节夹角σ1为身体中垂线同一侧的手腕关节点到手肘关节点的连接线和肩部关节点到手肘关节点的连线之间的夹角,中关节夹角σ2为身体中垂线同一侧的颈部关节点到胯部关节点的连线和膝关节点到胯部关节点连线之间的夹角,下关节夹角为身体中垂线同一侧的胯部关节点到膝关节点的连线和脚踝关节点到膝关节点的连线之间的夹角;
S2.7,计算n个步态周期内,手腕关节点的平均摆动角度和脚踝关节点的平均摆动角度其中,手腕关节点的平均摆动角度是通过计算n个步态周期内,手腕关节点摆动到离身体中垂线最大的角度的平均值,脚踝关节点的平均摆动角度是通过计算n个步态周期内,脚踝关节点摆动到离身体中垂线最大的角度的平均值;
S2.8,在n个步态周期内,采用欧式距离公式,计算得到手腕关节点摆动的最高点与最低点之间的距离J;
S2.10,形成行人时间运动特征数据集:
所述步骤S2.5中,计算得到上关节夹角σ1、中关节夹角σ2和下关节夹角σ3,还分别选取T这四个时刻夹角,其中上关节夹角σ1在四个时刻的夹角分别为σ′1、σ″1、σ″′1、σ″″1;中关节夹角σ2在四个时刻的夹角分别为σ′2、σ″2、σ″′2、σ″″2;下关节夹角σ3在四个时刻的夹角分别为σ′3、σ″3、σ″′3、σ″″3,则
σi=[σ′i、σ″i、σ″′i、σ″″i]i=1,2,3。
所述的融合行人时间运动特征和空间特征数据,设计行人结构化特征表达模型,特征表达模型的公式如下所示:
Val=αR(F′t-Ft)+βR(F′s-Fs),
其中,Val表示最终的匹配值,R表示模板匹配规则,α和β分别表示时间特征匹配和空间特征匹配在总的模板匹配中的权重,且α+β=1,F′t和F′s分别表示待测时间运动特征数据集和待测空间特征数据集,Ft和Fs分别表示时间运动特征数据集和空间特征数据集。
所述的模板匹配规则R,具体的公式如下所示:
其中,w和h分别表示搜索图像的宽和高,(x,y)表示待测特征向量坐标,(x′,y′)表示特征向量坐标,I(x,y)为待测特征向量,T(x′,y′)为模板特征向量。
所述的行人结构化特征表达模型,具体模型结构如下:
当行人运动且无遮挡时,α=1,则β=0,此时Val=αR(F′t-Ft),即最终的行人特征表达取决于行人的时间特征匹配;
当行人运动且有遮挡时,0≤α≤1且0≤β≤1,此时Val=αR(F′t-Ft)+βR(F′s-Fs),即最终的行人特征表达取决于行人的时间特征匹配和空间特征匹配的融合;
当行人静止时,α=0,则β=1,此时Val=βR(F′s-Fs),即最终的行人特征表达取决于空间特征匹配。
所述的利用HOG特征提取算法,提取行人的局部区域梯度特征作为空间特征,具体步骤如下:
对图像进行归一化,并计算每个像素点的梯度;
根据窗口滑动步长从图像中选择对应的检测窗口;
根据块滑动步长从窗口中选择对应的块;
在块内划分多个方块,一个方块为一个cell单元,进行bin方向投影,计算投影和,并将cell单元进行归一化;
在块内构建HOG特征;
生成空间特征数据集Fs[p1,p2,…,pn]。
所述的利用LBP特征提取算法,提取纹理细节特征作为空间特征,具体步骤如下:
将待检测图像划分为9×9的小区域,每个小区域为一个cell单元;
将每个cell单元中的中心像素的灰度值和与其相邻的8个像素的灰度值进行比较,若周围像素值大于中心像素值,则该中心像素点的位置被标记为1,否则记为0,从而3×3邻域内的8个点经过比较产生8位二进制数,即可得到该cell单元中心像素点的LBP值;
计算每个cell单元的统计直方图,即每个数字出现的频率,并将直方图进行归一化;
将得到的每个cell单元的统计直方图连接成为一个特征向量,即为整幅图的LBP纹理特征向量。
本发明通过获取行人的运动特征和局部空间特征数据,实现人体动态、静态情况下个体化特征描述,可确保行人识别时匹配特征的有效性。
附图说明
附图1为本发明的流程示意图;
附图2为人体关节点位信息图;
附图3为人体关节点角度图;
附图4为手腕关节点摆动图;
附图5为HOG算法流程图;
附图6为LBP算法流程图。
具体实施方式
为能进一步了解本发明的特征、技术手段以及所达到的具体目的、功能,下面结合附图与具体实施方式对本发明作进一步详细描述。
如附图1-6所示,本发明揭示了一种行人结构化特征表达方法,包括以下步骤:
S1,获取行人监控图像,提取行人预设的主要的关节点的图像位置信息,即在图像中的坐标系中,各个关节点的坐标信息。主要的关节点设为18个,分别为:头部0、颈部1、左肩2、左肘3、左手腕4、右肩5、右手肘6、右手腕7、左胯部8、左膝9、左脚踝10、右胯部11、右膝12、右脚踝13、左眼14、右眼15、左耳16、右耳17。
S2,结合行人连续运动特点,计算行人的时间运动特征数据,形成行人的时间运动特征数据集,时间运动特征数据包括行人步态周期内最大步幅大小、人体运动速度、关节点摆动幅度频率、关节点之间的距离比、关节夹角。
S3,根据关节点的图像位置信息估计行人的局部区域在图像中的位置,利用HOG特征提取算法与LBP特征提取算法,提取行人的局部区域的空间特征数据,形成行人空间特征数据集,该空间特征包括梯度特征、纹理细节、旋转不变量。
S4,融合行人的时间运动特征数据和空间特征数据,形成行人时空特征向量,设计行人结构化特征表达模型。
S5,提取待识别行人的时间运动特征数据和空间特征数据,形成时空特征向量。
S6,利用行人结构化特征表达模型,对比分析行人目标与待识别行人之间的相似度,可相似度大于等于设定阈值,则待识别行人为行人目标,若相似度小于设定阈值,则待识别行人不是目标行人,实现行人的识别。
所述步骤S2中计算行人的时间运动特征数据,具体包括以下:
其中,(xf1,yf1)表示左脚踝关节点坐标,(xf2,yf2)表示右脚踝关节点坐标,步态周期T表示人在行走时,一侧脚掌离地到该脚掌再次着地期间所用的时间。
S2.3,计算关节点摆动幅度频率fk,通过下列公式计算得到,Tk表示行人第K关节点从距离身体中垂线最远的关节点到该第K关节点摆回到身体中垂线同侧距离身体中垂线最远关节点所用的时间,比如,人手前后摆动时向前摆动与向后摆动之间的最远距离,n个步态周期内的摆动幅度频率为:
结合附图2所示的人体关节点示意图,本实施方案选择K=3,4,6,7,即选择左手腕关节点3、右手腕关节点6和左手肘关节点4、右手肘关节点7,则fk表示左手腕关节点3、右手腕关节点6和左手肘关节点4、右手肘关节点7的摆动频率。
S2.4,计算行人颈部关节点到胯部关节点的距离L1与颈部关节点到脚踝关节点的距离L′1之比γ1,颈部关节点到胯部关节点的距离L2与胯部关节点到脚踝关节点的距离L′2之比γ2,距离比γ可通过下式求得:
其中,Li和L′i都采用欧式距离公式进行计算;则L1,L′1分别表示行人颈部关节点到胯部关节点的距离和颈部关节点到脚踝关节点的距离,L2,L′2分别表示颈部关节点到胯部关节点的距离和胯部关节点到脚踝关节点的距离。
S2.5,对于关节夹角的计算,如附图3所示,分别计算得到上关节夹角σ1、中关节夹角σ2和下关节夹角σ3,其中上关节夹角σ1为身体中垂线同一侧的手腕关节点到手肘关节点的连接线和肩部关节点到手肘关节点的连线之间的夹角,中关节夹角σ2为身体中垂线同一侧的颈部关节点到胯部关节点的连线和膝关节点到胯部关节点连线之间的夹角,下关节夹角为身体中垂线同一侧的胯部关节点到膝关节点的连线和脚踝关节点到膝关节点的连线之间的夹角。
以身体中垂线为基准的左侧和右侧的计算方式相同,现以左侧为例进行说明。
通过计算左手腕关节坐标点Pp1(xp1,yp1)到左手肘关节坐标点Pp2(xp2,yp2)的连线和左肩部关节点Pp3(xp3,yp3)到左手肘关节点的连线之间的夹角作为关节夹角σ1,并选取T这四个时刻的夹角σ′1、σ″1、σ″′1、σ″″1;颈部关节点Pp4(xp4,yp4)到左胯部关节点Pp5(xp5,yp5)的连线和左膝关节点Pp6(xp6,yp6)到左胯部关节点连线之间的夹角作为关节夹角σ2,并选取T这四个时刻的夹角σ′2、σ″2、σ″′2、σ″″2;左胯部关节点到左膝关节点的连线和左脚踝关节点Pp7(xp7,yp7)到左膝关节点的连线之间的夹角作为关节角σ3,并选取T这四个时刻的夹角σ′3、σ″3、σ″′3、σ″″3;
则σi=[σ′i、σ″i、σ″′i、σ″″i]i=1,2,3。
S2.7,计算n个步态周期内,手腕关节点的平均摆动角度和脚踝关节点的平均摆动角度其中,手腕关节点的平均摆动角度是通过计算n个步态周期内,手腕关节点摆动到离身体中垂线最大的角度的平均值,脚踝关节点的平均摆动角度是通过计算n个步态周期内,脚踝关节点摆动到离身体中垂线最大的角度的平均值。每个步态周期得到一个相应的最大摆动角度,n个周期则是具有n个最大角度,相加后再除以n即得到对应的平均值。最大摆动角度参照步骤S2.5中的关节夹角计算方式计算得到。
S2.8,在n个步态周期内,采用欧式距离,计算得到手腕关节点摆动的最高点与最低点之间的距离J。
S2.10,形成行人时间运动特征数据集:
在步骤S4中,所述的融合行人时间运动特征和空间特征数据,设计行人结构化特征表达模型,特征表达模型的公式如下所示:
Val=αR(F′t-Ft)+βR(F′s-Fs),
其中,Val表示最终的匹配值,R表示模板匹配规则,α和β分别表示时间特征匹配和空间特征匹配在总的模板匹配中的权重,且α+β=1,F′t和F′s分别表示待测时间运动特征数据集和待测空间特征数据集,Ft和Fs分别表示时间运动特征数据集和空间特征数据集。
所述的模板匹配规则R,具体的公式如下所示:
其中,w和h分别表示搜索图像的宽和高,(x,y)表示待测特征向量坐标,(x′,y′)表示特征向量坐标,I(x,y)为待测特征向量,T(x′,y′)为模板特征向量。
对于行人结构化特征表达模型,具体模型结构如下:
S4.1,当行人运动且无遮挡时,α=1,则β=0,此时Val=αR(F′t-Ft),即最终的行人特征表达取决于行人的时间特征匹配。
S4.2,当行人运动且有遮挡时,0≤α≤1且0≤β≤1,此时Val=αR(F′t-Ft)+βR(F′s-Fs),即最终的行人特征表达取决于行人的时间特征匹配和空间特征匹配的融合。
S4.3,当行人静止时,α=0,则β=1,此时Val=βR(F′s-Fs),即最终的行人特征表达取决于空间特征匹配。
此外,如附图5所示,所述的利用HOG特征提取算法,提取行人的局部区域梯度特征作为空间特征,具体步骤如下:
对图像进行归一化,并计算每个像素点的梯度。
根据窗口滑动步长从图像中选择对应的检测窗口。
根据块滑动步长从窗口中选择对应的块。
在块内划分多个方块,一个方块为一个cell单元,进行bin方向投影,计算投影和,并将cell单元进行归一化。
在块内构建HOG特征。
生成空间特征数据集Fs[p1,p2,…,pn]。
或者采用另外一种提取算法,如附图6所示,利用LBP特征提取算法,提取纹理细节特征作为空间特征,具体步骤如下:
将待检测图像划分为9×9的小区域,每个小区域为一个cell单元。
将每个cell单元中的中心像素的灰度值和与其相邻的8个像素的灰度值进行比较,若周围像素值大于中心像素值,则该中心像素点的位置被标记为1,否则记为0,从而3×3邻域内的8个点经过比较产生8位二进制数,即可得到该cell单元中心像素点的LBP值。
计算每个cell单元的统计直方图,即每个数字出现的频率,并将直方图进行归一化。
将得到的每个cell单元的统计直方图连接成为一个特征向量,即为整幅图的LBP纹理特征向量。
将通过LBP特征提取算法提取到的纹理细节特征和HOG特征提取算法提取到的局部区域梯度特征共同形成空间特征数据集Fs[f1,f2…fn]。
本发明通过以上方法,分别提取关节点的时间运动特性,以及关节点的空间运动特性,将两种特性进行一定规律的融合,将对象的状态进行细分,包括静止和运动中的有无遮挡,不同的状态应用不同的算法,不仅能提高识别速度,而且能提高识别准确率。
需要说明的是,以上仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换,但是凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种行人结构化特征表达方法,包括以下步骤:
S1,获取行人监控图像,提取行人预设的主要的关节点的图像位置信息;
S2,结合行人连续运动特点,计算行人的时间运动特征数据,形成行人的时间运动特征数据集,时间运动特征数据包括行人步态周期内最大步幅大小、人体运动速度、关节点摆动幅度频率、关节点之间的距离比、关节夹角;
S3,根据行人关节点图像位置信息估计行人的局部区域在图像中的位置,利用HOG特征提取算法与LBP特征提取算法,提取行人的局部区域的空间特征数据,形成行人空间特征数据集,该空间特征包括梯度特征、纹理细节、旋转不变量;
S4,融合行人的时间运动特征数据和空间特征数据,形成行人时空特征向量,设计行人结构化特征表达模型;
S5,提取待识别行人的时间运动特征数据和空间特征数据,形成时空特征向量;
S6,利用行人结构化特征表达模型,对比分析行人目标与待识别行人之间的相似度,实现行人的识别;
所述步骤S2中计算行人的时间运动特征数据,具体包括以下:
其中,(xf1,yf1)表示左脚踝关节点坐标,(xf2,yf2)表示右脚踝关节点坐标,步态周期T表示人在行走时,一侧脚掌离地到该脚掌再次着地期间所用的时间;
S2.3,计算关节点摆动幅度频率fK,通过下列公式计算得到,Tk表示行人第K关节点从距离身体中垂线最远的关节点到该第K关节点摆回到身体中垂线同侧距离身体中垂线最远关节点所用的时间,则n个步态周期内的摆动幅度频率为:
S2.4,计算行人颈部关节点到胯部关节点的距离L1与颈部关节点到脚踝关节点的距离L′1之比γ1,颈部关节点到胯部关节点的距离L2与胯部关节点到脚踝关节点的距离L′2之比γ2,距离比γ可通过下式求得:
其中,Li和L′i都采用欧式距离公式进行计算;
S2.5,分别计算得到上关节夹角σ1、中关节夹角σ2和下关节夹角σ3,其中上关节夹角σ1为身体中垂线同一侧的手腕关节点到手肘关节点的连接线和肩部关节点到手肘关节点的连线之间的夹角,中关节夹角σ2为身体中垂线同一侧的颈部关节点到胯部关节点的连线和膝关节点到胯部关节点连线之间的夹角,下关节夹角为身体中垂线同一侧的胯部关节点到膝关节点的连线和脚踝关节点到膝关节点的连线之间的夹角;
S2.7,计算n个步态周期内,手腕关节点的平均摆动角度和脚踝关节点的平均摆动角度其中,手腕关节点的平均摆动角度是通过计算n个步态周期内,手腕关节点摆动到离身体中垂线最大的角度的平均值,脚踝关节点的平均摆动角度是通过计算n个步态周期内,脚踝关节点摆动到离身体中垂线最大的角度的平均值;
S2.8,在n个步态周期内,采用欧式距离公式,计算得到手腕关节点摆动的最高点与最低点之间的距离J;
S2.10,形成行人时间运动特征数据集:
3.根据权利要求2所述的行人结构化特征表达方法,其特征在于,所述的融合行人时间运动特征和空间特征数据,设计行人结构化特征表达模型,特征表达模型的公式如下所示:
Val=αR(F′t-Ft)+βR(F′s-Fs),
其中,Val表示最终的匹配值,R表示模板匹配规则,α和β分别表示时间特征匹配和空间特征匹配在总的模板匹配中的权重,且α+β=1,F′t和F′s分别表示待测时间运动特征数据集和待测空间特征数据集,Ft和Fs分别表示时间运动特征数据集和空间特征数据集。
4.根据权利要求3所述的行人结构化特征表达方法,其特征在于,所述的行人结构化特征表达模型,具体模型结构如下:
当行人运动且无遮挡时,α=1,则β=0,此时Val=αR(F′t-Ft),即最终的行人特征表达取决于行人的时间特征匹配;
当行人运动且有遮挡时,0≤α≤1且0≤β≤1,此时Val=αR(F′t-Ft)+βR(F′s-Fs),即最终的行人特征表达取决于行人的时间特征匹配和空间特征匹配的融合;
当行人静止时,α=0,则β=1,此时Val=βR(F′s-Fs),即最终的行人特征表达取决于空间特征匹配。
5.根据权利要求4所述的行人结构化特征表达方法,其特征在于,所述的利用HOG特征提取算法,提取行人的局部区域梯度特征作为空间特征,具体步骤如下:
对图像进行归一化,并计算每个像素点的梯度;
根据窗口滑动步长从图像中选择对应的检测窗口;
根据块滑动步长从窗口中选择对应的块;
在块内划分多个方块,一个方块为一个cell单元,进行bin方向投影,计算投影和,并将cell单元进行归一化;
在块内构建HOG特征;
生成空间特征数据集Fs[p1,p2,…,pn]。
6.根据权利要求5所述的行人结构化特征表达方法,其特征在于,所述的利用LBP特征提取算法,提取纹理细节特征作为空间特征,具体步骤如下:
将待检测图像划分为9×9的小区域,每个小区域为一个cell单元;
将每个cell单元中的中心像素的灰度值和与其相邻的8个像素的灰度值进行比较,若周围像素值大于中心像素值,则该中心像素点的位置被标记为1,否则记为0,从而3×3邻域内的8个点经过比较产生8位二进制数,即可得到该cell单元中心像素点的LBP值;
计算每个cell单元的统计直方图,即每个数字出现的频率,并将直方图进行归一化;
将得到的每个cell单元的统计直方图连接成为一个特征向量,即为整幅图的LBP纹理特征向量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910242434.5A CN109919137B (zh) | 2019-03-28 | 2019-03-28 | 一种行人结构化特征表达方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910242434.5A CN109919137B (zh) | 2019-03-28 | 2019-03-28 | 一种行人结构化特征表达方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109919137A CN109919137A (zh) | 2019-06-21 |
CN109919137B true CN109919137B (zh) | 2021-06-25 |
Family
ID=66967369
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910242434.5A Active CN109919137B (zh) | 2019-03-28 | 2019-03-28 | 一种行人结构化特征表达方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109919137B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11179064B2 (en) * | 2018-12-30 | 2021-11-23 | Altum View Systems Inc. | Method and system for privacy-preserving fall detection |
CN111104857A (zh) * | 2019-11-19 | 2020-05-05 | 中国人民解放军国防科技大学 | 一种基于步态能量图的身份识别方法及系统 |
JP7198196B2 (ja) * | 2019-12-26 | 2022-12-28 | 株式会社日立ハイテク | 計測装置及び計測方法 |
CN111242030A (zh) * | 2020-01-13 | 2020-06-05 | 平安国际智慧城市科技股份有限公司 | 视频数据处理方法、装置、设备及计算机可读存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105187785A (zh) * | 2015-08-31 | 2015-12-23 | 桂林电子科技大学 | 一种基于动态选取显著特征的跨卡口行人识别系统与方法 |
CN105930767A (zh) * | 2016-04-06 | 2016-09-07 | 南京华捷艾米软件科技有限公司 | 一种基于人体骨架的动作识别方法 |
CN106295544A (zh) * | 2016-08-04 | 2017-01-04 | 山东师范大学 | 一种基于Kinect的视角不变性步态识别方法 |
CN109255312A (zh) * | 2018-08-30 | 2019-01-22 | 罗普特(厦门)科技集团有限公司 | 一种基于表观特征的异常着装检测方法以及装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103042526A (zh) * | 2013-01-22 | 2013-04-17 | 北京理工大学 | 仿人机器人控制单脚支撑期支撑脚板的方法和装置 |
CN107133575B (zh) * | 2017-04-13 | 2020-06-12 | 中原智慧城市设计研究院有限公司 | 一种基于时空特征的监控视频行人重识别方法 |
-
2019
- 2019-03-28 CN CN201910242434.5A patent/CN109919137B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105187785A (zh) * | 2015-08-31 | 2015-12-23 | 桂林电子科技大学 | 一种基于动态选取显著特征的跨卡口行人识别系统与方法 |
CN105930767A (zh) * | 2016-04-06 | 2016-09-07 | 南京华捷艾米软件科技有限公司 | 一种基于人体骨架的动作识别方法 |
CN106295544A (zh) * | 2016-08-04 | 2017-01-04 | 山东师范大学 | 一种基于Kinect的视角不变性步态识别方法 |
CN109255312A (zh) * | 2018-08-30 | 2019-01-22 | 罗普特(厦门)科技集团有限公司 | 一种基于表观特征的异常着装检测方法以及装置 |
Non-Patent Citations (1)
Title |
---|
行人步态的特征表达及识别综述;贲晛烨;《模式识别与人工智能》;20120229;第25卷(第1期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN109919137A (zh) | 2019-06-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Jalal et al. | Human body parts estimation and detection for physical sports movements | |
CN109919137B (zh) | 一种行人结构化特征表达方法 | |
CN107423730B (zh) | 一种基于语义折叠的人体步态行为主动检测识别系统和方法 | |
Kamal et al. | A hybrid feature extraction approach for human detection, tracking and activity recognition using depth sensors | |
Farooq et al. | Dense RGB-D map-based human tracking and activity recognition using skin joints features and self-organizing map | |
Xia et al. | Human detection using depth information by kinect | |
Pala et al. | Multimodal person reidentification using RGB-D cameras | |
Han et al. | Statistical feature fusion for gait-based human recognition | |
CN102609683B (zh) | 一种基于单目视频的人体关节自动标注方法 | |
US11625646B2 (en) | Method, system, and medium for identifying human behavior in a digital video using convolutional neural networks | |
CN114067358A (zh) | 一种基于关键点检测技术的人体姿态识别方法及系统 | |
CN109902565B (zh) | 多特征融合的人体行为识别方法 | |
Zhou et al. | Learning to estimate 3d human pose from point cloud | |
CN105095880B (zh) | 一种基于lgbp编码的手指多模态特征融合方法 | |
CN106815855A (zh) | 基于产生式和判别式结合的人体运动跟踪方法 | |
Khan et al. | A deep survey on supervised learning based human detection and activity classification methods | |
CN114187665A (zh) | 一种基于人体骨架热图的多人步态识别方法 | |
Jindal et al. | An obstacle detection method for visually impaired persons by ground plane removal using speeded-up robust features and gray level co-occurrence matrix | |
Krzeszowski et al. | Gait recognition based on marker-less 3D motion capture | |
Glandon et al. | 3d skeleton estimation and human identity recognition using lidar full motion video | |
Imani et al. | Histogram of the node strength and histogram of the edge weight: two new features for RGB-D person re-identification | |
CN110852305A (zh) | 一种人体步态特征提取方法 | |
Chang et al. | Vision-aware target recognition toward autonomous robot by Kinect sensors | |
Liu et al. | Gender recognition using dynamic gait energy image | |
Uddin et al. | Human activity recognition using robust spatiotemporal features and convolutional neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP01 | Change in the name or title of a patent holder |
Address after: 510000 13 building, 100 martyrs Road, Yuexiu District, Guangzhou, Guangdong. Patentee after: Institute of intelligent manufacturing, Guangdong Academy of Sciences Address before: 510000 13 building, 100 martyrs Road, Yuexiu District, Guangzhou, Guangdong. Patentee before: GUANGDONG INSTITUTE OF INTELLIGENT MANUFACTURING |
|
CP01 | Change in the name or title of a patent holder |