CN103955682A - 基于surf兴趣点的行为识别方法及装置 - Google Patents

基于surf兴趣点的行为识别方法及装置 Download PDF

Info

Publication number
CN103955682A
CN103955682A CN201410220401.8A CN201410220401A CN103955682A CN 103955682 A CN103955682 A CN 103955682A CN 201410220401 A CN201410220401 A CN 201410220401A CN 103955682 A CN103955682 A CN 103955682A
Authority
CN
China
Prior art keywords
point
interest
movement locus
human action
surf
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410220401.8A
Other languages
English (en)
Other versions
CN103955682B (zh
Inventor
孙凯
刘春秋
徐亮
梁子正
吴悦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Sunwin Intelligent Co Ltd
Original Assignee
Shenzhen Sunwin Intelligent Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Sunwin Intelligent Co Ltd filed Critical Shenzhen Sunwin Intelligent Co Ltd
Priority to CN201410220401.8A priority Critical patent/CN103955682B/zh
Publication of CN103955682A publication Critical patent/CN103955682A/zh
Application granted granted Critical
Publication of CN103955682B publication Critical patent/CN103955682B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于SURF兴趣点的行为识别方法及装置,其中,上述方法包括如下步骤:S01、采集多帧连续的人体动作视频图像;S02、检测每帧图像中与人体动作相关的兴趣点;S03、对兴趣点进行包括去噪音处理以及去离群的预处理;S04、累积多帧图像中所有兴趣点并构造表征人体动作的运动轨迹的点集;S05、从人体动作的运动轨迹的点集中提取目标特征并量化得到特征向量;S06、计算运动轨迹点集的特征向量与所有簇中心的欧式距离;S07、根据步骤S06的计算结果,将待检测视频图像人体动作判定为得到的匹配值最高的人体动作。本发明能够增加行为识别的鲁棒性,提高行为识别率。

Description

基于SURF兴趣点的行为识别方法及装置
技术领域
本发明涉及图像识别技术领域,尤其涉及基于SURF兴趣点的行为识别方法及装置。
背景技术
人体行为识别作为计算机视觉领域的一个新兴技术,在人机交互和视频监控等方面具有广泛的应用前景。目前,可应用的场合分别有运动捕捉、监控视频分析、视频分类、体育运动与娱乐视频处理、智能家居开发、人机交互、环境控制与监视等等。
目前主要的人体行为识别方法大致可以分为基于目标跟踪、基于形状模板匹配、基于光流和基于时空兴趣点这四大类。基于目标跟踪和形状模板匹配的方法要求建立精确的人体模板,系统鲁棒性相对较差。基于光流的方法利用光流信息进行行为识别,容易受到噪声以及光照强度变化的干扰。基于时空兴趣点分析的方法通过滤波和非极值抑制法提取出兴趣点,从时空兴趣点中提取人体动作的时空运动特征作为识别的依据。这类方法对于图像遮挡、重叠、尺度变化和光照变化的鲁棒性不好。为此,有必要对上述的人体行为识别方法进行进一步的改进。
发明内容
本发明所要解决的技术问题是:提供一种能够增加图像鲁棒性、提高人体行为识别率的基于SURF兴趣点的行为识别方法及装置。
为了解决上述技术问题,本发明采用的技术方案为:提供一种基于SURF兴趣点的行为识别方法,包括如下步骤:
S01、采集多帧连续的人体动作视频图像;
S02、根据SURF算法检测每帧图像中与人体动作相关的兴趣点;
S03、对兴趣点进行包括去噪音处理以及去离群的预处理;
S04、累积多帧图像中所有兴趣点并构造表征人体动作的运动轨迹的点集;
S05、从人体动作的运动轨迹的点集中提取目标特征并量化得到特征向量;
S06、计算运动轨迹点集的特征向量与所有簇中心的欧式距离,得到待检测视频与所有簇中心的匹配值,其中,所述簇中心为样本图像;
S07、根据步骤S06的计算结果,将待检测视频图像人体动作判定为得到的匹配值最高的人体动作。
为了解决上述技术问题,本发明采用的另一技术方案为:提供一种基于SURF兴趣点的行为识别装置,包括顺次电连接的图像采集模块、兴趣点检测模块、预处理模块、点集构造模块、量化模块、计算模块以及识别模块;所述图像采集模块,用于采集多帧连续的人体动作视频图像;所述兴趣点检测集模块,用于根据SURF算法检测每帧图像中与人体动作相关的兴趣点;所述预处理模块,用于预处理兴趣点,包括对兴趣点进行去噪音处理以及去离群处理;所述点集构造模块,用于累积多帧图像中所有兴趣点并构造表征人体动作的运动轨迹的点集;所述量化模块,用于从人体动作的运动轨迹的点集中提取目标特征并量化得到特征向量;所述计算模块,用于计算待检测视频的运动轨迹点集的特征向量与所有簇中心的欧式距离,得到待检测视频与所有簇中心的匹配值,其中,所述簇中心为所有标准人体行为;所述识别模块,用于根据计算模块的计算结果,将待检测视频图像人体动作判定为得到的匹配值最高的人体动作
本发明的有益效果在于:本发明通过SURF算法检测人体动作兴趣点,并对多帧的兴趣点构造成运动轨迹点集提取目标特征并量化得到特征向量后计算特征向量与所有簇中心的欧式距离得到匹配值,最后将待检测视频图像人体动作判定为得到的匹配值最高的人体动作。兴趣点的提取过程不要求精确定位人体和精确分割人体轮廓,因此兴趣点对遮挡、重叠、尺度变化和光照变化不敏感,能够增加行为识别的鲁棒性;对兴趣点进行预处理,能够消除噪声影响以及提高兴趣点的质量。通过对兴趣点的处理方法步骤,能够增加图像的鲁棒性,提高图像中人体行为的识别率。
附图说明
图1是本发明基于SURF兴趣点的行为识别方法的流程图;
图2是积分图像示意图。
具体实施方式
为详细说明本发明的技术内容、构造特征、所实现目的及效果,以下结合实施方式并配合附图详予说明。
本发明最关键的构思在于:通过累积多帧多尺度的时空兴趣点来构造兴趣点云,然后提取出能够表征时空兴趣点云的多尺度特征,并通过对特征值进行直方图化实现特征量化,能够增加行为识别的鲁棒性,提高行为识别率。
兴趣点:视频中运动剧烈特征显著的位置,能够反映出视频中人体的时间空间分布信息和运动特征。
请参阅图1,基于SURF兴趣点的行为识别方法,包括如下步骤:
S01、采集多帧连续的人体动作视频图像;
S02、根据SURF算法检测每帧图像中与人体动作相关的兴趣点;
S03、对兴趣点进行包括去噪音处理以及去离群的预处理;
S04、累积多帧图像中所有兴趣点并构造表征人体动作的运动轨迹的点集;
S05、从人体动作的运动轨迹的点集中提取目标特征并量化得到特征向量;
S06、计算运动轨迹点集的特征向量与所有簇中心的欧式距离,得到待检测视频与所有簇中心的匹配值,其中,所述簇中心为样本图像;
S07、根据步骤S06的计算结果,将待检测视频图像人体动作判定为得到的匹配值最高的人体动作。
从上述描述可知,本发明的有益效果在于:本发明通过SURF算法检测人体动作兴趣点,并对多帧的兴趣点构造成运动轨迹点集,提取目标特征并量化得到特征向量后计算特征向量与所有簇中心的欧式距离得到匹配值,最后将待检测视频图像人体动作判定为得到的匹配值最高的人体动作。兴趣点的提取过程不要求精确定位人体和精确分割人体轮廓,因此兴趣点对遮挡、重叠、尺度变化和光照变化不敏感,能够增加行为识别的鲁棒性;对兴趣点进行预处理,能够消除噪声影响以及提高兴趣点的质量。通过对兴趣点的处理方法步骤,能够增加图像的鲁棒性,提高图像中人体行为的识别率。
进一步的,所述步骤S02具体包括步骤:
S21、选定一帧人体动作视频图像;
S22、根据累积统计图像中左上角到图像任意一点的矩形区域内像素值之和来计算积分图像;具体为,假设F(i',j')表示原图像中点(i',j')的像素值,I(i,j)表示的是积分图像中点(i,j)相应的值,我们可以通过公式:
I ( i , j ) = Σ 0 ≤ i ≤ i , 0 ≤ j ≤ j F ( i ′ , j ′ )
累积统计图像中左上角到任意一点的矩形区域内像素值之和来计算积分图像。
为避免重复统计,引入一个中间变量I_col(i,j),I_col(i,j)统计的是绿色区域(即第i行点(i,0)到点(i,j))的像素值之和(如图2所示),上述公式可以变换为如下公式:
I _ col ( i , j ) = Σ 0 ≤ j ≤ j F ( i , j ′ ) = I _ col ( i , j - 1 ) + F ( i , j )
I(i,j)=I(i-1,j)+I_col(i,j)
通过上述公式我们可以将积分图像的计算复杂度由O(n2)降低到O(n),计算好积分图像后,图像中任意一个矩形区域内像素值之和只需要对矩形区域中四个顶点的积分值进行三个加减运算便可得到,与矩形区域的尺寸无关。
S23、构造的若干尺寸逐渐递增的滤波器模拟Hessian矩阵滤波器以计算出与积分图像对应的卷积响应图;具体为:构造一系列尺寸逐渐递增的盒子滤波器,用盒子滤波器来模拟Hessian矩阵滤波器。给定一个点(r,c),假设第o组第i层盒子滤波器的响应长度为l,尺寸大小为w=3×l,盒子的一半宽度为b=3l/2,面积为Area=w×w=9l2,则可以通过如下公式,求得在点(r,c)处Dxx、Dxy和Dyy的值。
Dxx=[BoxI((r-l+1,c-b),(2l-1,w))
-3×BoxI((r-l+1,c-l),(2l-1,l))]/Area
Dyy=[BoxI((r-b,c-l+1),(w,2l-1))
-3×BoxI((r-l/2,c-l+1),(l,2l-1))]/Area
Dxy=[BoxI((r-l,c+1),(l,l))+BoxI((r+1,c-l),(l,l))
-BoxI((r-l,c-l),(l,l))-BoxI((r+1,c+1),(l,l))]/Area
其中,BoxI((x1,y1),(x2,y2))表示的是以(x1,y1)为左上角,(x2,y2)为右上角的矩形区域内的积分值。
这样,Hessian矩阵的行列式即点(r,c)的响应值可以近似为:
det(H)≈DxxDyy-(0.9Dxy)2
S24、根据非极值抑制算法查找兴趣点。
进一步的,所述步骤S24具体包括步骤:
S241、选定卷积响应图的目标点并构造该目标点的邻域;
S242、判断目标点的响应值与其邻域内所有点的响应值的大小,若目标点的响应值大于邻域内所有点的响应值,则判定该目标点为兴趣点,若否,则继续对下一目标点进行判断。
进一步的,所述步骤S03中的去噪音处理具体包括步骤:
S31、提取出当前帧人体动作视频图像与前一帧人体动作视频图像的兴趣点,构造兴趣点集;
S32、对当前帧所有兴趣点与前一帧的对应兴趣点进行匹配,若当前帧的兴趣点和前一帧中对应的兴趣点的最小距离或第二小距离小于设定阀值,则判定兴趣点匹配成功,若否则判定该兴趣点为噪音点并去除。
进一步的,所述步骤S03中离群处理具体包括步骤:
S33、选择一去噪音后的兴趣点作为目标点,该目标点向设定距离阈值内的所有兴趣点进行一次传播;
S34、依次以传播到的兴趣点为新的目标点,并对距离阈值尚未传播到的兴趣点进行传播,直至目标点的距离阈值内无兴趣点停止传播;
S35、判断目标点传播到的兴趣点的数量与预设点数量阈值的大小,若目标点传播到的兴趣点的数量大小预设点数量阈值,则判定兴趣点匹配成功,若否则判定该兴趣点为离群点并去除。
具体实现方案:假设两点之间能够进行扩散的距离阈值为C_diat,首先选择一个起始点,然后向该起始点的周围区域扩散,与起始点距离小于C_diat的点都能被扩散到。这些被成功扩散的点均被放入到一个起始点队列中,其中每个点只能放入一次,且每次只在队列尾部插入新扩散的点。一个点扩散完毕,起始点队列便删除头部节点。每当扩散不能再进行下去,说明这一点簇已经成功扩散到所有点。每扩散完一个点簇,需要再一次设置起始点和起始点队列进行新的一轮扩散。这样直到计算完所有的点。点数量小于阈值的点簇中的点都被判为离群点。
进一步的,所述步骤S05中的目标特征包括运动轨迹点集的长宽比、运动轨迹点集与目标区域的高度比、运动轨迹点集与目标区域的宽度比、运动轨迹点集的密度、运动轨迹点集的扩张速度、运动轨迹点集与目标的重合面积、运动轨迹点集与目标区域几何中心的平均竖直距离以及运动轨迹点集与目标区域几何中心的平均水平距离,其中,所述目标区域为当前帧人体位置。
进一步的,所述步骤S05中提取目标特征后还包括提取目标区域的长宽比和目标区域中人体的填充率,通过对目标特征以及目标区域的长宽比和目标区域中人体的填充率量化得到特征向量。
综上所述,本发明提供的通过SURF算法检测人体动作兴趣点,并对多帧的兴趣点构造成运动轨迹点集,提取目标特征并量化得到特征向量后计算特征向量与所有簇中心的欧式距离得到匹配值,最后将待检测视频图像人体动作判定为得到的匹配值最高的人体动作。兴趣点的提取过程不要求精确定位人体和精确分割人体轮廓,因此兴趣点对遮挡、重叠、尺度变化和光照变化不敏感,能够增加行为识别的鲁棒性;对兴趣点进行预处理,能够消除噪声影响以及提高兴趣点的质量。通过对兴趣点的处理方法步骤,能够增加图像的鲁棒性,提高图像中人体行为的识别率。
本发明还提供了一种基于SURF兴趣点的行为识别装置,包括顺次电连接的图像采集模块、兴趣点检测模块、预处理模块、点集构造模块、量化模块、计算模块以及识别模块;所述图像采集模块,用于采集多帧连续的人体动作视频图像;所述兴趣点检测集模块,用于根据SURF算法检测每帧图像中与人体动作相关的兴趣点;所述预处理模块,用于预处理兴趣点,包括对兴趣点进行去噪音处理以及去离群处理;所述点集构造模块,用于累积多帧图像中所有兴趣点并构造表征人体动作的运动轨迹的点集;所述量化模块,用于从人体动作的运动轨迹的点集中提取目标特征并量化得到特征向量;所述计算模块,用于计算待检测视频的运动轨迹点集的特征向量与所有簇中心的欧式距离,得到待检测视频与所有簇中心的匹配值,其中,所述簇中心为所有标准人体行为;所述识别模块,用于根据计算模块的计算结果,将待检测视频图像人体动作判定为得到的匹配值最高的人体动作。
本发明提供的基于SURF兴趣点的行为识别转置,通过SURF算法检测人体动作兴趣点,并对多帧的兴趣点构造成运动轨迹点集,提取目标特征并量化得到特征向量后计算特征向量与所有簇中心的欧式距离得到匹配值,最后将待检测视频图像人体动作判定为得到的匹配值最高的人体动作。兴趣点的提取过程不要求精确定位人体和精确分割人体轮廓,因此兴趣点对遮挡、重叠、尺度变化和光照变化不敏感,能够增加行为识别的鲁棒性;对兴趣点进行预处理,能够消除噪声影响以及提高兴趣点的质量。通过对兴趣点的处理方法步骤,能够增加图像的鲁棒性,提高图像中人体行为的识别率。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (8)

1.一种基于SURF兴趣点的行为识别方法,其特征在于,包括如下步骤:
S01、采集多帧连续的人体动作视频图像;
S02、根据SURF算法检测每帧图像中与人体动作相关的兴趣点;
S03、对兴趣点进行包括去噪音处理以及去离群的预处理;
S04、累积多帧图像中所有兴趣点并构造表征人体动作的运动轨迹的点集;
S05、从人体动作的运动轨迹的点集中提取目标特征并量化得到特征向量;
S06、计算运动轨迹点集的特征向量与所有簇中心的欧式距离,得到待检测视频与所有簇中心的匹配值,其中,所述簇中心为样本图像;
S07、根据步骤S06的计算结果,将待检测视频图像人体动作判定为得到的匹配值最高的人体动作。
2.根据权利要求1所述的基于SURF兴趣点的行为识别方法,其特征在于,所述步骤S02具体包括步骤:
S21、选定一帧人体动作视频图像;
S22、根据累积统计图像中左上角到图像任意一点的矩形区域内像素值之和来计算积分图像;
S23、构造的若干尺寸逐渐递增的滤波器模拟Hessian矩阵滤波器以计算出与积分图像对应的卷积响应图;
S24、根据非极值抑制算法查找兴趣点。
3.根据权利要求1所述的基于SURF兴趣点的行为识别方法,其特征在于,所述步骤S24具体包括步骤:
S241、选定卷积响应图的目标点并构造该目标点的邻域;
S242、判断目标点的响应值与其邻域内所有点的响应值的大小,若目标点的响应值大于邻域内所有点的响应值,则判定该目标点为兴趣点,若否,则继续对下一目标点进行判断。
4.根据权利要求1所述的基于SURF兴趣点的行为识别方法,其特征在于,所述步骤S03中的去噪音处理具体包括步骤:
S31、提取出当前帧人体动作视频图像与前一帧人体动作视频图像的兴趣点,构造兴趣点集;
S32、对当前帧所有兴趣点与前一帧的对应兴趣点进行匹配,若当前帧的兴趣点和前一帧中对应的兴趣点的最小距离或第二小距离小于设定阀值,则判定兴趣点匹配成功,若否则判定该兴趣点为噪音点并去除。
5.根据权利要求4所述的基于SURF兴趣点的行为识别方法,其特征在于,所述步骤S03中的离群处理具体包括步骤:
S33、选择一去噪音后的兴趣点作为目标点,该目标点向设定距离阈值内的所有兴趣点进行一次传播;
S34、依次以传播到的兴趣点为新的目标点,并对距离阈值尚未传播到的兴趣点进行传播,直至目标点的距离阈值内无兴趣点停止传播;
S35、判断目标点传播到的兴趣点的数量与预设点数量阈值的大小,若目标点传播到的兴趣点的数量大小预设点数量阈值,则判定兴趣点匹配成功,若否则判定该兴趣点为离群点并去除。
6.根据权利要求1所述的基于SURF兴趣点的行为识别方法,其特征在于,所述步骤S05中的目标特征包括运动轨迹点集的长宽比、运动轨迹点集与目标区域的高度比、运动轨迹点集与目标区域的宽度比、运动轨迹点集的密度、运动轨迹点集的扩张速度、运动轨迹点集与目标的重合面积、运动轨迹点集与目标区域几何中心的平均竖直距离以及运动轨迹点集与目标区域几何中心的平均水平距离,其中,所述目标区域为当前帧人体位置。
7.根据权利要求6所述的基于SURF兴趣点的行为识别方法,其特征在于,所述步骤S05中提取目标特征后还包括提取目标区域的长宽比和目标区域中人体的填充率,通过对目标特征以及目标区域的长宽比和目标区域中人体的填充率量化得到特征向量的步骤。
8.一种基于SURF兴趣点的行为识别装置,其特征在于,包括顺次电连接的图像采集模块、兴趣点检测模块、预处理模块、点集构造模块、量化模块、计算模块以及识别模块;
所述图像采集模块,用于采集多帧连续的人体动作视频图像;
所述兴趣点检测集模块,用于根据SURF算法检测每帧图像中与人体动作相关的兴趣点;
所述预处理模块,用于预处理兴趣点,包括对兴趣点进行去噪音处理以及去离群处理;
所述点集构造模块,用于累积多帧图像中所有兴趣点并构造表征人体动作的运动轨迹的点集;
所述量化模块,用于从人体动作的运动轨迹的点集中提取目标特征并量化得到特征向量;
所述计算模块,用于计算待检测视频的运动轨迹点集的特征向量与所有簇中心的欧式距离,得到待检测视频与所有簇中心的匹配值,其中,所述簇中心为所有标准人体行为;
所述识别模块,用于根据计算模块的计算结果,将待检测视频图像人体动作判定为得到的匹配值最高的人体动作。
CN201410220401.8A 2014-05-22 2014-05-22 基于surf兴趣点的行为识别方法及装置 Active CN103955682B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410220401.8A CN103955682B (zh) 2014-05-22 2014-05-22 基于surf兴趣点的行为识别方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410220401.8A CN103955682B (zh) 2014-05-22 2014-05-22 基于surf兴趣点的行为识别方法及装置

Publications (2)

Publication Number Publication Date
CN103955682A true CN103955682A (zh) 2014-07-30
CN103955682B CN103955682B (zh) 2018-01-26

Family

ID=51332957

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410220401.8A Active CN103955682B (zh) 2014-05-22 2014-05-22 基于surf兴趣点的行为识别方法及装置

Country Status (1)

Country Link
CN (1) CN103955682B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105930767A (zh) * 2016-04-06 2016-09-07 南京华捷艾米软件科技有限公司 一种基于人体骨架的动作识别方法
CN106384093A (zh) * 2016-09-13 2017-02-08 东北电力大学 一种基于降噪自动编码器和粒子滤波的人体动作识别方法
CN107113561A (zh) * 2014-12-30 2017-08-29 意大利电信股份公司 用于估计人群中的人数的方法和系统
CN107256386A (zh) * 2017-05-23 2017-10-17 东南大学 基于深度学习的人类行为分析方法
CN108537196A (zh) * 2018-04-17 2018-09-14 中国民航大学 基于运动历史点云生成的时空分布图的人体行为识别方法
CN108596947A (zh) * 2018-03-27 2018-09-28 南京邮电大学 一种适用于rgb-d相机的快速目标跟踪方法
CN110119707A (zh) * 2019-05-10 2019-08-13 苏州大学 一种人体动作识别方法
CN110852182A (zh) * 2019-10-21 2020-02-28 华中科技大学 一种基于三维空间时序建模的深度视频人体行为识别方法
CN113792670A (zh) * 2021-09-16 2021-12-14 中国电子科技集团公司第五十四研究所 一种自适应重构的高精度机载目标识别方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102609958A (zh) * 2012-01-19 2012-07-25 北京三星通信技术研究有限公司 视频对象提取的方法及设备
US20120322938A1 (en) * 2011-06-15 2012-12-20 Ling Tan Composition Of Secondary Amine Adducts, Amine Diluents and Polyisocyanates
CN102945554A (zh) * 2012-10-25 2013-02-27 西安电子科技大学 基于学习和加速鲁棒surf特征的目标跟踪方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120322938A1 (en) * 2011-06-15 2012-12-20 Ling Tan Composition Of Secondary Amine Adducts, Amine Diluents and Polyisocyanates
CN102609958A (zh) * 2012-01-19 2012-07-25 北京三星通信技术研究有限公司 视频对象提取的方法及设备
CN102945554A (zh) * 2012-10-25 2013-02-27 西安电子科技大学 基于学习和加速鲁棒surf特征的目标跟踪方法

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107113561A (zh) * 2014-12-30 2017-08-29 意大利电信股份公司 用于估计人群中的人数的方法和系统
CN107113561B (zh) * 2014-12-30 2020-04-21 意大利电信股份公司 用于估计人群中的人数的方法和系统
CN105930767B (zh) * 2016-04-06 2019-05-17 南京华捷艾米软件科技有限公司 一种基于人体骨架的动作识别方法
CN105930767A (zh) * 2016-04-06 2016-09-07 南京华捷艾米软件科技有限公司 一种基于人体骨架的动作识别方法
CN106384093A (zh) * 2016-09-13 2017-02-08 东北电力大学 一种基于降噪自动编码器和粒子滤波的人体动作识别方法
CN106384093B (zh) * 2016-09-13 2018-01-02 东北电力大学 一种基于降噪自动编码器和粒子滤波的人体动作识别方法
CN107256386A (zh) * 2017-05-23 2017-10-17 东南大学 基于深度学习的人类行为分析方法
CN108596947B (zh) * 2018-03-27 2021-09-17 南京邮电大学 一种适用于rgb-d相机的快速目标跟踪方法
CN108596947A (zh) * 2018-03-27 2018-09-28 南京邮电大学 一种适用于rgb-d相机的快速目标跟踪方法
CN108537196B (zh) * 2018-04-17 2021-08-31 中国民航大学 基于运动历史点云生成的时空分布图的人体行为识别方法
CN108537196A (zh) * 2018-04-17 2018-09-14 中国民航大学 基于运动历史点云生成的时空分布图的人体行为识别方法
CN110119707A (zh) * 2019-05-10 2019-08-13 苏州大学 一种人体动作识别方法
CN110852182A (zh) * 2019-10-21 2020-02-28 华中科技大学 一种基于三维空间时序建模的深度视频人体行为识别方法
CN110852182B (zh) * 2019-10-21 2022-09-20 华中科技大学 一种基于三维空间时序建模的深度视频人体行为识别方法
CN113792670A (zh) * 2021-09-16 2021-12-14 中国电子科技集团公司第五十四研究所 一种自适应重构的高精度机载目标识别方法
CN113792670B (zh) * 2021-09-16 2023-03-10 中国电子科技集团公司第五十四研究所 一种自适应重构的高精度机载目标识别方法

Also Published As

Publication number Publication date
CN103955682B (zh) 2018-01-26

Similar Documents

Publication Publication Date Title
US11830230B2 (en) Living body detection method based on facial recognition, and electronic device and storage medium
CN103955682A (zh) 基于surf兴趣点的行为识别方法及装置
CN110427905B (zh) 行人跟踪方法、装置以及终端
Chen et al. Semantic image segmentation with task-specific edge detection using cnns and a discriminatively trained domain transform
US8345984B2 (en) 3D convolutional neural networks for automatic human action recognition
CN110728209A (zh) 一种姿态识别方法、装置、电子设备及存储介质
CN101470809B (zh) 一种基于扩展混合高斯模型的运动目标检测方法
CN109614922A (zh) 一种动静态手势识别方法和系统
CN110097050B (zh) 行人检测方法、装置、计算机设备及存储介质
US10102635B2 (en) Method for moving object detection by a Kalman filter-based approach
CN110390308B (zh) 一种基于时空对抗生成网络的视频行为识别方法
CN111144284B (zh) 深度人脸图像的生成方法、装置、电子设备及介质
EP3054421B1 (en) Method of fast and robust camera location ordering
CN111723773A (zh) 遗留物检测方法、装置、电子设备及可读存储介质
CN106529441B (zh) 基于模糊边界分片的深度动作图人体行为识别方法
CN112084952B (zh) 一种基于自监督训练的视频点位跟踪方法
CN114266894A (zh) 一种图像分割方法、装置、电子设备及存储介质
CN112396036A (zh) 一种结合空间变换网络和多尺度特征提取的遮挡行人重识别方法
CN110852241B (zh) 一种应用于护理机器人的小目标检测方法
CN104408444A (zh) 人体动作识别方法和装置
CN109299743B (zh) 手势识别方法及装置、终端
CN110555406A (zh) 一种基于Haar-like特征及CNN匹配的视频运动目标识别方法
CN116012875A (zh) 一种人体姿态估计方法及相关装置
CN105335717A (zh) 基于智能移动终端视频抖动分析的人脸识别系统
CN111062311B (zh) 一种基于深度级可分离卷积网络的行人手势识别与交互方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant