CN109858406A - 一种基于关节点信息的关键帧提取方法 - Google Patents
一种基于关节点信息的关键帧提取方法 Download PDFInfo
- Publication number
- CN109858406A CN109858406A CN201910043665.3A CN201910043665A CN109858406A CN 109858406 A CN109858406 A CN 109858406A CN 201910043665 A CN201910043665 A CN 201910043665A CN 109858406 A CN109858406 A CN 109858406A
- Authority
- CN
- China
- Prior art keywords
- frame
- artis
- video
- key frame
- cluster centre
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
一种基于关节点信息的关键帧提取方法,首先,通过openpose人体姿态提取库提取视频中人体的关节点特征向量x(i),形成序列S={x(1),x(2),...,x(N)};其次,依次使用K‑means++算法和K‑means算法,得到最终的K个聚类中心C′={C′i|i=1,2,…,K},提取距离每个聚类中心最近的帧作为视频的关键帧,得到关键帧序列F={Fi|i=1,2,…,K},其中,通过基于关节点贡献度加权欧式距离公式来计算序列S中的特征向量与当前聚类中心的距离来判断其帧间相似性;最后,将关键帧预处理预处理之后输入到时空图卷积网络中进行行为识别,在该过程中能够很好地避免冗余帧带来的时间的消耗和准确率下降等影响,本发明简单易行,效果优良。
Description
技术领域
本发明属于计算机图形学和人机交互技术领域,具体涉及一种基于关节点信息的关键帧提取方法。
背景技术
随着互联网的迅速发展和普及,许多热门的研究领域兴起,如人工智能、机器学习、计算机视觉等。计算机视觉作为当前计算机科学领域的一个重要分支,其研究目的是为了让机器能够像人一样感知世界,并理解世界。其中基于视频的人体行为识别在各个方面有着广泛的应用,如视频监控,视频分析,人机交互等方面都有着很好的应用前景。但是视频中往往包含了大量的冗余信息,如何从视频中提取出能够包含视频运动信息的关键帧,去除冗余信息,并通过关键帧来处理视频,进而达到提高视频处理速度的效果,是近几年来研究人员一直致力研究的方面。
关键帧提取技术在视频分析中有着举足轻重的作用,在实际应用在,关键帧的提取技术可以分为4类,(1)基于运动分析的关键帧提取技术,该方法一般是基于光流运算的,通过分析和计算光流得到视频序列的运动量,然后比较运动量选取局部最小值出的帧为关键帧;(2)基于镜头边界的关键帧提取技术,该方法首先将视频分割为若干个镜头,然后在每个镜头内不分别提取第一帧、中间帧、最后一帧作为关键帧;(3)基于视觉内容的关键帧提取技术,该方法根据每一帧图像的形状、纹理、颜色等视频信息的改变来提取关键帧;当这些特征有显著变化时,当前帧可作为关键帧;(4)基于视频聚类的关键帧提取技术,该方法研究图像帧之间的关系,通过距离将内容相近的图像帧进行聚类,最后得到的聚类中心则为关键帧。在大量的文献阅读中发现,现有的关键帧提取方法中,使用到的特征多为图像外观特征,例如光流信息、运动信息、颜色形状等。在以人物运动为主的视频中,这些特征容易受到背景光照的影响,导致关键帧提取的过程中噪声过大,影响最后的提取结果。
人体行为识别是计算机视觉领域的一个重要的课题。其在行为检测、视频监控等领域都有着广泛的应用价值。与单纯的图片识别不同,人体行为识别会受到诸多因素的干扰,例如光照、背景等。传统方法中,通常通过手动设计某些特定的特征,对数据集中特定的动作
进行识别,近些年,随着人工智能技术的崛起,深度学习模型也被应用到了人体行为识别任务中去。利用深度学习模型去自动提取特征,良好地避免了人工设计特征过程中的盲目性和差异性,但是,基于深度学习的人体行为识别方法受到视频长度的限制,无法正确地对长视频进行分析。
发明内容
为了克服上述现的不足,本发明的目的是提供一种基于关节点信息的关键帧提取方法,在定义了一种新的人体运动视频帧间距离度量模型的基础上,在卡耐基梅隆大学提供的openpose人体姿态库的基础上实现了本文提出的关键帧提取算法,该方法相比基于视频图像帧外观特征的关键帧提取方法而言,将注意力集中于人体运动时的关节点坐标位置的变化。忽略环境光照带来的影响,通过对视频序列中人体关节点坐标进行聚类从而实现关键帧的提取,具有较高的运行效率。
为了实现上述目的,本发明采用的技术方案是:
一种基于关节点信息的关键帧提取方法,包括以下步骤:
1)通过开源的openpose人体姿态库提取视频中人体的关节点信息,每个人体包含18个关节点的二维坐标信息,并将每一帧中的关节点坐标和位置序列定义为特征向量x(i);
2)根据关节点的坐标距离来进行帧间聚类分析,提取视频中关键帧;假如视频序列为S={x(1),x(2),...,x(N)},N为视频序列总帧数,i为视频中的第i帧,x(i)为序列中的第i帧的18个关节点二维坐标位置向量,x(i)为36维向量,对视频序列S进行K簇聚类,获取关键帧包括以下步骤:
①从S选择第一帧x(1)作为初始聚类中心C1;
②计算每一帧的特征向量与当前已有聚类中心之间的帧间距离,用T_Dis表示,接着计算每个样本被选为下一个聚类中心的概率,选择概率最大的帧作为下一个聚类中心;
③重复步骤②直到利用k-means++算法在序列S中得到K个初始聚类中心,其聚类中心表示为C={Ci|i=1,2,...,K};
④针对S中的每一个特征向量x(i),计算他到每个聚类中心的距离并将其分到距离最近的聚类中心所对应的类中;
⑤针对每个类别Ci,重新计算它的聚类中心
⑥在K-means++聚类结果的基础上,基于帧间距离,使用K-means算法逐步优化聚类中心,重复步骤④和步骤⑤直到聚类中心收敛,最终得到聚类中心C′={C′i|i=1,2,...,K};
⑦提取每个聚类中心距离最近的帧作为视频关键帧,并得到关键帧序列F={Fi|i=1,2,...,K};
3)对关键帧进行预处理之后,输入到时空图卷积网络中进行行为识别,其流程如下:
①对关键帧的关节点坐标进行归一化;
②根据节点矩阵V和关节点链接E构建关键帧的时空图G=(V,E)。V={vk|k=1,2,...,K,i=1,2,...,T},其中T为关键帧数量,T为关节点数;关节点链接E主要包括帧内不同关节点链接ES={vkivkj}和帧间相同关节点链接EF={vkiv(k+1)i},其中i和j是链接的两个关节点序号,k和k+1是相邻的两个关键帧;
③将时空图进行多层时空图卷积操作,逐步生成更高级的特征图,并利用标准的Softmax分类器进行行为分类。
4)最终得到基于关键帧的行为识别结果。
所述的步骤2)中,所述的帧间距离求解算法包括:
1)在人体运动过程中,每个关节点对运动的贡献度与其坐标的离散程度相关,关节点i的贡献度计算公式如下:
其中,为关节点i的方差,为所有关节点坐标的方差之和;
2)特征向量x(m),x(n)基于关节点贡献度的欧式距离可表示为:
3)由于视频具有很强的时间连续性,对于时间间隔较远的相似动作,即使帧间欧式距离很小,也归为一类,考虑到时间影响因子,特征向量x(m),x(n)最终的帧间距离可表示为:
其中,表示x(m),x(n)帧的帧序列号。
本发明的有益效果是:
1)本发明中的关键帧提取方法,关注于人体运动时关节点坐标位置的变化,并且充分考虑到人体在运动过程中不同关节点的贡献度,使得最后提取得到的关键帧能够最大可能地概括视频中的运动信息;
2)本发明主要关注于人体运动的视频,根据关节点坐标距离判断帧间相似性,进而通过聚类算法提取关键帧,该方法不受视频背景和光照的影响,能够很好地避免在下一步的行为识别过程中,冗余帧带来的时间的消耗和准确率下降等影响,本发明简单易行,效果优良。
3)本发明中所用到的聚类方法为K-means++聚类算法和K-means聚类算法,行为识别方法为基于人体关节点信息的时间图卷积神经网络模型;
附图说明
图1本发明实施例提供的基于关节点信息的关键帧提取方法的流程示意图;
图2本发明实施例提供的人体骨架及索引示意图;
图3本发明实施例提供的基于坐标贡献度加权欧式距离的K均值聚类算法提取的视频关键帧的示意图;
图4本发明实施例提供的基于关键帧的行为识别流程图。
具体实施方式
以下结合附图及实施例对本发明进一步叙述,但本发明不局限于以下实施例。
本发明在Ubuntu16.04系统上开发完成,系统中搭载了GeForce显存,并配置了实验过程中所需要的OpenCV3.1.0,python等工具,在本地搭建了openpose姿态提取库。
本发明的一种基于关节点信息的关键帧提取方法,如图1所示,包括如下步骤:
(1)将视频输入到openpose姿态提取库中提取视频中人体的关节点信息,每个人体包含18个关节点的二维坐标信息,人体骨架表示及索引如图2所示,并将每一帧的关节点坐标和位置序列定义为特征向量x(i),表示为:
J={(xi,yi)|i=0,1,...,17}
其中xi,yi表示关节点i处的横纵坐标。
假如视频序列为S={x(1),x(2),...,x(N)},N为视频序列总帧数,i为视频中的第i帧,x(i)为序列中的第i帧的18个关节点二维坐标位置向量,x(i)为36维向量。
(2)基于帧间距离,使用K-means++算法在序列S中选择K个初始聚类中心,记为C={Ci|i=1,2,...,K}。
(3)在K-means++聚类结果的基础上,基于帧间式距离,使用K-means算法逐步优化聚类中心;直到函数收敛。最终得到聚类中心C′={C′i|i=1,2,...,K}。
关键帧提取算法流程如下:
step1:从序列S中选择第一个样本作为初始聚类中心C1。
step2:帧间聚类公式计算每个样本与当前已有聚类中心之间的最短距离,接着计算每个样本被选为下一个聚类中心的概率,选择概率最大的样本为下一个聚类中心;
step4:针对序列S的每个样本x(i),通过计算其与当前聚类中心的帧间距离,将其划分到距离最近的聚类中心所对应的类中;
step5:针对每个聚类i,重新计算它的聚类中心;
step6:重复step4和step5直到所有的聚类中心收敛,得到最终的聚类中心C′={C′i|i=1,2,...,K}。
step7:提取每个聚类中心距离最近的帧作为视频关键帧,并得到关键帧序列F={Fi|i=1,2,...,K};
上述过程中,通过计算两帧中人体关节点的距离来度量其相似性,由于在视频人体运动的过程中,每个关节点对运动的贡献度与其坐标的离散程度相关,因此,本发明中坐标i的贡献度计算公式如下:
其中表示关节点i的方差,wi表示其权值,故特征向量x(m),x(n)基于关节点贡献度的欧式距离可表示为:
由于视频具有很强的时间连续性,对于时间间隔较远的相似动作,即使帧间欧式距离很小,也不能将其归为一类。考虑到时间影响因子,特征向量x(m),x(n)最终的帧间距离可表示为:
其中表示x(m),x(n)帧的帧序列号。
在实施过程中,按照上述步骤,实验使用UCF101数据集,表1列出了不同动作类的总帧数、关键帧数、压缩比,以及查准率和查全率。图3是对一个具有219帧打太极动作提取关键帧之后动作序列。
表1
(5)将关键帧输入到时空图卷积神经网络中,进行人体行为识别,通过准确率和运行时间两方面来评估基于关键帧行为识别方法的有效性,流程如图4所示。
其行为识别算法流程如下:
step1:对关键帧的关节点坐标进行归一化;
step2:根据节点矩阵V和关节点链接E构建关键帧的时空图G=(V,E)。V={vki|k=1,2,...,K,i=1,2,...,T},其中K为关键帧数量,T为关节点数;关节点链接E主要包括帧内不同关节点链接ES={vkivkj}和帧间相同关节点链接EF={vkiv(k+1)i},其中i和j是链接的两个关节点序号,k和k+1是相邻的两个关键帧。
step3:将时空图进行多层时空图卷积操作,逐步生成更高级的特征图,并利用标准的Softmax分类器进行行为分类。
step4:最终得到基于关键帧的行为识别结果。
表2列出了部分运动类型原始视频和提取关键帧之后的视频进行行为识别时所消耗的时间。
表2
Claims (2)
1.一种基于关节点信息的关键帧提取方法,其特征在于,包括以下步骤:
1)通过开源的openpose人体姿态库提取视频中人体的关节点信息,每个人体包含18个关节点的二维坐标信息,并将每一帧中的关节点坐标和位置序列定义为特征向量x(i);
2)根据关节点的坐标距离来进行帧间聚类分析,提取视频中关键帧;假如视频序列为S={x(1),x(2),...,x(N)},N为视频序列总帧数,i为视频中的第i帧,x(i)为序列中的第i帧的18个关节点二维坐标位置向量,x(i)为36维向量,对视频序列S进行K簇聚类,获取关键帧包括以下步骤:
①从S选择第一帧x(1)作为初始聚类中心C1;
②计算每一帧的特征向量与当前已有聚类中心之间的帧间距离,用T_Dis表示,接着计算每个样本被选为下一个聚类中心的概率,选择概率最大的帧作为下一个聚类中心;
③重复步骤②直到利用k-means++算法在序列S中得到K个初始聚类中心,其聚类中心表示为C={Ci|i=1,2,...,K};;
④针对S中的每一个特征向量x(i),计算他到每个聚类中心的距离并将其分到距离最近的聚类中心所对应的类中;
⑤针对每个类别Ci,重新计算它的聚类中心
⑥在K-means++聚类结果的基础上,基于帧间距离,使用K-means算法逐步优化聚类中心,重复步骤④和步骤⑤直到聚类中心收敛,最终得到聚类中心C′={C′i|i=1,2,...,K};
⑦提取每个聚类中心距离最近的帧作为视频关键帧,并得到关键帧序列F={Fi|i=1,2,...,K};
3)对关键帧进行预处理之后,输入到时空图卷积网络中进行行为识别,其流程如下:
①对关键帧的关节点坐标进行归一化;
②根据节点矩阵V和关节点链接E构建关键帧的时空图G=(V,E)。V={vki|=1,2,...,K,i=1,2,...,T},其中T为关键帧数量,T为关节点数;关节点链接E主要包括帧内不同关节点链接Es={vkivkj}和帧间相同关节点链接EF={vkiv(k+1)i},其中i和j是链接的两个关节点序号,k和k+1是相邻的两个关键帧;
③将时空图进行多层时空图卷积操作,逐步生成更高级的特征图,并利用标准的Softmax分类器进行行为分类。
4)最终得到基于关键帧的行为识别结果。
2.根据权利要求1所述的一种基于关节点信息的关键帧提取方法,其特征在于,所述的步骤2)中,所述的帧间距离求解算法包括:
1)在人体运动过程中,每个关节点对运动的贡献度与其坐标的离散程度相关,关节点i的贡献度计算公式如下:
其中,为关节点i的方差,为所有关节点坐标的方差之和;
2)特征向量x(m),x(n)基于关节点贡献度的欧式距离可表示为:
3)由于视频具有很强的时间连续性,对于时间间隔较远的相似动作,即使帧间欧式距离很小,也归为一类,考虑到时间影响因子,特征向量x(m),x(n)最终的帧间距离可表示为:
其中,表示x(m),x(n)帧的帧序列号。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910043665.3A CN109858406B (zh) | 2019-01-17 | 2019-01-17 | 一种基于关节点信息的关键帧提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910043665.3A CN109858406B (zh) | 2019-01-17 | 2019-01-17 | 一种基于关节点信息的关键帧提取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109858406A true CN109858406A (zh) | 2019-06-07 |
CN109858406B CN109858406B (zh) | 2023-04-07 |
Family
ID=66895010
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910043665.3A Active CN109858406B (zh) | 2019-01-17 | 2019-01-17 | 一种基于关节点信息的关键帧提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109858406B (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110215216A (zh) * | 2019-06-11 | 2019-09-10 | 中国科学院自动化研究所 | 基于骨骼关节点分区域分层次的行为识别方法、系统 |
CN110309732A (zh) * | 2019-06-13 | 2019-10-08 | 浙江大学 | 基于骨架视频的行为识别方法 |
CN110717384A (zh) * | 2019-08-30 | 2020-01-21 | 深圳大学 | 一种视频交互式行为识别方法及装置 |
CN110728183A (zh) * | 2019-09-09 | 2020-01-24 | 天津大学 | 一种基于注意力机制的神经网络的人体动作识别方法 |
CN110769259A (zh) * | 2019-11-05 | 2020-02-07 | 智慧视通(杭州)科技发展有限公司 | 一种视频目标跟踪轨迹内容的图像数据压缩方法 |
CN111346358A (zh) * | 2020-03-11 | 2020-06-30 | 嘉兴技师学院 | 基于卷积神经网络的游泳训练评估系统和方法 |
CN111414868A (zh) * | 2020-03-24 | 2020-07-14 | 北京旷视科技有限公司 | 时序动作片段的确定方法、动作检测方法及装置 |
CN112200030A (zh) * | 2020-09-27 | 2021-01-08 | 武汉大学 | 基于图卷积的电力系统现场作业动作风险识别方法 |
CN112686153A (zh) * | 2020-12-30 | 2021-04-20 | 西安邮电大学 | 一种用于人体行为识别的三维骨架关键帧选择方法 |
CN113033495A (zh) * | 2021-04-30 | 2021-06-25 | 重庆大学 | 一种基于k-means算法的弱监督行为识别方法 |
CN113505680A (zh) * | 2021-07-02 | 2021-10-15 | 兰州理工大学 | 基于内容的高时长复杂场景视频不良内容检测方法 |
CN113591587A (zh) * | 2021-07-02 | 2021-11-02 | 四川大学 | 一种运动视频的内容关键帧提取方法 |
WO2023024438A1 (zh) * | 2021-08-24 | 2023-03-02 | 上海商汤智能科技有限公司 | 一种行为识别方法及装置、电子设备和存储介质 |
CN117292709A (zh) * | 2023-11-23 | 2023-12-26 | 中瑞恒(北京)科技有限公司 | 一种暖通机房异常音频识别方法及装置 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0876992A1 (en) * | 1997-04-28 | 1998-11-11 | Ramon Brucart Puig | Manually operated corkscrew with ratchet |
US20060274947A1 (en) * | 2005-03-17 | 2006-12-07 | Kikuo Fujimura | Pose estimation based on critical point analysis |
CN102682302A (zh) * | 2012-03-12 | 2012-09-19 | 浙江工业大学 | 一种基于关键帧的多特征融合的人体姿态识别方法 |
CN103970883A (zh) * | 2014-05-20 | 2014-08-06 | 西安工业大学 | 基于对齐聚类分析的运动序列检索方法 |
CN105184096A (zh) * | 2015-09-25 | 2015-12-23 | 河海大学 | 一种虚拟人运动位姿的计算方法 |
CN105912985A (zh) * | 2016-04-01 | 2016-08-31 | 上海理工大学 | 基于能量函数的人体骨架关节点的行为动作表示方法 |
CN107169988A (zh) * | 2017-05-12 | 2017-09-15 | 江苏大学 | 一种基于余弦距离层次聚类的关键帧提取方法 |
CN108108699A (zh) * | 2017-12-25 | 2018-06-01 | 重庆邮电大学 | 融合深度神经网络模型和二进制哈希的人体动作识别方法 |
CN108520250A (zh) * | 2018-04-19 | 2018-09-11 | 北京工业大学 | 一种人体运动序列关键帧提取方法 |
CN108615241A (zh) * | 2018-04-28 | 2018-10-02 | 四川大学 | 一种基于光流的快速人体姿态估计方法 |
CN109086706A (zh) * | 2018-07-24 | 2018-12-25 | 西北工业大学 | 应用于人机协作中的基于分割人体模型的动作识别方法 |
CN109101864A (zh) * | 2018-04-18 | 2018-12-28 | 长春理工大学 | 基于关键帧和随机森林回归的人体上半身动作识别方法 |
-
2019
- 2019-01-17 CN CN201910043665.3A patent/CN109858406B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0876992A1 (en) * | 1997-04-28 | 1998-11-11 | Ramon Brucart Puig | Manually operated corkscrew with ratchet |
US20060274947A1 (en) * | 2005-03-17 | 2006-12-07 | Kikuo Fujimura | Pose estimation based on critical point analysis |
CN102682302A (zh) * | 2012-03-12 | 2012-09-19 | 浙江工业大学 | 一种基于关键帧的多特征融合的人体姿态识别方法 |
CN103970883A (zh) * | 2014-05-20 | 2014-08-06 | 西安工业大学 | 基于对齐聚类分析的运动序列检索方法 |
CN105184096A (zh) * | 2015-09-25 | 2015-12-23 | 河海大学 | 一种虚拟人运动位姿的计算方法 |
CN105912985A (zh) * | 2016-04-01 | 2016-08-31 | 上海理工大学 | 基于能量函数的人体骨架关节点的行为动作表示方法 |
CN107169988A (zh) * | 2017-05-12 | 2017-09-15 | 江苏大学 | 一种基于余弦距离层次聚类的关键帧提取方法 |
CN108108699A (zh) * | 2017-12-25 | 2018-06-01 | 重庆邮电大学 | 融合深度神经网络模型和二进制哈希的人体动作识别方法 |
CN109101864A (zh) * | 2018-04-18 | 2018-12-28 | 长春理工大学 | 基于关键帧和随机森林回归的人体上半身动作识别方法 |
CN108520250A (zh) * | 2018-04-19 | 2018-09-11 | 北京工业大学 | 一种人体运动序列关键帧提取方法 |
CN108615241A (zh) * | 2018-04-28 | 2018-10-02 | 四川大学 | 一种基于光流的快速人体姿态估计方法 |
CN109086706A (zh) * | 2018-07-24 | 2018-12-25 | 西北工业大学 | 应用于人机协作中的基于分割人体模型的动作识别方法 |
Non-Patent Citations (2)
Title |
---|
H. ZHAO等: "Joint Tracking and Classification of Moving Objects at Intersection Using a Single-Row Laser Range Scanner", 《IEEE》 * |
杨赛烽等: "基于三维骨骼节点的人体行为识别方法", 《传感技术学报》 * |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110215216A (zh) * | 2019-06-11 | 2019-09-10 | 中国科学院自动化研究所 | 基于骨骼关节点分区域分层次的行为识别方法、系统 |
CN110215216B (zh) * | 2019-06-11 | 2020-08-25 | 中国科学院自动化研究所 | 基于骨骼关节点分区域分层次的行为识别方法、系统 |
CN110309732A (zh) * | 2019-06-13 | 2019-10-08 | 浙江大学 | 基于骨架视频的行为识别方法 |
CN110717384A (zh) * | 2019-08-30 | 2020-01-21 | 深圳大学 | 一种视频交互式行为识别方法及装置 |
CN110728183A (zh) * | 2019-09-09 | 2020-01-24 | 天津大学 | 一种基于注意力机制的神经网络的人体动作识别方法 |
CN110728183B (zh) * | 2019-09-09 | 2023-09-22 | 天津大学 | 一种基于注意力机制的神经网络的人体动作识别方法 |
CN110769259A (zh) * | 2019-11-05 | 2020-02-07 | 智慧视通(杭州)科技发展有限公司 | 一种视频目标跟踪轨迹内容的图像数据压缩方法 |
CN111346358A (zh) * | 2020-03-11 | 2020-06-30 | 嘉兴技师学院 | 基于卷积神经网络的游泳训练评估系统和方法 |
CN111346358B (zh) * | 2020-03-11 | 2024-04-09 | 嘉兴技师学院 | 基于卷积神经网络的游泳训练评估系统和方法 |
CN111414868A (zh) * | 2020-03-24 | 2020-07-14 | 北京旷视科技有限公司 | 时序动作片段的确定方法、动作检测方法及装置 |
CN111414868B (zh) * | 2020-03-24 | 2023-05-16 | 北京旷视科技有限公司 | 时序动作片段的确定方法、动作检测方法及装置 |
CN112200030A (zh) * | 2020-09-27 | 2021-01-08 | 武汉大学 | 基于图卷积的电力系统现场作业动作风险识别方法 |
CN112686153B (zh) * | 2020-12-30 | 2023-04-18 | 西安邮电大学 | 一种用于人体行为识别的三维骨架关键帧选择方法 |
CN112686153A (zh) * | 2020-12-30 | 2021-04-20 | 西安邮电大学 | 一种用于人体行为识别的三维骨架关键帧选择方法 |
CN113033495B (zh) * | 2021-04-30 | 2022-08-02 | 重庆大学 | 一种基于k-means算法的弱监督行为识别方法 |
CN113033495A (zh) * | 2021-04-30 | 2021-06-25 | 重庆大学 | 一种基于k-means算法的弱监督行为识别方法 |
CN113591587A (zh) * | 2021-07-02 | 2021-11-02 | 四川大学 | 一种运动视频的内容关键帧提取方法 |
CN113505680A (zh) * | 2021-07-02 | 2021-10-15 | 兰州理工大学 | 基于内容的高时长复杂场景视频不良内容检测方法 |
WO2023024438A1 (zh) * | 2021-08-24 | 2023-03-02 | 上海商汤智能科技有限公司 | 一种行为识别方法及装置、电子设备和存储介质 |
CN117292709A (zh) * | 2023-11-23 | 2023-12-26 | 中瑞恒(北京)科技有限公司 | 一种暖通机房异常音频识别方法及装置 |
CN117292709B (zh) * | 2023-11-23 | 2024-02-09 | 中瑞恒(北京)科技有限公司 | 一种暖通机房异常音频识别方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN109858406B (zh) | 2023-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109858406A (zh) | 一种基于关节点信息的关键帧提取方法 | |
Shen et al. | Visual object tracking by hierarchical attention siamese network | |
Song et al. | Pyramid dilated deeper convlstm for video salient object detection | |
Dai et al. | Human action recognition using two-stream attention based LSTM networks | |
Zhang et al. | Fusing geometric features for skeleton-based action recognition using multilayer LSTM networks | |
Huang et al. | Video-based sign language recognition without temporal segmentation | |
CN107679491B (zh) | 一种融合多模态数据的3d卷积神经网络手语识别方法 | |
Cihan Camgoz et al. | Subunets: End-to-end hand shape and continuous sign language recognition | |
Wang et al. | Survey on person re‐identification based on deep learning | |
Feng et al. | Triplet distillation for deep face recognition | |
Yue et al. | Action recognition based on RGB and skeleton data sets: A survey | |
Hu et al. | Signbert+: Hand-model-aware self-supervised pre-training for sign language understanding | |
CN112036260A (zh) | 一种自然环境下多尺度子块聚合的表情识别方法及系统 | |
Huang et al. | Spatial–temporal context-aware online action detection and prediction | |
CN112906520A (zh) | 一种基于姿态编码的动作识别方法及装置 | |
CN113807176A (zh) | 一种基于多知识融合的小样本视频行为识别方法 | |
Kim et al. | Self-supervised keypoint detection based on multi-layer random forest regressor | |
Xu et al. | Motion recognition algorithm based on deep edge-aware pyramid pooling network in human–computer interaction | |
Pang et al. | Analysis of computer vision applied in martial arts | |
Zhu et al. | Unsupervised voice-face representation learning by cross-modal prototype contrast | |
Wu et al. | Double constrained bag of words for human action recognition | |
Prakash et al. | Recent advancements in automatic sign language recognition (SLR) | |
Wu et al. | Attention Mechanism Based on Improved Spatial-Temporal Convolutional Neural Networks for Traffic Police Gesture Recognition | |
Liu et al. | 3D action recognition using multi-temporal skeleton visualization | |
Fang et al. | Integrating Gaussian mixture model and dilated residual network for action recognition in videos |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |