CN110096950A - 一种基于关键帧的多特征融合行为识别方法 - Google Patents
一种基于关键帧的多特征融合行为识别方法 Download PDFInfo
- Publication number
- CN110096950A CN110096950A CN201910211467.3A CN201910211467A CN110096950A CN 110096950 A CN110096950 A CN 110096950A CN 201910211467 A CN201910211467 A CN 201910211467A CN 110096950 A CN110096950 A CN 110096950A
- Authority
- CN
- China
- Prior art keywords
- video
- frame
- space
- information
- key frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computational Linguistics (AREA)
- Probability & Statistics with Applications (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
一种基于关键帧的多特征融合行为识别方法,首先,通过openpose人体姿态提取库提取视频中人体的关节点特征向量x(i),形成序列S={x(1),x(2),...,x(N)};其次,使用K‑means算法,得到最终的K个聚类中心c′={c′|i=1,2,...,K},提取距离每个聚类中心最近的帧作为视频的关键帧,得到关键帧序列F={Fi|i=1,2,...,K}。然后获取关键帧的RGB信息,光流信息,骨架信息,经过处理之后输入到双流卷积网络模型中获取RGB信息和光流信息更加高级的特征表达,将骨架信息输入到时空图卷积网络模型中构建出出骨架的时空图表达特征。然后将网络的softmax输出结果进行融合,得到最终的识别结果。该过程能够很好地避免冗余帧带来的时间的消耗和准确率下降等影响,其次,更好地利用视频中信息对行为的表达,使得识别准确率进一步得到提升。
Description
技术领域
本发明属于计算机图形学和人机交互技术领域,尤其涉及一种基于人体运动序列关键帧的多特征融合行为识别方法。
背景技术
视觉是人类活动中信息传递的最重要的媒介,研究发现约80%的信息人类是通过视觉获取得到。近年来,随着计算机技术的发展,特别是互联网的迅速普及,计算机视觉学科已经成为计算机领域最为活跃和热门的学科之一。计算机视觉(Computer Vision)是指用摄像机和电脑模拟人类视觉对目标进行识别、跟踪、测量等的机器视觉,并通过识别和分析做进一步的图形处理。人类行为识别作为计算机视觉的一个新兴研究领域得到了研究者广泛的研究。人类行为识别主要研究包含人体运动的视频序列,采用计算机,图形图像学方法对视频中的特征进行提取,最终正确分析出视频中的人类活动的动作类型或者行为模式。
其中基于视频的人体行为识别在各个方面有着广泛的应用,如视频监控,视频分析,人机交互等方面都有着很好的应用前景。而基于视频的行为识别中输入冗余问题和准确率问题一直是制约行为识别向前发展的重要因素。
人体行为识别的数据主要来自于RGB图像,深度图像和人体的骨架信息,因此,人体行为识别根据这三种不同的数据来源可以分为三种:基于图像RGB信息的行为识别、基于RGB-D信息的行为识别、基于骨架节点信息的行为识别。他们分别利用视频的不同特征对视频进行分析,从而得到视频中的行为。但是随着视频复杂度地不断提升,单一的视频特征已经不能准确地表达出需要地视频信息。并且,随着视频数据量和信息量的不断增加,导致我们在进行行为识别的过程中,由于冗余数据的存在而错过了重要的目标信息,而对庞大的数据量进行逐一检测有悖于视频分析的原则且难以实现。
发明内容
为了克服上述现有技术的不足,本发明的目的是提供一种基于关键帧的多特征融合行为识别方法,提出了基于关键帧的多特征融合行为识别系统。在卡耐基梅隆大学提供的openpose人体姿态库的基础上实现了视频关键帧的提取算法,进而构建多特征融合的行为识别模型。该方法相比基于原始视频的单一特征行为识别方法而言,使用关键帧提取出视频的关键帧一方面能够减少识别时间,另一方面能够提取出视频中的重要信息,使准确率得到提升,并在此基础上融合视频的RGB信息,光流信息,骨架信息,使得对视频的表达更加充分。
为了实现上述目的,本发明采用的技术方案是:
一种基于关键帧的多特征融合行为识别方法,包括以下步骤:
步骤1、提取视频的RGB图像信息,光流信息和骨架关节点信息;
1)通过OpenCV工具将视频进行分帧处理,得到视频的图像帧;
2)通过denseflow提取到视频的光流的灰度图像;
3)通过openpose姿态提取库提取到视频中人物的关节点信息,得到包含18个关节点的坐标位置序列;
步骤2、利用视频的人体骨架关节点信息对视频进行关键帧的提取;
1)假如视频序列为S={x(1),x(2),...,x(N)},N为视频序列总帧数,i为视频中的第i帧,x(i)为序列中的第i帧的18个关节点二维坐标位置向量,x(i)为36维向量,对视频序列S进行K簇聚类,步骤如下:
step1:求出视频序列相邻关键帧的帧间距D={D1,D2,...,DN-1},对帧间距从大到小进行排序,并且根据排序后的帧间距将视频序列分割成K个初始簇类C={Ci|i=1,2,...,K},从每簇中选择一帧作为聚类初始聚类中心c={ci|i=1,2,...,K};
step2:针对S中的每一个特征向量x(i),计算他到每个聚类中心的距离并将其分到距离最近的聚类中心所对应的类中;
step3:针对每个类别Ci,重新计算他的聚类中心
step4:重复step2和step3,使用K-means算法逐步优化聚类中心;直到聚类中心函数收敛,最终得到聚类中心c′={ci′|i=1,2,...,K};
2)提取每个聚类中心距离最近的帧作为视频关键帧,并得到关键帧序列F={Fi|i=1,2,...,K};
步骤3、利用双流卷积网络模型对视频关键帧的RGB图像信息和光流信息特征提取;
步骤4、提取关键帧的骨架关节点信息输入到时空图卷积网络中进行行为识别,利用时空图卷积网络模型构建视频关键帧的骨架时空图,并生成时空图的高级特征图,步骤如下:
1)对关键帧的关节点坐标进行归一化;
2)根据节点矩阵V和关节点E构建关键帧的时空图G=(V,E),V={vki|k=1,2,...,K,i=1,2,...,T},其中K为关键帧数量,T为关节点数;关节点链接E主要包括帧内不同关节点链接ES={vkivkj}和帧间相同关节点链接EF={vkiv(k+1)i},其中i和j是链接的两个关节点序号,k和k+1是相邻的两个关键帧;
3)将时空图进行多层时空图卷积操作,构建出时空图的空间时间邻域信息:
B(vti)={vqj|d(vtj,vti)≤K,|q-t|≤[Γ/2]}
其中B(vti)表示时空图的时空邻域集合,应满足在空间上vtj到vti的的距离小于子集的个数K,在时间上第q帧到第t帧的距离应小于时间内核的大小Γ;
4)通过空间构型划分来获得子集的标签,该构型针对帧体关节点和动作的特性,将节点的1邻域划分为三个子集,第一个为节点本身,第二个子集是空间位置上比本节点更靠近重心的节点集合,第三个子集为比本节点更远离重心节点的节点集合,如下;
其中lti(vtj)表示vti的邻域节点vtj的标签;
5)通过多层卷积操作得到骨架时空图的高级表达;
步骤5、提取关键帧的RGB图像信息,并使用数据增强操作后,输入到在ImageNet上预训练之后的空间卷积网络模型中,以提取出视频帧的RGB图像特征;
步骤6、为了使网络能够接受2L个通道数的堆叠光流,对时间卷积神经网络的第一个卷积层的权值进行通道扩展,使得输入支持更多的通道数,具体步骤如下:
1)将原始模型在第一个卷积层上的卷积核参数沿着通道进行求和操作;
2)得到的参数和除以新的通道数,得到每个通道的平权参数值;
3)沿着光流端输入的通道复制得到的平均参数值,得到光流网络模型中第一个卷积层的权重参数;
步骤7、提取出关键帧附近的L帧光流信息,输入到通道扩展之后的时间卷积网络模型中,以提取出视频的光流特征;
步骤8、将步骤4、步骤5、步骤7中时空图卷积网络模型的softmax输出和双流网络模型的softmax输出使用加权融合方式进行融合得到最终的行为识别结果,融合策略为:
r=αr1+βr2+δr3
其中,r1,r2,r3分别是空间流网络,时间流网络和骨架流网络的softmax层的输出结构,α+β+δ=1。
本发明的有益效果是:
本发明中关键帧提取阶段所用到的聚类方法为K-means聚类算法,行为识别阶段使用到的网络模型是基于人体关节点的时空图卷积网络模型和基于视频RGB信息和图像信息的双流卷积网络识别模型。
本发明主要关注于人体运动的视频,一方面根据人体的关节点进行关键帧提取,该方法能够更加细化人体动作间的细微差异;另一方面通过多特征融合的方式进行行为识别,更高更好地应用视频中的特征信息。该方法能够更加地利用视频中的关键信息进行行为识别,对识别的准确率的提升十分有效。
附图说明
图1为本发明实施例提供的基于关键帧的多特征融合行为识别方法的流程示意图;
图2为本发明实施例提供的人体骨架及索引示意图;
图3为本发明实施提供的双流卷积网络模型结构的示意图;
图4为本发明实施提供的时空图卷积网络模型的结构示意图。
具体实施方式
以下结合实施例和说明书附图对本发明的技术方案做详细的说明,但不限于此。
本发明在Ubuntu16.04系统上开发完成,系统中搭载了GeForce显存,并配置了实验
过程中所需要的OpenCV3.1.0,python等工具,在本地搭建了openpose姿态提取库。
本发明的一种基于关键帧的多特征行为识别方法,如图1所示,包括如下步骤:
步骤1、将视频输入到openpose姿态提取库中提取视频中人体的关节点信息,每个人体包含18个关节点的二维坐标信息,人体骨架表示及索引如图2所示,并将每一帧的关节点坐标和位置序列定义为特征向量x(i),表示为:
J={(xi,yi)|i=0,1,...,17}
其中xi,yi表示关节点i处的横纵坐标。
假如视频序列为S={x(1),x(2),...,x(N)},N为视频序列总帧数,i为视频中的第i帧,x(i)为序列中的第i帧的18个关节点二维坐标位置向量,x(i)为36维向量。
步骤2、基于帧间距离,将视频序列按帧间距由大到小的顺序划分为K簇,记为C={Ci|i=1,2,...,K},并从每一簇中选择出一帧作为初始聚类中心c={ci|i=1,2,...,K}。
步骤3、在此基础上,基于帧间式距离,使用K-means算法逐步优化聚类中心;直到函数收敛。最终得到聚类中心c′={ci′|i=1,2,...,K}。
步骤4、得到视频的关键帧信息后,提取关键帧的RGB图像信息,光流信息和骨架信息。
步骤5、对关键帧的关节点坐标进行归一化;
步骤6、根据节点矩阵V和关节点链接E构建关键帧的时空图G=(V,E),V={vki|k=1,2,...,K,i=1,2,...,T},其中K为关键帧数量,T为关节点数;关节点链接E主要包括帧内不同关节点链接ES={vkivkj}和帧间相同关节点链接EF={vkiv(k+1)i},其中i和j是链接的两个关节点序号,k和k+1是相邻的两个关键帧。
步骤7、将时空图进行多层时空图卷积操作,逐步生成更高级的特征图,并利用标准的Softmax分类器进行行为分类,其网络结构如图3所示。
步骤9、分别使用在ImageNet数据集上进行预训练之后的ResNet152网络模型,对视频关键帧的RGB图像信息和光流信息进行训练。其网络结构如图4所示
步骤9、将三个网络的softmax层的输出进行融合,得到最终的行为分类。
Claims (1)
1.一种基于关键帧的多特征融合行为识别方法,其特征在于,包括以下步骤:
步骤1、提取视频的RGB图像信息,光流信息和骨架关节点信息;
1)通过OpenCV工具将视频进行分帧处理,得到视频的图像帧;
2)通过denseflow提取到视频的光流的灰度图像;
3)通过openpose姿态提取库提取到视频中人物的关节点信息,得到包含18个关节点的坐标位置序列;
步骤2、利用视频的人体骨架关节点信息对视频进行关键帧的提取;
1)假如视频序列为S={x(1),x(2),...,x(N)},N为视频序列总帧数,i为视频中的第i帧,x(i)为序列中的第i帧的18个关节点二维坐标位置向量,x(i)为36维向量,对视频序列S进行K簇聚类,步骤如下:
step1:求出视频序列相邻关键帧的帧间距D={D1,D2,...,DN-1},对帧间距从大到小进行排序,并且根据排序后的帧间距将视频序列分割成K个初始簇类C={Ci|i=1,2,...,K},从每簇中选择一帧作为聚类初始聚类中心c={ci|i=1,2,...,K};
step2:针对S中的每一个特征向量x(i),计算他到每个聚类中心的距离并将其分到距离最近的聚类中心所对应的类中;
step3:针对每个类别Ci,重新计算他的聚类中心
step4:重复step2和step3,使用K-means算法逐步优化聚类中心;直到聚类中心函数收敛,最终得到聚类中心c′={ci′|i=1,2,...,K};
2)提取每个聚类中心距离最近的帧作为视频关键帧,并得到关键帧序列F={Fi|i=1,2,...,K};
步骤3、利用双流卷积网络模型对视频关键帧的RGB图像信息和光流信息特征提取;
步骤4、提取关键帧的骨架关节点信息输入到时空图卷积网络中进行行为识别,利用时空图卷积网络模型构建视频关键帧的骨架时空图,并生成时空图的高级特征图,步骤如下:
1)对关键帧的关节点坐标进行归一化;
2)根据节点矩阵V和关节点E构建关键帧的时空图G=(V,E),V={vki|k=1,2,...,K,i=1,2,...,T},其中K为关键帧数量,T为关节点数;关节点链接E主要包括帧内不同关节点链接ES={vkivkj}和帧间相同关节点链接EF={vkiv(k+1)i},其中i和j是链接的两个关节点序号,k和k+1是相邻的两个关键帧;
3)将时空图进行多层时空图卷积操作,构建出时空图的空间时间邻域信息:
B(vti)={vqj|d(vtj,vti)≤K,|q-t|≤[Γ/2]}
其中B(vti)表示时空图的时空邻域集合,应满足在空间上vtj到vti的的距离小于子集的个数K,在时间上第q帧到第t帧的距离应小于时间内核的大小Γ;
4)通过空间构型划分来获得子集的标签,该构型针对帧体关节点和动作的特性,将节点的1邻域划分为三个子集,第一个为节点本身,第二个子集是空间位置上比本节点更靠近重心的节点集合,第三个子集为比本节点更远离重心节点的节点集合,如下;
其中lti(vtj)表示vti的邻域节点vtj的标签;
5)通过多层卷积操作得到骨架时空图的高级表达;
步骤5、提取关键帧的RGB图像信息,并使用数据增强操作后,输入到在ImageNet上预训练之后的空间卷积网络模型中,以提取出视频帧的RGB图像特征;
步骤6、为了使网络能够接受2L个通道数的堆叠光流,对时间卷积神经网络的第一个卷积层的权值进行通道扩展,使得输入支持更多的通道数,具体步骤如下:
1)将原始模型在第一个卷积层上的卷积核参数沿着通道进行求和操作;
2)得到的参数和除以新的通道数,得到每个通道的平权参数值;
3)沿着光流端输入的通道复制得到的平均参数值,得到光流网络模型中第一个卷积层的权重参数;
步骤7、提取出关键帧附近的L帧光流信息,输入到通道扩展之后的时间卷积网络模型中,以提取出视频的光流特征;
步骤8、将步骤4、步骤5、步骤7中时空图卷积网络模型的softmax输出和双流网络模型的softmax输出使用加权融合方式进行融合得到最终的行为识别结果,融合策略为:
r=αr1+βr2+δr3
其中,r1,r2,r3分别是空间流网络,时间流网络和骨架流网络的softmax层的输出结构,α+β+δ=1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910211467.3A CN110096950B (zh) | 2019-03-20 | 2019-03-20 | 一种基于关键帧的多特征融合行为识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910211467.3A CN110096950B (zh) | 2019-03-20 | 2019-03-20 | 一种基于关键帧的多特征融合行为识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110096950A true CN110096950A (zh) | 2019-08-06 |
CN110096950B CN110096950B (zh) | 2023-04-07 |
Family
ID=67442972
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910211467.3A Active CN110096950B (zh) | 2019-03-20 | 2019-03-20 | 一种基于关键帧的多特征融合行为识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110096950B (zh) |
Cited By (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110472554A (zh) * | 2019-08-12 | 2019-11-19 | 南京邮电大学 | 基于姿态分割和关键点特征的乒乓球动作识别方法及系统 |
CN110633645A (zh) * | 2019-08-19 | 2019-12-31 | 同济大学 | 一种基于增强型三流式架构的视频行为检测方法 |
CN110781843A (zh) * | 2019-10-29 | 2020-02-11 | 首都师范大学 | 课堂行为检测方法及电子设备 |
CN110796058A (zh) * | 2019-10-23 | 2020-02-14 | 深圳龙岗智能视听研究院 | 一种基于关键帧提取和层次性表述的视频行为识别方法 |
CN111008601A (zh) * | 2019-12-06 | 2020-04-14 | 江西洪都航空工业集团有限责任公司 | 一种基于视频的打架斗殴检测方法 |
CN111062900A (zh) * | 2019-11-21 | 2020-04-24 | 西北工业大学 | 一种基于置信度融合的双目视差图增强方法 |
CN111144217A (zh) * | 2019-11-28 | 2020-05-12 | 重庆邮电大学 | 一种基于人体三维关节点检测的动作评价方法 |
CN111160164A (zh) * | 2019-12-18 | 2020-05-15 | 上海交通大学 | 基于人体骨架和图像融合的动作识别方法 |
CN111310668A (zh) * | 2020-02-18 | 2020-06-19 | 大连海事大学 | 一种基于骨架信息的步态识别方法 |
CN111310689A (zh) * | 2020-02-25 | 2020-06-19 | 陕西科技大学 | 潜在信息融合的家庭安防系统中的人体行为识别的方法 |
CN111355928A (zh) * | 2020-02-28 | 2020-06-30 | 济南浪潮高新科技投资发展有限公司 | 一种基于多摄像头内容分析的视频拼接方法及其系统 |
CN111382679A (zh) * | 2020-02-25 | 2020-07-07 | 上海交通大学 | 帕金森病步态运动障碍严重程度的评估方法、系统及设备 |
CN111460960A (zh) * | 2020-03-27 | 2020-07-28 | 重庆电政信息科技有限公司 | 一种运动分类及计数方法 |
CN111539941A (zh) * | 2020-04-27 | 2020-08-14 | 上海交通大学 | 帕金森病腿部灵活性任务评估方法及系统、存储介质及终端 |
CN111784735A (zh) * | 2020-04-15 | 2020-10-16 | 北京京东尚科信息技术有限公司 | 目标跟踪方法、装置和计算机可读存储介质 |
CN111783692A (zh) * | 2020-07-06 | 2020-10-16 | 广东工业大学 | 一种动作识别方法、装置及电子设备和存储介质 |
CN111860417A (zh) * | 2020-07-29 | 2020-10-30 | 山东大学 | 一种人体动作识别方法 |
CN111914643A (zh) * | 2020-06-30 | 2020-11-10 | 西安理工大学 | 一种基于骨骼关键点检测的人体动作识别方法 |
CN112016038A (zh) * | 2020-08-03 | 2020-12-01 | 广西大学 | 一种超超临界燃煤锅炉高温再热器炉外壁温预测方法 |
CN112215160A (zh) * | 2020-10-13 | 2021-01-12 | 厦门大学 | 一种利用长短期信息融合的视频三维人体姿态估计算法 |
CN112396018A (zh) * | 2020-11-27 | 2021-02-23 | 广东工业大学 | 一种结合多模态特征分析与神经网络的羽毛球运动员犯规动作识别方法 |
CN112434608A (zh) * | 2020-11-24 | 2021-03-02 | 山东大学 | 一种基于双流结合网络的人体行为识别方法及系统 |
CN112464808A (zh) * | 2020-11-26 | 2021-03-09 | 成都睿码科技有限责任公司 | 一种基于计算机视觉的跳绳姿态及个数识别方法 |
CN112528823A (zh) * | 2020-12-04 | 2021-03-19 | 燕山大学 | 一种基于关键帧检测和语义部件分割的条斑鲨运动行为分析方法及系统 |
CN112580559A (zh) * | 2020-12-25 | 2021-03-30 | 山东师范大学 | 基于骨架特征和视频表征结合的双流视频行为识别方法 |
CN112651360A (zh) * | 2020-12-31 | 2021-04-13 | 福州大学 | 一种小样本下骨架动作识别方法 |
CN112800892A (zh) * | 2021-01-18 | 2021-05-14 | 南京邮电大学 | 一种基于openpose的人体姿态识别方法 |
CN112805723A (zh) * | 2020-03-06 | 2021-05-14 | 华为技术有限公司 | 一种图像处理系统、方法以及包括该系统的自动驾驶车辆 |
CN112818881A (zh) * | 2021-02-07 | 2021-05-18 | 国网福建省电力有限公司营销服务中心 | 一种人体行为识别方法 |
CN112949560A (zh) * | 2021-03-24 | 2021-06-11 | 四川大学华西医院 | 双通道特征融合下长视频表情区间连续表情变化识别方法 |
CN113033495A (zh) * | 2021-04-30 | 2021-06-25 | 重庆大学 | 一种基于k-means算法的弱监督行为识别方法 |
CN113033458A (zh) * | 2021-04-09 | 2021-06-25 | 京东数字科技控股股份有限公司 | 动作识别方法和装置 |
CN113111760A (zh) * | 2021-04-07 | 2021-07-13 | 同济大学 | 基于通道注意力的轻量化图卷积人体骨架动作识别方法 |
CN113196289A (zh) * | 2020-07-02 | 2021-07-30 | 浙江大学 | 人体动作识别方法、人体动作识别系统及设备 |
CN113298537A (zh) * | 2021-04-30 | 2021-08-24 | 华中农业大学 | 基于物联网的稻米全链条质量信息智能检测系统及方法 |
CN113312966A (zh) * | 2021-04-21 | 2021-08-27 | 广东工业大学 | 一种基于第一人称视角的动作识别方法及装置 |
CN113343764A (zh) * | 2021-05-10 | 2021-09-03 | 武汉理工大学 | 一种基于级联式网络架构的驾驶员分心检测方法及系统 |
CN113343950A (zh) * | 2021-08-04 | 2021-09-03 | 之江实验室 | 一种基于多特征融合的视频行为识别方法 |
CN113435576A (zh) * | 2021-06-24 | 2021-09-24 | 中国人民解放军陆军工程大学 | 一种双速时空图卷积神经网络架构及数据处理方法 |
WO2022028136A1 (zh) * | 2020-08-06 | 2022-02-10 | 上海哔哩哔哩科技有限公司 | 舞蹈视频的动作提取方法、装置、计算机设备及存储介质 |
CN114612810A (zh) * | 2020-11-23 | 2022-06-10 | 山东大卫国际建筑设计有限公司 | 一种动态自适应异常姿态识别方法及装置 |
CN115100725A (zh) * | 2022-08-23 | 2022-09-23 | 浙江大华技术股份有限公司 | 目标识别方法、目标识别装置以及计算机存储介质 |
WO2023061102A1 (zh) * | 2021-10-15 | 2023-04-20 | 腾讯科技(深圳)有限公司 | 视频行为识别方法、装置、计算机设备和存储介质 |
CN116434335A (zh) * | 2023-03-30 | 2023-07-14 | 东莞理工学院 | 动作序列识别和意图推断方法、装置、设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150235377A1 (en) * | 2014-02-20 | 2015-08-20 | Nokia Corporation | Method, apparatus and computer program product for segmentation of objects in media content |
WO2017133009A1 (zh) * | 2016-02-04 | 2017-08-10 | 广州新节奏智能科技有限公司 | 一种基于卷积神经网络的深度图像人体关节定位方法 |
CN108108699A (zh) * | 2017-12-25 | 2018-06-01 | 重庆邮电大学 | 融合深度神经网络模型和二进制哈希的人体动作识别方法 |
CN109101896A (zh) * | 2018-07-19 | 2018-12-28 | 电子科技大学 | 一种基于时空融合特征和注意力机制的视频行为识别方法 |
CN109492581A (zh) * | 2018-11-09 | 2019-03-19 | 中国石油大学(华东) | 一种基于tp-stg框架的人体动作识别方法 |
-
2019
- 2019-03-20 CN CN201910211467.3A patent/CN110096950B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150235377A1 (en) * | 2014-02-20 | 2015-08-20 | Nokia Corporation | Method, apparatus and computer program product for segmentation of objects in media content |
WO2017133009A1 (zh) * | 2016-02-04 | 2017-08-10 | 广州新节奏智能科技有限公司 | 一种基于卷积神经网络的深度图像人体关节定位方法 |
CN108108699A (zh) * | 2017-12-25 | 2018-06-01 | 重庆邮电大学 | 融合深度神经网络模型和二进制哈希的人体动作识别方法 |
CN109101896A (zh) * | 2018-07-19 | 2018-12-28 | 电子科技大学 | 一种基于时空融合特征和注意力机制的视频行为识别方法 |
CN109492581A (zh) * | 2018-11-09 | 2019-03-19 | 中国石油大学(华东) | 一种基于tp-stg框架的人体动作识别方法 |
Non-Patent Citations (2)
Title |
---|
丰艳等: "基于时空注意力深度网络的视角无关性骨架行为识别", 《计算机辅助设计与图形学学报》 * |
赵洪等: "人体运动视频关键帧优化及行为识别", 《图学学报》 * |
Cited By (68)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110472554A (zh) * | 2019-08-12 | 2019-11-19 | 南京邮电大学 | 基于姿态分割和关键点特征的乒乓球动作识别方法及系统 |
CN110472554B (zh) * | 2019-08-12 | 2022-08-30 | 南京邮电大学 | 基于姿态分割和关键点特征的乒乓球动作识别方法及系统 |
CN110633645A (zh) * | 2019-08-19 | 2019-12-31 | 同济大学 | 一种基于增强型三流式架构的视频行为检测方法 |
CN110796058A (zh) * | 2019-10-23 | 2020-02-14 | 深圳龙岗智能视听研究院 | 一种基于关键帧提取和层次性表述的视频行为识别方法 |
CN110781843A (zh) * | 2019-10-29 | 2020-02-11 | 首都师范大学 | 课堂行为检测方法及电子设备 |
CN111062900A (zh) * | 2019-11-21 | 2020-04-24 | 西北工业大学 | 一种基于置信度融合的双目视差图增强方法 |
CN111144217A (zh) * | 2019-11-28 | 2020-05-12 | 重庆邮电大学 | 一种基于人体三维关节点检测的动作评价方法 |
CN111144217B (zh) * | 2019-11-28 | 2022-07-01 | 重庆邮电大学 | 一种基于人体三维关节点检测的动作评价方法 |
CN111008601A (zh) * | 2019-12-06 | 2020-04-14 | 江西洪都航空工业集团有限责任公司 | 一种基于视频的打架斗殴检测方法 |
CN111160164B (zh) * | 2019-12-18 | 2023-08-22 | 上海交通大学 | 基于人体骨架和图像融合的动作识别方法 |
CN111160164A (zh) * | 2019-12-18 | 2020-05-15 | 上海交通大学 | 基于人体骨架和图像融合的动作识别方法 |
CN111310668B (zh) * | 2020-02-18 | 2023-06-23 | 大连海事大学 | 一种基于骨架信息的步态识别方法 |
CN111310668A (zh) * | 2020-02-18 | 2020-06-19 | 大连海事大学 | 一种基于骨架信息的步态识别方法 |
CN111382679A (zh) * | 2020-02-25 | 2020-07-07 | 上海交通大学 | 帕金森病步态运动障碍严重程度的评估方法、系统及设备 |
CN111310689A (zh) * | 2020-02-25 | 2020-06-19 | 陕西科技大学 | 潜在信息融合的家庭安防系统中的人体行为识别的方法 |
CN111310689B (zh) * | 2020-02-25 | 2023-04-07 | 陕西科技大学 | 潜在信息融合的家庭安防系统中的人体行为识别的方法 |
CN111382679B (zh) * | 2020-02-25 | 2022-08-02 | 上海交通大学 | 帕金森病步态运动障碍严重程度的评估方法、系统及设备 |
CN111355928A (zh) * | 2020-02-28 | 2020-06-30 | 济南浪潮高新科技投资发展有限公司 | 一种基于多摄像头内容分析的视频拼接方法及其系统 |
CN112805723A (zh) * | 2020-03-06 | 2021-05-14 | 华为技术有限公司 | 一种图像处理系统、方法以及包括该系统的自动驾驶车辆 |
CN112805723B (zh) * | 2020-03-06 | 2022-08-09 | 华为技术有限公司 | 一种图像处理系统、方法以及包括该系统的自动驾驶车辆 |
CN111460960A (zh) * | 2020-03-27 | 2020-07-28 | 重庆电政信息科技有限公司 | 一种运动分类及计数方法 |
CN111784735A (zh) * | 2020-04-15 | 2020-10-16 | 北京京东尚科信息技术有限公司 | 目标跟踪方法、装置和计算机可读存储介质 |
CN111539941B (zh) * | 2020-04-27 | 2022-08-16 | 上海交通大学 | 帕金森病腿部灵活性任务评估方法及系统、存储介质及终端 |
CN111539941A (zh) * | 2020-04-27 | 2020-08-14 | 上海交通大学 | 帕金森病腿部灵活性任务评估方法及系统、存储介质及终端 |
CN111914643A (zh) * | 2020-06-30 | 2020-11-10 | 西安理工大学 | 一种基于骨骼关键点检测的人体动作识别方法 |
CN113196289B (zh) * | 2020-07-02 | 2023-05-26 | 浙江大学 | 人体动作识别方法、人体动作识别系统及设备 |
CN113196289A (zh) * | 2020-07-02 | 2021-07-30 | 浙江大学 | 人体动作识别方法、人体动作识别系统及设备 |
CN111783692A (zh) * | 2020-07-06 | 2020-10-16 | 广东工业大学 | 一种动作识别方法、装置及电子设备和存储介质 |
CN111860417A (zh) * | 2020-07-29 | 2020-10-30 | 山东大学 | 一种人体动作识别方法 |
CN112016038B (zh) * | 2020-08-03 | 2023-07-28 | 广西大学 | 一种超超临界燃煤锅炉高温再热器炉外壁温预测方法 |
CN112016038A (zh) * | 2020-08-03 | 2020-12-01 | 广西大学 | 一种超超临界燃煤锅炉高温再热器炉外壁温预测方法 |
WO2022028136A1 (zh) * | 2020-08-06 | 2022-02-10 | 上海哔哩哔哩科技有限公司 | 舞蹈视频的动作提取方法、装置、计算机设备及存储介质 |
CN114093021A (zh) * | 2020-08-06 | 2022-02-25 | 上海哔哩哔哩科技有限公司 | 舞蹈视频的动作提取方法、装置、计算机设备及存储介质 |
CN112215160A (zh) * | 2020-10-13 | 2021-01-12 | 厦门大学 | 一种利用长短期信息融合的视频三维人体姿态估计算法 |
CN112215160B (zh) * | 2020-10-13 | 2023-11-24 | 厦门大学 | 一种利用长短期信息融合的视频三维人体姿态估计算法 |
CN114612810B (zh) * | 2020-11-23 | 2023-04-07 | 山东大卫国际建筑设计有限公司 | 一种动态自适应异常姿态识别方法及装置 |
CN114612810A (zh) * | 2020-11-23 | 2022-06-10 | 山东大卫国际建筑设计有限公司 | 一种动态自适应异常姿态识别方法及装置 |
CN112434608A (zh) * | 2020-11-24 | 2021-03-02 | 山东大学 | 一种基于双流结合网络的人体行为识别方法及系统 |
CN112464808A (zh) * | 2020-11-26 | 2021-03-09 | 成都睿码科技有限责任公司 | 一种基于计算机视觉的跳绳姿态及个数识别方法 |
CN112464808B (zh) * | 2020-11-26 | 2022-12-16 | 成都睿码科技有限责任公司 | 一种基于计算机视觉的跳绳姿态及个数识别方法 |
CN112396018A (zh) * | 2020-11-27 | 2021-02-23 | 广东工业大学 | 一种结合多模态特征分析与神经网络的羽毛球运动员犯规动作识别方法 |
CN112396018B (zh) * | 2020-11-27 | 2023-06-06 | 广东工业大学 | 一种结合多模态特征分析与神经网络的羽毛球运动员犯规动作识别方法 |
CN112528823A (zh) * | 2020-12-04 | 2021-03-19 | 燕山大学 | 一种基于关键帧检测和语义部件分割的条斑鲨运动行为分析方法及系统 |
CN112580559A (zh) * | 2020-12-25 | 2021-03-30 | 山东师范大学 | 基于骨架特征和视频表征结合的双流视频行为识别方法 |
CN112651360A (zh) * | 2020-12-31 | 2021-04-13 | 福州大学 | 一种小样本下骨架动作识别方法 |
CN112800892B (zh) * | 2021-01-18 | 2022-08-26 | 南京邮电大学 | 一种基于openpose的人体姿态识别方法 |
CN112800892A (zh) * | 2021-01-18 | 2021-05-14 | 南京邮电大学 | 一种基于openpose的人体姿态识别方法 |
CN112818881B (zh) * | 2021-02-07 | 2023-12-22 | 国网福建省电力有限公司营销服务中心 | 一种人体行为识别方法 |
CN112818881A (zh) * | 2021-02-07 | 2021-05-18 | 国网福建省电力有限公司营销服务中心 | 一种人体行为识别方法 |
CN112949560B (zh) * | 2021-03-24 | 2022-05-24 | 四川大学华西医院 | 双通道特征融合下长视频表情区间连续表情变化识别方法 |
CN112949560A (zh) * | 2021-03-24 | 2021-06-11 | 四川大学华西医院 | 双通道特征融合下长视频表情区间连续表情变化识别方法 |
CN113111760A (zh) * | 2021-04-07 | 2021-07-13 | 同济大学 | 基于通道注意力的轻量化图卷积人体骨架动作识别方法 |
CN113033458B (zh) * | 2021-04-09 | 2023-11-07 | 京东科技控股股份有限公司 | 动作识别方法和装置 |
CN113033458A (zh) * | 2021-04-09 | 2021-06-25 | 京东数字科技控股股份有限公司 | 动作识别方法和装置 |
CN113312966A (zh) * | 2021-04-21 | 2021-08-27 | 广东工业大学 | 一种基于第一人称视角的动作识别方法及装置 |
CN113312966B (zh) * | 2021-04-21 | 2023-08-08 | 广东工业大学 | 一种基于第一人称视角的动作识别方法及装置 |
CN113033495A (zh) * | 2021-04-30 | 2021-06-25 | 重庆大学 | 一种基于k-means算法的弱监督行为识别方法 |
CN113298537A (zh) * | 2021-04-30 | 2021-08-24 | 华中农业大学 | 基于物联网的稻米全链条质量信息智能检测系统及方法 |
CN113033495B (zh) * | 2021-04-30 | 2022-08-02 | 重庆大学 | 一种基于k-means算法的弱监督行为识别方法 |
CN113343764A (zh) * | 2021-05-10 | 2021-09-03 | 武汉理工大学 | 一种基于级联式网络架构的驾驶员分心检测方法及系统 |
CN113435576A (zh) * | 2021-06-24 | 2021-09-24 | 中国人民解放军陆军工程大学 | 一种双速时空图卷积神经网络架构及数据处理方法 |
CN113343950B (zh) * | 2021-08-04 | 2021-11-16 | 之江实验室 | 一种基于多特征融合的视频行为识别方法 |
CN113343950A (zh) * | 2021-08-04 | 2021-09-03 | 之江实验室 | 一种基于多特征融合的视频行为识别方法 |
WO2023061102A1 (zh) * | 2021-10-15 | 2023-04-20 | 腾讯科技(深圳)有限公司 | 视频行为识别方法、装置、计算机设备和存储介质 |
CN115100725B (zh) * | 2022-08-23 | 2022-11-22 | 浙江大华技术股份有限公司 | 目标识别方法、目标识别装置以及计算机存储介质 |
CN115100725A (zh) * | 2022-08-23 | 2022-09-23 | 浙江大华技术股份有限公司 | 目标识别方法、目标识别装置以及计算机存储介质 |
CN116434335A (zh) * | 2023-03-30 | 2023-07-14 | 东莞理工学院 | 动作序列识别和意图推断方法、装置、设备及存储介质 |
CN116434335B (zh) * | 2023-03-30 | 2024-04-30 | 东莞理工学院 | 动作序列识别和意图推断方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110096950B (zh) | 2023-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110096950A (zh) | 一种基于关键帧的多特征融合行为识别方法 | |
Yao et al. | Temporal-wise attention spiking neural networks for event streams classification | |
Zhang et al. | Human action recognition using convolutional LSTM and fully-connected LSTM with different attentions | |
Deng et al. | RFBNet: deep multimodal networks with residual fusion blocks for RGB-D semantic segmentation | |
CN108399435B (zh) | 一种基于动静特征的视频分类方法 | |
CN112307995B (zh) | 一种基于特征解耦学习的半监督行人重识别方法 | |
CN109858406A (zh) | 一种基于关节点信息的关键帧提取方法 | |
CN105787458A (zh) | 基于人工设计特征和深度学习特征自适应融合的红外行为识别方法 | |
Li et al. | Human action recognition based on selected spatio-temporal features via bidirectional LSTM | |
Cheng et al. | Cross-modality compensation convolutional neural networks for RGB-D action recognition | |
CN110378208B (zh) | 一种基于深度残差网络的行为识别方法 | |
CN113239801B (zh) | 基于多尺度特征学习和多级域对齐的跨域动作识别方法 | |
CN110059598A (zh) | 基于姿态关节点的长时程快慢网络融合的行为识别方法 | |
Yue et al. | Action recognition based on RGB and skeleton data sets: A survey | |
CN109508686B (zh) | 一种基于层次化特征子空间学习的人体行为识别方法 | |
CN111144130A (zh) | 一种基于上下文感知的混合神经网络的细粒度情感分类方法 | |
Gao et al. | A novel multiple-view adversarial learning network for unsupervised domain adaptation action recognition | |
CN113807318A (zh) | 一种基于双流卷积神经网络和双向gru的动作识别方法 | |
CN111401116B (zh) | 基于增强卷积和空时lstm网络的双模态情感识别方法 | |
Xu et al. | Motion recognition algorithm based on deep edge-aware pyramid pooling network in human–computer interaction | |
CN105956604B (zh) | 一种基于两层时空邻域特征的动作识别方法 | |
Yang et al. | Lane detection with versatile atrousformer and local semantic guidance | |
CN107341471A (zh) | 一种基于双层条件随机场的人体行为识别方法 | |
CN113870312A (zh) | 基于孪生网络的单目标跟踪方法 | |
Wu et al. | Active 3-D shape cosegmentation with graph convolutional networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |