CN111339888A - 基于关节点运动图的双人交互行为识别方法 - Google Patents
基于关节点运动图的双人交互行为识别方法 Download PDFInfo
- Publication number
- CN111339888A CN111339888A CN202010103739.0A CN202010103739A CN111339888A CN 111339888 A CN111339888 A CN 111339888A CN 202010103739 A CN202010103739 A CN 202010103739A CN 111339888 A CN111339888 A CN 111339888A
- Authority
- CN
- China
- Prior art keywords
- joint point
- dimensional information
- joint
- plane
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000010586 diagram Methods 0.000 title claims abstract description 25
- 230000003993 interaction Effects 0.000 title claims abstract description 22
- 230000006399 behavior Effects 0.000 claims abstract description 22
- 230000009471 action Effects 0.000 claims abstract description 18
- 238000000605 extraction Methods 0.000 claims abstract description 17
- 230000004927 fusion Effects 0.000 claims abstract description 13
- 238000013135 deep learning Methods 0.000 claims abstract description 7
- 238000003384 imaging method Methods 0.000 claims abstract description 7
- 238000010276 construction Methods 0.000 claims description 11
- 230000006870 function Effects 0.000 claims description 7
- 238000013507 mapping Methods 0.000 claims description 7
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 4
- 239000013598 vector Substances 0.000 claims description 4
- 238000010606 normalization Methods 0.000 claims description 2
- 230000002452 interceptive effect Effects 0.000 abstract description 9
- 230000008569 process Effects 0.000 description 8
- 238000011176 pooling Methods 0.000 description 6
- 238000012549 training Methods 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
- G06F18/256—Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Social Psychology (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Psychiatry (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明属于计算机视觉技术领域,涉及一种基于关节点运动图的双人交互行为识别方法,可用于视频中双人交互行为的识别。分别使用在xoy平面、xoz平面、yoz平面重新构建的关节点三维信息分别进行关节点的图像化表示,进而分别使用深度学习网络对其进行进一步的特征提取与动作分类,最后将三个平面得到的识别概率进行决策级融合得到最终的识别结果。通过实验结果可知该方法可以有效提高双人交互行为识别的准确率。
Description
技术领域
本发明属于计算机视觉技术领域,涉及一种基于关节点运动图的双人交互 行为识别方法,可用于视频中双人交互行为的识别。
背景技术
近几年,随着深度传感器(如微软Kinect)的快速发展,大大降低了人体 运动过程中关节点数据的获取成本,同时也提高了全身各关节点数据的跟踪精 度。目前基于关节点数据的双人交互识别因其特征简单清晰等优点获得了越来 越多国内外研究者的关注,对于此项研究已经获得初步进展。基于关节点数据 的双人交互识别方法主要分为:基于特征提取的识别方法和基于深度学习的识 别方法,其中基于特征提取的识别方法是研究人员通过关节点数据提取特征, 以获得人体各关节点的相关性来进行双人交互行为识别;基于深度学习的识别 方法是研究人员将提取到的特征送入深度学习网络中进一步提取深层次的特征 然后进行双人交互行为识别。
基于特征提取的识别方法:现有技术文献K.Yun,J.Honorio,D. Chattopadhyay,T.L.Berg,D.Samaras,Two-person interaction detection using body-pose featuresand multiple instance learning[C].In Proceedings of CVPR Workshops,IEEE,Providence,RI,USA.2012:28-35,直接从关节点数据中提取特 征,以获得人体各关节点的相关性。采用几何特征提取方法并设计多种相关的 距离特征来进行双人交互行为识别。此方法对于复杂行为识别的准确率不高。 现有技术文献Huynh-The T,Banos O,Le B V,etal.PAM-based flexible generative topic model for 3D interactive activityrecognition[C].International Conference on Advanced Technologies forCommunications.IEEE,2015:117-122利用当前帧所有 关节对的距离,当前帧关节与前一帧关节之间的距离以及当前帧各关节点与中 心点之间的距离来描述身体姿态,但这种描述缺乏时间信息,导致识别率不高。 总的来说,基于特征提取的识别方法,对于类似于推搡和拳打这样的相似动作 区分效果不理想,识别的准确率很难进一步提高。
基于深度学习的识别方法:文献Zhu W,Lan C,Xing J,et al.Co-OccurrenceFeature Learning for Skeleton Based Action Recognition Using Regularized DeepLSTM Networks[C].AAAI.2016,2(5),提出了一种深层LSTM网络来学习关节点 数据的共生特征,通过追踪人体关节点轨迹来识别人体动作类别。但是直接将 关节点数据作为LSTM的输入信息,特征抗干扰性差导致识别结果不高。文献 Song S,Lan C,Xing J,etal.Spatio-Temporal Attention-Based LSTM Networks for 3D Action Recognitionand Detection.[J].IEEE Transactions on Image Processing, 2018,PP(99):1-1.直接采用关节点数据,利用空间和时间的注意力模型,结合具 有长短周期(LSTM)记忆的递归神经网络,得到识别模型,能够选择性地将不 同帧的信息给予不同的关注度,同时对单帧以内的不同关节点赋予不同的权值, 并相应地制定联合训练策略。其中LSTM虽构建了良好的时间建模,却很难用于 高级特征的学习。总的来说,基于深度学习的识别方法,相对于传统的双人交 互识别方法而言,识别率有了很大提升,但是对于基于关节点数据的识别方法中,将关节点直接送入深度网络进行学习,识别率有限。例如文献Song S,Lan C, Xing J,et al.Spatio-Temporal Attention-Based LSTM Networks for 3D Action Recognitionand Detection.[J].IEEE Transactions on Image Processing,2018, PP(99):1-1.记载。
发明内容
为了解决目前研究将关节点信息送入CNN网络之前进行编码过程中,没有 很好的考虑关节点的空间位置信息和时序关系,因此丢失了大量有用信息的问 题。本发明提出了一种新的关节点信息的编码方式,即关节点运动图,同时对 人体骨架关节点的时间和空间信息进行表示,充分利用关节点序列中的时空关 系。
本发明的目的可以通过以下技术方案实现:
基于关节点运动图的双人交互行为识别方法,关节点运动图构建步骤为: 分别使用在xoy平面、xoz平面、yoz平面重新构建的关节点三维信息分别进行 关节点的图像化表示,进而分别使用深度学习网络对其进行进一步的特征提取 与动作分类,最后将三个平面得到的识别概率进行决策级融合得到最终的识别 结果。
进一步地,具体包括如下步骤:
步骤1:获取人体运动关节点数据;
步骤2:将步骤1中获取的关节点数据分别在xoy平面,xoz平面,yoz平 面重新进行三维信息的构建;
步骤3:将步骤2中分别在xoy平面,xoz平面,yoz平面重新构建的关节 点三维信息,分别映射到RGB色彩空间得到图像化特征来进行初步特征提取;
步骤4:将步骤3中关节点特征图像分别进行深层次特征提取与表示;
步骤5:将步骤4中关节点特征图像分别进行识别并转化为每类动作识别概 率;
步骤6:将步骤5中三个平面得到识别概率进行决策级融合得到最终的识别 结果。
进一步地,所述步骤1中使用深度相机Kinect v2提取人体中的关节点信 息。
进一步地,所述步骤2其中xoy平面三维信息的构建是将三维信息中的x, y保留作为图像中的坐标信息,在坐标点的位置重新定义一组新的三维信息,包 括关节点序列中对应的帧号n、单人中的关节点序号i和深度信息z;xoz平面 三维信息的构建是将三维信息中的x,z保留作为图像中的坐标信息,在坐标点 的位置重新定义一组新的三维信息,包括关节点序列中对应的帧号n、单人中的 关节点序号i和深度信息y;yoz平面三维信息的构建是将三维信息中的y,z 保留作为图像中的坐标信息,在坐标点的位置重新定义一组新的三维信息,包 括关节点序列中对应的帧号n、单人中的关节点序号i和深度信息x。
进一步地,步骤3中关节点三维信息的图像化表示,是使用转换函数对xoy, xoz,yoz这三个平面重新构建的关节点三维信息分别进行归一化处理后,再将 三个平面每个点的三维坐标分别映射为RGB彩色空间R,G,B的通道值。
进一步地,步骤4分别采用VGG19卷积网络对xoy,xoz,yoz这三个平面 的关节点图像进行深层次特征提取与表示。
进一步地,步骤5将三个坐标平面得到的特征向量分别采用Softmax分类 器转化为每类动作识别概率。
进一步地,步骤6中决策级融合方式为xoy平面识别结果概率加权为50%, xoz平面识别结果概率加权为30%,yoz平面识别结果概率加权为20%。
本发明的有益效果:
本发明所提取的关节点运动图的构建过程既考虑了三个坐标平面关节点的 位置关系,又包含了关节点的时间信息和对应的深度信息,编码形式极大了弥 补了目前关节点编码方式关键信息丢失的问题。通过实验结果可知该方法可以 有效提高双人交互行为识别的准确率。
附图说明
为了便于本领域技术人员理解,下面结合附图对本发明作进一步的说明。
图1是本发明中基于关节点运动图的双人交互行为识别算法整体框架;
图2是本发明中xoy平面关节点序列转化为运动图;
图3是本发明中VGG19网络结构图;
图4是SBU Kinect交互数据集示例图;
图5是本发明在SBU Kinect交互数据集识别结果混淆矩阵。
具体实施方式
本发明提供一种基于关节点运动图的双人交互行为识别方法,包括以下步 骤:
步骤1:获取人体运动关节点数据;使用深度相机(Kinect v2)提取人体中 的关节点信息,即通过25个关节点来表示人体,其中关节点三维坐标用(x,y,z) 表示,人体运动即可通过关节点坐标信息得到。
步骤2:将步骤1中获取的关节点数据分别在xoy平面,xoz平面,yoz平 面重新进行三维信息的构建;将步骤1中获取的关节点数据分别在xoy平面, xoz平面,yoz平面重新进行三维信息的构建,构建三个投影平面的关节点运动 图特征。其中xoy平面三维信息的构建是将三维信息中的x,y保留作为图像中 的坐标信息,在坐标点的位置重新定义一组新的三维信息,包括关节点序列中 对应的帧号n、单人中的关节点序号i和深度信息z;xoz平面三维信息的构建是 将三维信息中的x,z保留作为图像中的坐标信息,在坐标点的位置重新定义一 组新的三维信息,包括关节点序列中对应的帧号n、单人中的关节点序号i和深 度信息y;yoz平面三维信息的构建是将三维信息中的y,z保留作为图像中的坐 标信息,在坐标点的位置重新定义一组新的三维信息,包括关节点序列中对应 的帧号n、单人中的关节点序号i和深度信息x。
步骤3:将步骤2分别在xoy平面,xoz平面,yoz平面重新构建的关节 点三维信息,分别映射到RGB色彩空间得到图像化特征来进行初步特征提取; 关节点三维信息的图像化表示,是使用转换函数对xoy,xoz,yoz这三个平面重 新构建的关节点三维信息分别进行归一化处理后,再将三个平面每个点的三维 坐标分别映射为RGB彩色空间R,G,B的通道值。
步骤4:将步骤3中关节点特征图像分别进行深层次特征提取与表示;分别 采用VGG19卷积网络对xoy,xoz,yoz这三个平面的关节点图像进行深层次特 征提取与表示。分别将一个大小为224*224的图像送入VGG网络中,经第一个 卷积段的卷积过程,输出为112*112*64,然后送入第一个最大池化层,经过特 征过滤再送入第二个卷积段,卷积后的特征维数为56*56*128,接着再送入下一 个池化层,经过卷积与池化过程的不断交替,最后输出的特征维数大小为4096。
步骤5:将步骤4中关节点特征图像分别进行识别并转化为每类动作识别概 率;将三个坐标平面得到的特征向量分别采用Softmax分类器转化为每类动作识 别概率。假设共有K=8个动作类别,对于给定的特征v,其属于类别i的概率 pi计算为:
其中wi表示第i个分类器的权重。
步骤6:将步骤5中三个平面得到识别概率进行决策级融合得到最终的识别 结果;分别将关节点运动图在xoy,xoz,yoz平面的识别概率进行决策级融合得 到最终的识别结果。决策级融合方式为xoy平面识别结果概率加权为50%,xoz 平面识别结果概率加权为30%,yoz平面识别结果概率加权为20%。
下面结合附图对本发明作进一步描述,便于更加清楚地说明本发明的技术 方案,但不能将它们理解为对本发明保护范围的限定。
实施例1
为了能保证方法的性能与效率,本实施例利用在大型图像数据集中预训练 的VGG19网络提取个体动作特征,实现人体动作姿态特征的建模,如图3所示 为VGG19网络结构。
本实例中,为证明提出方法的有效性,采用国际标准的SBU Kinect数据库 进行验证。SBU Kinect数据库共包含282个骨架序列,该数据库具有八种交互 动作类型,包括:靠近、离开、推搡、踢、打、交换物品、拥抱和握手,数据 采集均采用相同的试验环境,七名参与者进行采集数据,组成了21对互动,该 数据集每帧的每个人均有15个关节点的3维坐标表示,在训练期间,将随机剪 裁增加数据的多样性。
步骤1:获取人体运动关节点数据;
本实施例通过深度相机(Kinect v2)提取人体中的关节点,将每个人转化成 25个关节点。根据Kinect深度相机获得的关节点坐标用(x,y,z)表示,其中深度 相机处于原点位置,x轴正半轴在深度相机的视角上向左延伸,y轴正半轴向上 延伸,z轴的正半轴与相机的感应方向一致。
步骤2:将步骤1中获取的关节点数据分别在xoy平面,xoz平面,yoz平面 重新进行三维信息的构建;
关节点数据分别在xoy平面三维信息构建方式为:关节点三维数据中x,y 表示位置信息,z表示深度信息。将关节点序列转化为运动图时,将三维信息中 的x,y保留作为图像中的坐标信息,在坐标点的位置重新定义一组新的三维信 息,包括关节点序列中对应的帧号n、单人中的关节点序号i和深度信息z。关 节点数据分别在xoz平面三维信息构建方式为:关节点三维数据中x,z表示位 置信息,y表示深度信息。将关节点序列转化为运动图时,将三维信息中的x, z保留作为图像中的坐标信息,在坐标点的位置重新定义一组新的三维信息,包 括关节点序列中对应的帧号n、单人中的关节点序号i和深度信息y。关节点数 据分别在yoz平面三维信息构建方式为:关节点三维数据中y,z表示位置信息, x表示深度信息。将关节点序列转化为运动图时,将三维信息中的y,z保留作为 图像中的坐标信息,在坐标点的位置重新定义一组新的三维信息,包括关节点 序列中对应的帧号n、单人中的关节点序号i和深度信息x。
步骤3:将步骤2中分别在xoy平面,xoz平面,yoz平面重新构建的关节 点三维信息,分别映射到RGB色彩空间得到图像化特征来进行初步特征提取; 使用转换函数对新构建的关节点三维信息进行归一化处理,将每个点的三维坐 标映射为RGB彩色空间R,G,B通道值。
具体为,给定一组关节点序列[F1,F,2...FN],其中(xi,yi,zi)表示每一帧中关节点的坐标,其中{FN}∈S,n∈[1,N]。将原始关节点序列中的三维信息重新定义,把包 含时间信息的三维立体序列转化为二维的平面信息,然后对二维信息做转换映 射到RGB色彩空间。定义F1(·)为xoy平面重新构建的关节点图像特征转换函数, 如下:
(n′,i′,z′)=F(n,i,z)
其中(n′,i′,z′)是归一化空间中的三维关节坐标值,max{l}和min{l}是对应的坐标值中的最大值和最小值。为了完整保留关节序列之间的时空信息,我们将整 个骨架序列中离散的关节点绘制在一幅图像中。
定义F2(·)为xoz平面重新构建的关节点图像特征转换函数,如下:
(n′,i′,y′)=F(n,i,y)
其中(n′,i′,y′)是归一化空间中的三维关节坐标值,max{l}和min{l}是对应的坐标值中的最大值和最小值。为了完整保留关节序列之间的时空信息,我们将整 个骨架序列中离散的关节点绘制在一幅图像中。
定义F3(·)为yoz平面重新构建的关节点图像特征转换函数,如下:
(n′,i′,x′)=F(n,i,x)
其中(n′,i′,x′)是归一化空间中的三维关节坐标值,max{l}和min{l}是对应的坐标值中的最大值和最小值。为了完整保留关节序列之间的时空信息,我们将整 个骨架序列中离散的关节点绘制在一幅图像中。
步骤4:将步骤3中关节点特征图像分别进行深层次特征提取与表示;
选择VGGNet中层数为19的网络作为关节点运动图的卷积神经网络模型。 VGG是牛津大学计算机视觉组(Visual Geometry Group)和Google DeepMind 公司一起研发的深度卷积神经网络,该网络泛化性能很好,成功地构筑了16~19 层深的卷积神经网络。
本文分别将xoy平面、xoz平面、yoz平面的关节点特征图像,分别送入 VGG19网络中,得到关节点数据深层次的特征。即分别将一个大小为224*224 的图像送入VGG19网络中,经第一个卷积段的卷积过程,输出为112*112*64, 得到的是一个高度更高、长宽更小的“图片”,压缩了图片中包含的有用信息, 然后送入第一个最大池化层,经过特征过滤再送入第二个卷积段,卷积后的特 征维数为56*56*128,接着再送入下一个池化层,经过卷积与池化过程的不断交 替,最后输出的特征维数大小为4096。如图2所示为本发明中xoy平面关节点 序列转化为运动图。
步骤5:将关节点数据特征的识别过程转化为每类动作的概率;
本实例中,分别采用Softmax分类器将xoy平面、xoz平面、yoz平面的特 征向量转化为每类动作的概率。假设共有K=8个动作类别,对于给定的特征v, 其属于类别i的概率pi计算为:
wi表示第i个分类器的权重。
步骤6:将步骤5中三个平面得到识别概率进行决策级融合得到最终的识别 结果。
分别将关节点运动图在xoy,xoz,yoz平面的识别概率进行决策级融合得到 最终的识别结果。决策级融合方式为xoy平面识别结果概率加权为50%,xoz 平面识别结果概率加权为30%,yoz平面识别结果概率加权为20%。其属于类别 i的最终概率p计算为:
P=P1*50%+P2*30%+P3*20%
P表示最终识别概率;P1表示关节点运动图在xoy平面的识别概率;P2表示 关节点运动图在xoz平面的识别概率;P3表示关节点运动图在yoz平面的识别概 率,如图4所示,本发明采用国际标准的SBU Kinect数据库进行验证。将数据 库中的80%的关节点序列用作训练神经网络模型,其余的20%的关节点序列用 于测试训练好的神经网络模型,进行100次迭代训练。当训练次数达到20次时, 识别结果接近90%,随着训练次数不断增至100次,网络模型的识别结果不断 趋于稳定,得到最终的识别结果93.7%。图5为识别率的混淆矩阵,混淆矩阵的 主对角线代表正确的识别率。
以上公开的本发明优选实施例只是用于帮助阐述本发明。优选实施例并没 有详尽叙述所有的细节,也不限制该发明仅为所述的具体实施方式。显然,根 据本说明书的内容,可作很多的修改和变化。本说明书选取并具体描述这些实 施例,是为了更好地解释本发明的原理和实际应用,从而使所属技术领域技术 人员能很好地理解和利用本发明。本发明仅受权利要求书及其全部范围和等效 物的限制。
Claims (8)
1.基于关节点运动图的双人交互行为识别方法,其特征在于,关节点运动图构建步骤为:分别使用在xoy平面、xoz平面、yoz平面重新构建的关节点三维信息分别进行关节点的图像化表示,进而分别使用深度学习网络对其进行进一步的特征提取与动作分类,最后将三个平面得到的识别概率进行决策级融合得到最终的识别结果。
2.根据权利要求1所述的基于关节点运动图的双人交互行为识别方法,其特征在于,具体包括如下步骤:
步骤1:获取人体运动关节点数据;
步骤2:将步骤1中获取的关节点数据分别在xoy平面,xoz平面,yoz平面重新进行三维信息的构建;
步骤3:将步骤2中分别在xoy平面,xoz平面,yoz平面重新构建的关节点三维信息,分别映射到RGB色彩空间得到图像化特征来进行初步特征提取;
步骤4:将步骤3中关节点特征图像分别进行深层次特征提取与表示;
步骤5:将步骤4中关节点特征图像分别进行识别并转化为每类动作识别概率;
步骤6:将步骤5中三个平面得到识别概率进行决策级融合得到最终的识别结果。
3.根据权利要求2所述的基于关节点运动图的双人交互行为识别方法,其特征在于:所述步骤1中使用深度相机Kinect v2提取人体中的关节点信息。
4.根据权利要求2所述的基于关节点运动图的双人交互行为识别方法,其特征在于:所述步骤2其中xoy平面三维信息的构建是将三维信息中的x,y保留作为图像中的坐标信息,在坐标点的位置重新定义一组新的三维信息,包括关节点序列中对应的帧号n、单人中的关节点序号i和深度信息z;xoz平面三维信息的构建是将三维信息中的x,z保留作为图像中的坐标信息,在坐标点的位置重新定义一组新的三维信息,包括关节点序列中对应的帧号n、单人中的关节点序号i和深度信息y;yoz平面三维信息的构建是将三维信息中的y,z保留作为图像中的坐标信息,在坐标点的位置重新定义一组新的三维信息,包括关节点序列中对应的帧号n、单人中的关节点序号i和深度信息x。
5.根据权利要求2所述的基于关节点运动图的双人交互行为识别方法,其特征在于:步骤3中关节点三维信息的图像化表示,是使用转换函数对xoy,xoz,yoz这三个平面重新构建的关节点三维信息分别进行归一化处理后,再将三个平面每个点的三维坐标分别映射为RGB彩色空间R,G,B的通道值。
6.根据权利要求2所述的基于关节点运动图的双人交互行为识别方法,其特征在于:步骤4分别采用VGG19卷积网络对xoy,xoz,yoz这三个平面的关节点图像进行深层次特征提取与表示。
7.根据权利要求2所述的基于关节点运动图的双人交互行为识别方法,其特征在于:步骤5将三个坐标平面得到的特征向量分别采用Softmax分类器转化为每类动作识别概率。
8.根据权利要求2所述的基于关节点运动图的双人交互行为识别方法,其特征在于:步骤6中决策级融合方式为xoy平面识别结果概率加权为50%,xoz平面识别结果概率加权为30%,yoz平面识别结果概率加权为20%。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010103739.0A CN111339888B (zh) | 2020-02-20 | 2020-02-20 | 基于关节点运动图的双人交互行为识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010103739.0A CN111339888B (zh) | 2020-02-20 | 2020-02-20 | 基于关节点运动图的双人交互行为识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111339888A true CN111339888A (zh) | 2020-06-26 |
CN111339888B CN111339888B (zh) | 2023-11-14 |
Family
ID=71185441
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010103739.0A Active CN111339888B (zh) | 2020-02-20 | 2020-02-20 | 基于关节点运动图的双人交互行为识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111339888B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111931643A (zh) * | 2020-08-08 | 2020-11-13 | 商汤集团有限公司 | 一种目标检测方法、装置、电子设备及存储介质 |
CN112668550A (zh) * | 2021-01-18 | 2021-04-16 | 沈阳航空航天大学 | 基于关节点-深度联合关注rgb模态数据的双人交互行为识别方法 |
CN113015022A (zh) * | 2021-02-05 | 2021-06-22 | 深圳市优必选科技股份有限公司 | 行为识别方法、装置、终端设备及计算机可读存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109460734A (zh) * | 2018-11-08 | 2019-03-12 | 山东大学 | 基于层次动态深度投影差值图像表示的视频行为识别方法及系统 |
US10248854B2 (en) * | 2014-04-22 | 2019-04-02 | Beijing University Of Posts And Telecommunications | Hand motion identification method and apparatus |
CN109670401A (zh) * | 2018-11-15 | 2019-04-23 | 天津大学 | 一种基于骨骼运动图的动作识别方法 |
-
2020
- 2020-02-20 CN CN202010103739.0A patent/CN111339888B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10248854B2 (en) * | 2014-04-22 | 2019-04-02 | Beijing University Of Posts And Telecommunications | Hand motion identification method and apparatus |
CN109460734A (zh) * | 2018-11-08 | 2019-03-12 | 山东大学 | 基于层次动态深度投影差值图像表示的视频行为识别方法及系统 |
CN109670401A (zh) * | 2018-11-15 | 2019-04-23 | 天津大学 | 一种基于骨骼运动图的动作识别方法 |
Non-Patent Citations (2)
Title |
---|
王松;党建武;王阳萍;杜晓刚;: "实时动作识别方法研究" * |
魏鹏 等: "基于整体和个体分割融合的双人交互行为识别" * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111931643A (zh) * | 2020-08-08 | 2020-11-13 | 商汤集团有限公司 | 一种目标检测方法、装置、电子设备及存储介质 |
CN112668550A (zh) * | 2021-01-18 | 2021-04-16 | 沈阳航空航天大学 | 基于关节点-深度联合关注rgb模态数据的双人交互行为识别方法 |
CN112668550B (zh) * | 2021-01-18 | 2023-12-19 | 沈阳航空航天大学 | 基于关节点-深度联合关注rgb模态数据的双人交互行为识别方法 |
CN113015022A (zh) * | 2021-02-05 | 2021-06-22 | 深圳市优必选科技股份有限公司 | 行为识别方法、装置、终端设备及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111339888B (zh) | 2023-11-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zheng et al. | Unsupervised representation learning with long-term dynamics for skeleton based action recognition | |
CN110059662B (zh) | 一种深度视频行为识别方法及系统 | |
CN108520535B (zh) | 基于深度恢复信息的物体分类方法 | |
CN111310707B (zh) | 基于骨骼的图注意力网络动作识别方法及系统 | |
CN111339888B (zh) | 基于关节点运动图的双人交互行为识别方法 | |
CN110472604B (zh) | 一种基于视频的行人与人群行为识别方法 | |
CN113139479B (zh) | 一种基于光流和rgb模态对比学习的微表情识别方法及系统 | |
Zhou et al. | BranchGAN: Unsupervised mutual image-to-image transfer with a single encoder and dual decoders | |
CN112329525A (zh) | 一种基于时空图卷积神经网络的手势识别方法和装置 | |
CN111353447B (zh) | 一种基于图卷积网络的人体骨架行为识别方法 | |
CN114613013A (zh) | 一种基于骨骼节点的端到端人类行为识别方法与模型 | |
CN116246338B (zh) | 一种基于图卷积和Transformer复合神经网络的行为识别方法 | |
CN114419732A (zh) | 基于注意力机制优化的HRNet人体姿态识别方法 | |
CN112906520A (zh) | 一种基于姿态编码的动作识别方法及装置 | |
CN112036260A (zh) | 一种自然环境下多尺度子块聚合的表情识别方法及系统 | |
CN112668550A (zh) | 基于关节点-深度联合关注rgb模态数据的双人交互行为识别方法 | |
CN114973418A (zh) | 一种跨模态三维点云序列时空特征网络的行为识别方法 | |
CN114694261A (zh) | 一种基于多级监督图卷积的视频三维人体姿态估计方法及系统 | |
CN117671787A (zh) | 一种基于Transformer的康复动作评估方法 | |
KR20230081378A (ko) | 3차원 휴먼 자세 추정을 위한 단시점 모델의 다시점 준지도 학습 시스템 | |
CN114863013A (zh) | 一种目标物体三维模型重建方法 | |
CN114429646A (zh) | 基于深度自注意力变换网络的步态识别方法 | |
CN116453025A (zh) | 一种缺帧环境下融合时空信息的排球比赛群体行为识别方法 | |
Zhang et al. | Skeleton-based action recognition with attention and temporal graph convolutional network | |
CN114495151A (zh) | 一种群组行为识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |