CN111191630A - 适用于智能交互观演场景的演艺动作识别方法 - Google Patents

适用于智能交互观演场景的演艺动作识别方法 Download PDF

Info

Publication number
CN111191630A
CN111191630A CN202010013997.XA CN202010013997A CN111191630A CN 111191630 A CN111191630 A CN 111191630A CN 202010013997 A CN202010013997 A CN 202010013997A CN 111191630 A CN111191630 A CN 111191630A
Authority
CN
China
Prior art keywords
space
action
joint
network
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010013997.XA
Other languages
English (en)
Other versions
CN111191630B (zh
Inventor
李绍彬
蓝善祯
张岳
张晓晔
王鹏程
汪洋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Communication University of China
Original Assignee
Communication University of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Communication University of China filed Critical Communication University of China
Priority to CN202010013997.XA priority Critical patent/CN111191630B/zh
Publication of CN111191630A publication Critical patent/CN111191630A/zh
Application granted granted Critical
Publication of CN111191630B publication Critical patent/CN111191630B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种适用于智能交互观演场景的演艺动作识别方法,依据定点摄像头摄录的定点画面,采用姿态估计算法进行单人的关节点检测,得到相关骨骼关键点在图像中的像素位置,建立时空图,依据时空图计算这些关节点之间的距离和角度特征,将这些特征送入到LSTM建模的结构化动作识别网络中学习动作特征,通过全连接层和Softmax函数进行动作识别。本发明能够识别演艺场景中定点位置的演员的细粒度动作,为后续的各种智能化操作奠定了基础。

Description

适用于智能交互观演场景的演艺动作识别方法
技术领域
本发明涉及适用于智能交互观演场景的演艺动作识别方法。
背景技术
基于人体姿态估计的动作识别技术主要分为两部分,首先对连续时刻下的视频帧进行定点位置单人人体关节点检测,得到的单个人的人体的关节点信息,然后将关节点信息作为动作识别网络的输入,由后续设计的动作识别网络自主地学习动作的特征,然后得到相应场景下动作类别。
目前人体动作识别深度学习技术主要有两大类解决思路,一是基于图像分类的方法,二是基于人体姿态分类的方法。基于图像信息的动作识别技术具有数据获取方便,特征信息丰富等优点,但这种方法受背景影响较大,目前主要用来识别粗粒度动作(跑步,打球,游泳等的区分)。基于人体姿态估计的动作识别算法以人体的骨骼点的时序变化作为动作特征,因此具有不受背景干扰、能够识别细粒度动作、识别精度高等优点。在演艺场景中,大多都是同一或者相似场景,在这种场景中,演员肢体的小范围动作属于细粒度动作范畴(手臂向上挥动,手臂向下挥动等的区分)。目前尚缺乏对演艺场景中细粒度动作的识别技术,现有技术识别精度不高,无法精确捕捉演员的动作特征,难以满足智能交互观演等场景下的识别和预测要求。
发明内容
为解决上述技术问题,本发明提供了适用于智能交互观演场景的演艺动作识别和预测方法,以能够精确识别演员等的细粒度动作,满足智能交互观演等场景下的识别和预测要求。
本发明的技术方案是:一种适用于智能交互观演场景的演艺动作识别方法。依据定点摄像头摄录的定点画面,采用姿态估计算法进行单人的关节点检测,得到相关骨骼关键点(或称关节点)在图像中的像素位置,例如,优选采用Head(头)、Torso(躯干)、LeftShoulder(左肩)、Right Shoulder(右肩)、Left Elbow(左肘)、Right Elbow(右肘)、LeftWrist(左腕)、Right Wrist(右腕)、Left Hip(左髋)、Right Hip(右髋)、Left Knee(左膝)、Right Knee(右膝)、Left Ankle(左踝)和Right Ankle(右踝)共14个关节点,建立时空图,依据时空图计算这些关节点之间的距离和角度特征,将这些特征送入到LSTM建模的结构化动作识别网络中学习动作特征,通过全连接层和Softmax函数进行动作识别。
优选通过注意力机制降低时空图中的连接冗余。
注意力(attention)机制在2014年由Mnih等人提出,一开始,提出注意力机制主要是因为卷积神经网络对大型的图片的处理计算量巨大,因此作者提出一个循环神经网络模型,能够从一张图片或者一段视频中提取信息,通过自主选择一系列区域(pitch)或者位置,使得网络只对选中的区域在高分辨率情况下进行处理,这样无疑减小了计算量,又使得网络更加“关注”重要区域。Song等基于骨架信息,采用长短期记忆网络(LSTM,Long Short-Term Memory)来搭建基础框架,用于学习有效的特征并且对时域的动态过程建模,实现端到端(End-to-End)的动作识别。时域注意力子网络(Temporal Attention)学习一个时域注意力模型来给不同帧分配合适的权值;空域注意力子网络(SpatialAttention)学习一个注意力模型来给每一帧中不同关节点分配合适的权值,作用于网络的输入关节点上。
本发明利用了两个数据集来验证该发明的可行性,其一为公开的关节点数据集J-HMDB,该数据集是一种粗粒度的动作数据集,包含21类动作。其二为自建太极拳动作数据集,相比于J-HMDB,该数据集的动作类间类内差异都较小,是一种细粒度的动作数据集,包含15类动作。
太极拳关节点的数据集构建过程可分为四个阶段:筛选、检测关节点、修改、数据处理。在筛选阶段,为防止动作类别不明确或错误的状况,简化后期工作,选出自遮挡较小、全身出镜的动作样本,再手动修改每一个动作样本的起始帧和结束帧,构建成太极拳动作的图像数据集;关节点检测阶段采用Alphapose算法,自上而下的关节点检测策略,首先利用人体检测器检测到人,然后将检测到的人的区域送入到另一个网络进行关节点检测;虽然前期已经手动筛选过了自遮挡严重的样本,但是关节点检测算法的性能有限,仍然会存在一些检测错误的关节点,这就需要手动地修改这些检测错误的关节点,选用Labelimg作为标注工具,进行关节点的修改标注工作,Labelimg是一款比较流行的免费图像标注工具,主要用来标注图像检测任务,其标注信息保存为XML文件,内容遵循Pascal voc格式,内容有标注框(boundingbox)坐标和类别信息。首先,将Alphapose算法的检测结果保存成Labelimg可以可视化的XML格式,然后利用Labelimg软件将XML文件可视化到相应的图片上,最后进行人工筛选,将检测错误的或者不准确的关节点进行手动修改(直接在Labelimg上面拖动错误的关节点到正确的位置即可),软件可以将修改后的信息更新到对应的XML文件里;在数据处理阶段,将修改后的同一动作样本(一系列连续的视频帧)中的所有关节点信息(每一个动作样本的40几帧图片的关节点)按照时序存放在一个mat文件中(即一个mat文件包含了一个样本的所有关节点信息)。
针对动作识别任务,现有技术通常使用脊柱(spine)、左手(left arm)、右手(right arm)、左腿(left leg)、右腿(right leg)这五个人体关节点。本技术通过实验证明关节点的增加可以提高识别的准确率,因此将光节点增加到十个,分别为包括头部(head)、腹部(belly)、两个手肘(elbows)、两个手腕(wrists)、两个膝盖(knees)、两个脚踝(ankles)。
为了让数据集的关节信息更好地描述动作的特征,将关节点附近一小块区域的光流特征添加到时间边(Temporal Edge)的输入特征中。构建过程共有四个阶段:首先提取动作片段,由于数据集的视频中动作的变化幅度不大,可能连续的两帧不能提取出有效的光流图,因此对每个动作片段等间隔的抽取13帧图片,使得动作变化幅度增大,这样提取出来的光流图可以具有更好的动作表征力;然后提取光流图片,使用opencv提取每一段动作片段的光流图片(12帧光流图)并保存下来;由于光流图片是基于两帧视频帧计算的,对应的光流图片的关节点坐标可能会出现偏移,所以需要修改XML文件;最后根据得到的光流图片的关节点坐标,裁剪出每一张光流图中各关节点对应的小部分区域,但是,由于图片的尺寸都不一样,由此定义要裁减出来的区域面积为头部面积的四倍左右,其中,头部的宽度被定义为头部长度的一半。
得到人体的关节点之后,将人体的骨骼序列对应到时空图模型上来。时空图中的节点(Node)通常表示某一组件,而组件间的连接(Edge)捕获了节点的时空交互信息。动作的发生过程中,关节点之间的交互信息也可以用时空图序列捕捉。
时空图模型可以建模节点与节点之间的空间和时间关系,人体的动作可以看作是不同关节点之间随着时间流逝发生的空间变化,人体骨骼的每一个关节点都是时空图中的一个节点(Node),关节点与关节点之间的连接为时空图中节点与节点之间的连接(Edge),如图1(a)部分所示。
给定一个时空图结构,节点和边可以作为表征的特征向量,节点的特征向量所代表的是人体某一个关节点的运动特征,边所代表的节点与节点之间的交互特征,此时节点的动作特征受到节点和边的特征向量的影响,即受到节点自身的特征和该节点与其他节点之间交互特征的影响,整个一套构成了一个复杂的时空系统。将这些特征和交互信息因子化,得到因子化时空图如图1(c)所示。
时空图的结构不同,其所表征的动作特征也有所不同。同一时刻不同关节点之间的连接为时空边(Spatial-Temporal Edge);相同关节点连续时刻之间的连接为时间边(Temporal-Edge)。根据人体动作的特点,胳膊和腿的运动与身体的躯干相关,而与彼此无关,Structural-LSTM人体关节点时空图对时空边采取特定连接的方式,胳膊和双腿的节点之间没有连接。但是为了提取一些动作的隐藏特征,例如判定一个动作不仅可以从动作的发出部位判定,其他部位的运动也会对判定结果产生一定的影响,因此不同于节点之间特定的连接方式,本技术提出采用任意两节点互联的方式,并通过实验证明将时空图中节点的特定连接方式改为两两互联之后,在大部分动作的识别精度上均有提升。
本发明动作识别阶段网络输入特征包括关节点之间的欧氏距离、关节点之间的相对距离和轨迹特征(Trajectory)。欧氏距离是一个应用广泛的距离度量,它表示空间中两个点之间在m维的真实距离,本技术分别计算了时空边和时间边的输入欧氏距离;利用关节点的相对位置关系比直接使用标准化后的关节位置更能准确地描述关节之间的几何关系特征,本技术的相对距离指其它关节点坐标相对于躯干关节点之间的相对欧氏距离,躯干关节点通过头部和腹部关节点得到;轨迹特征直观上相邻位帧之间位置的差异,本技术指前后3帧差距,因为帧间距过小可能导致轨迹由不完美的标注引起抖动。
动作识别网络使用从因子化时空图中抽象出来的Structural-LSTM网络。Structural-LSTM网络前传过程的详细结构图如图2所示。
为了让网络可以自主的选择有效的输入信息,我们在LSTM网络中加入Trust Gate机制。Trust Gate机制可以帮助LSTM网络更好地决定何时记住或忘记存储单元中的内容。具体来说,此机制会通过上下文信息分析关节点的可靠性,如果不可靠,网络自动地依赖于更多的历史信息;如果可靠,网络会根据输入信息自动更新其参数。实验证明,对于关节点之间的相互关系应该是改变缓慢,不会发生突变的动作能提升识别准确率。
本技术将时空图中关节点的连接方式改为两两连接的方式,增加了时空图中的边(edge),在提高动作表征能力的同时也增加了冗余信息。根据人类在观察图像时注意力的高效分配机理,引入注意力模型使网络可以自动的关注贡献比较大的边(edge),分配更高的权值,对没有贡献或者贡献比较小的边忽略或给予更小的权重。
为了更好地描述动作的特征,本技术将关节点附近一小块区域的光流特征添加到动作特征中。光流是空间运动物体在成像平面上运动时的瞬时速度。它使用时间域中图像序列中像素的变化和相邻帧之间的相关性来找出前一帧和当前帧之间存在的对应关系,从而计算相邻帧之间对象的运动信息。现有技术大多采用关节点自身或者彼此之间的距离、角度特征,忽略了序列本身的自带的运动特征,因此加入光流特征能更好地描述动作的运动特性。
为了得到关节点附近的光流特征,本技术使用卷积神经网络进行特征提取。卷积神经网络包括卷积层、池化层和全连接层。为了缩短训练特征网络所需时间,用已经在图像分类数据集ImageNet上训练好的模型当做初始化模型,并将特征提取任务分为两个阶段:首先针对每一类动作对网络进行微调(预训练网络参数的微调,是网络更加适应当前的数据集);然后利用微调后的网络进行光流特征的提取,这样提取的光流特征更具有表征能力。
本发明的有益效果是:由于采用了时空图和LSTM建模的结构化动作识别网络,能够识别演艺场景中定点位置的演员的细粒度动作,为后续的各种智能化操作奠定了基础。
附图说明
图1是本发明涉及的时空图,其中,(a)为动作的时空图结构,(b)展开的时空图结构,(c)为因子化的时空图;
图2是本发明涉及的Structural-LSTM网络前传过程的详细结构图;
图3是本发明涉及的整体网络结构图。
具体实施方式
参见图1-3,本发明基于LSTM建模的结构化动作识别网络。近年来,人们对视频中人体动作识别做了大量研究,其中循环神经网络(Recurrent Neuron Network,RNN)是一种对序列数据建模的神经网络,在处理序列信息中具有明显的优势,能够有效挖掘数据中的时序信息以及语义信息的深度表征。
不同于传统的FNN(Feed-forward NeuralNetworks,前向反馈神经网络),RNN引入了定向循环,能够处理相关输入之间前后关联的问题,即一个序列经过网络处理后,当前时刻的输出与前面时刻的输出也有关。具体的表现形式为网络会对前面的信息进行记忆并应用于当前输出的计算中,隐藏层之间的节点不再是类似于卷积网络那种无连接的,而是隐藏层的神经元之间存在着连接,并且网络隐藏层的输入不仅包含输入层的输出,还包括上一时刻网络隐藏层的输出。给出输入集标记为{x0,...,xT-1},其隐藏单元(Hidden Units)标记{h0,...,hT-1},一个简单的RNN网络的输出{y0,…,yT-1}可以通过下列公式进行计算:
ht=H(Wxhxt+Whhht-1+bh)
zt=O(Whoht+bo)
其中,xt表示时刻t时候的输入,ht为隐藏层第t步的状态,是网络的记忆单元,ht根据当前的输入和上一步隐含层的输出进行计算,zt表示第t步的输出,Wxh表示输入层x到隐藏层h的连接权重矩阵,Whh表示隐藏层h到自身的连接权重矩阵,Who表示隐藏层h到输出层y的连接权重矩阵,bh和bo分别是相应的偏置向量,H(·)和O(·)分别是隐藏层和输出层的激活函数。
由于传统的RNN反向梯度传播的消失问题不能建立长时间的依赖信息,人们又提出了长短时记忆神经网络(Long Short Term Memory Networks,LSTM)。LSTM是在标准RNN的基础上装备了若干个控制数级(magnitude)的gates(门),用来控制信息的流动量。其中,输入门(inputgate)通过学习来决定网络的当前输入xt有多少保存到存储单元ct,而输出门通过学习来控制单元状态ct有多少输出到LSTM的当前输出值ht,遗忘门通过学习来决定上一时刻的单元状态ct-1有多少保留到当前状态ct,让梯度反向传播时能够传递到多层后,很好地解决了传统的RNN网络留有的梯度消失或爆炸问题。
LSTM的计算公式如下所示:
遗忘门ft:ft=g(Wxfxt+Whfht-1+bf)
其中,Wxf是输入到遗忘门ft的连接权重,Whf是上一时刻的隐藏状态到遗忘门ft的连接权重,g(·)一般是sigmoid激活函数。
输入门it:it=g(Wxixt+Whiht-1+bi)
同样,Wxi是输入到输入门it的连接权重,Whi是上一时刻的隐藏状态到输入门it的连接权重,g(·)一般是sigmoid激活函数。
输出门ot:ot=g(Wxoxt+Whoht-1+bo)
同样,Wxi是输入到输出门ot的连接权重,Who是上一时刻的隐藏状态到输出门ot的连接权重,g(·)一般是sigmoid激活函数。
LSTM的细胞单元在每一步迭代都需要更新期状态,首先计算的是当前输入的单元状态cin_t
cin_t=tanh(Wxcxt+Whcht-1+bc_in)
其中,Wxc是输入到当前输入的单元状态cin_t的连接权重,Whc是上一时刻的隐藏状态到当前输入的单元状态cin_t的连接权重,这里使用的激活函数为tanh。
当前时刻的单元状态ct由上一时刻的单元状态ct-1按元素乘以遗忘门ft,再用当前输入的单元状态cin_t按元素乘以输入门it,再将两个结果加和产生:
ct=ft⊙ct-1+it⊙cin_t
LSTM网络的最终的输出,是由输出门和单元状态共同确定的:
ht=at.tanh(ct)
在艺术表演中,人体的某一部分(手臂、腿等)具有单独的动作,但同时也应有彼此的协同,才能产生现实中合理的运动和姿态,在此情形下,将高级时空结构和丰富的序列建模功能结合在一起是非常必要的。
时空图是一种流行的表示高层次的时空结构,通常由节点(node)和节点之间的连接边缘(edge)构成,其中节点(node)通常表示某一组件,而节点之间的连接边缘(edge)则用于捕获节点之间的时空交互。将人体的骨骼序列对应到时空图模型上来,可以用时空图序列捕捉表演者动作的发生过程中关节点之间的交互信息。
参见图1,将人体的关节点定义为时空图中的节点(node),关节点之间的连接为时空图中的连接(edge)。
时空图可以表示为:
G=(V,ξST)
其中V表示时空图中节点的集合,ξS为时空边(spatial-temporal edge)或称空间边(spatial edge),表示在当前时刻不同节点之间的连接(edge),ξT为时间边(temporaledge),表示不同时刻相同节点之间的连接(edge)。
图1(a)是一个动作中关节点之间的(以三个节点为例)时空图结构,图中的节点v,u,w∈V,边(edges,包括直线部分与曲线部分)e∈(ξS∪ξT)。
图1(b)是将图1(a)沿着时间轴展开后的结构,在这种展开的时空图中,同一时刻不同节点之间通过时空边(spatial-temporal edge)ξS连接时e=(u,v)∈ξS;连续时刻相同节点通过时间边(temporal edge)ξT连接时e=(u,v)∈ξT
如图1(b)所示,当给定一个时空图结构以及节点
Figure BDA0002358179540000111
和边
Figure BDA0002358179540000112
所表征的特征向量时,节点(node)
Figure BDA0002358179540000113
的特征向量所代表的是人体某一个关节点的运动特征,边(edge)
Figure BDA0002358179540000114
的特征向量所代表的节点与节点之间的交互特征。
Figure BDA0002358179540000115
表示要预测的在时刻t节点v的动作特征,由于节点的动作特征
Figure BDA0002358179540000116
受到节点
Figure BDA0002358179540000117
和边
Figure BDA0002358179540000118
的特征影响,即受到节点自身的特征和该节点与其他节点之间交互特征的影响,构成了一个复杂的时空系统。通过将这些特征和交互信息因子化,整个时空图就能够通过一些简单的公式表示出来。图1(c)所示的是图1(a)因子化后的时空图结构,因子化后的时空图对于每一个节点
Figure BDA0002358179540000119
都有一个因子化方程Ψv(Yv,Xv),对每一条边
Figure BDA00023581795400001110
都有成对因子化方程Ψe(Ye(1),Ye(2),Xe)。其中ψ(·)表示因子函数,通过将交互信息参数化从而将复杂函数简单化Xv,Yv分别表示节点和节点上要预测的动作特征,Xe,Ye(1),Ye(2)分别表示边和需要预测的一条边上成对的动作特征。
为了在不增加参数数量的情况下能处理更多的节点,该模型允许语义相似的节点共享因子。因此,根据语义意义将节点划分为CV={V1,…,VP},VP为一组语义相似的节点,它们使用相同的节点因子。对边缘进行语义划分,CE={E1,…,EM},EM是节点构成语义对的一组边,EM中的所有边有相同的边因子
Figure BDA0002358179540000121
其中C表示按语义划分,V表示节点(node),E表示边(edge),P和M分别表示若干组节点和边。
采用长短时记忆(LSTM)网络来表征上述因子化方程,每一个节点的因子化方程
Figure BDA0002358179540000122
用一个LSTM网络模块来表征,该模块称为nodeLSTM,记作
Figure BDA0002358179540000123
同理,每一条边(edge)的因子化方程
Figure BDA0002358179540000124
用一个LSTM网络模块来表征,该模块称为edgeLSTM,记作
Figure BDA0002358179540000125
为了得到结构化的网络,将edgeLSTM和nodeLSTM连接起来构成一个二分图:
Figure BDA0002358179540000126
实现上述连接的前提是时空图中有一层间接连接关系,比如图1(c)中的Ψu以及Ψuv、Ψuu、Ψuw等,它们都与Vu这个节点连接,由此,可以将时空图节点之间的交互行为可以表示为一个结构化的LSTM网络,称为Structural-LSTM(参见图2)。
图2是Structural-LSTM网络前传过程的详细结构图,该前传过程包括
Figure BDA0002358179540000127
(时空边,spatial-temporal edge)以及用于表征每一条时间边(temporal edge)因子化方程的LSTM网络模块
Figure BDA0002358179540000128
(时空边,spatial edge),节点u与其他两个节点v、w相互交互,节点上的
Figure BDA0002358179540000131
的输入是时空边(spatialtemporal edge)和时间边(temporal edge)的输入的连接。
每一个nodeLSTM综合处理所有与之相连的edgeLSTM,获取与之相关的特征来表示单帧人体的动作特征。
该过程可抽象成算法1,如下:
输入:时空图G=(V,ξST),节点V={V1,…,VP},时间边ξT,空间边ξS
输出:Sturctural-LSTM网络
Figure BDA0002358179540000132
1.不同类型的边
Figure BDA0002358179540000133
2.得到gR中的每一个因子化方程
Figure BDA0002358179540000134
3.使用
Figure BDA0002358179540000135
表示
Figure BDA0002358179540000136
4.使用
Figure BDA0002358179540000137
表示
Figure BDA0002358179540000138
5.连接
Figure BDA0002358179540000139
Figure BDA00023581795400001310
组成二分图。
图3是整体的网络结构图,将Sturctural-LSTM的结果通过一个全连接分类层输出动作分类结果。
关节点之间的欧式距离:
欧氏距离(euclidean distance)定义:欧氏距离(euclidean distance)是一个普遍应用的距离度量,表示空间中两个点之间在m维的真实距离。
二维平面上两个点A(x1,y1)和B(x2,y2)的欧式距离:
Figure BDA00023581795400001311
计算两个输入特征,一个为时空边
Figure BDA00023581795400001312
的输入特征,一个为时间边
Figure BDA0002358179540000145
的输入特征。
时空边
Figure BDA0002358179540000146
的输入特征:
Figure BDA0002358179540000141
其中,
Figure BDA0002358179540000147
为t时刻的节点V1的坐标;对应的,
Figure BDA0002358179540000142
为t时刻的节点V2的坐标。
时间边
Figure BDA0002358179540000148
的输入特征:
Figure BDA0002358179540000143
其中,
Figure BDA0002358179540000149
为t时刻的节点V1的坐标,
Figure BDA00023581795400001410
为t+1时刻的节点V1的坐标。
关节点的相对距离:
利用关节点之间的相对位置关系描述它们之间的几何关系的特征比直接使用标准化后的关节位置更好。因此,采用关节点的相对距离系(其他关节点的坐标与躯干torso关节点之间的相对欧式距离)作为时间边
Figure BDA00023581795400001411
的输入特征。
若躯干(torso)关节点坐标在数据集中不存在,可以通过头部(head)和腹部(belly)关节点计算得到:
Figure BDA0002358179540000144
将所有关节点与躯干(torso)关节点之间计算相对距离,以头部(head)节点与躯干(torso)节点的相对距离为例:
Figure BDA0002358179540000151
再按照关节点之间欧氏距离的计算方法,计算出相邻帧之间同一关节点的距离特征。
时间边
Figure BDA0002358179540000154
的输入特征:
Figure BDA0002358179540000152
相关具体计算方式可依据空间边的相关方式。
轨迹特征(Trajectory):
对于轨迹特征(Trajectory),直观来看,是两个相邻(或相间)帧之间位置的差异,可以使用时刻t和时刻t+s帧之间的差异。
将沿x和y坐标的差异视为单独的两个特征,相比把它们作为一整个描述符会拥有更好的效果,该特征可以表示为:
(ft+s-ft,...,ft+ks-ft+(k+1)s)
Figure BDA0002358179540000153
其中,优选s=3。对于小s,轨迹可能由不完美的标注引起抖动,而较大的s会显示更加″真实″的运动。
区别于Bottom-up的方式,本发明所用姿态估计算法以Top-down方式进行的,首先使用人体检测器检测到图像中的人,并且将之框出来,然后将框到的人从原图中抠出来送入到全卷积网络进行回归单人的关节点位置,最终网络的输出以热图(heatmap)的方式呈现,通过非极大值机制得到关节点的位置,最后通过裁剪出来的图片与原始图片的位置对应关系,得到关节点在原始图片中的位置。
可以在现有公开的数据集(例如关节点数据集J-HMDB)以及现有表演样本集的基础上构建或优化适应于本发明目的的演艺动作关节点数据集,也可以采集演艺视频、图片等作为数据集的样本原型,挑选关节部分遮挡比较小、全身都出镜的若干类动作样本,可以手动修改每一个动作样本的起始帧和结束帧,构建成演艺动作的图像数据集。但因为标注任务很繁重,为了减轻标注人员的工作量,先利用现有关节点检测算法进行关节点的初步检测,例如,Alphapose算法。
Alphapose是一个精确的多人姿态估计器。首先通过目标检测算法,得到人体的区域框。然后将该区域框输入到STN+SPPE模块中,自动检测人体姿态。在单人检测任务(SPPE)结构上添加SSTN(对称空间变换网络,Symmetric Spatial Transformer Network),能够在不精准的区域框中提取到高质量的人体区域。最后再通过PP-NMS(Parametric Pose Non-Maximum-Suppression-NMS,参数化姿态非最大抑制)去除冗余姿态。
由于现有技术下关节点检测算法的性能还是有限的,仍然会存在一些检测错误的关节点,优先手动地修改这些检测错误的关节点,可以选用Labelimg等适宜的标注工具进行关节点的修改标注工作。Labelimg主要用来标注图像检测任务,其标注信息保存为XML文件,内容遵循Pascal voc格式,内容有标注框(boundingbox)坐标和类别信息,由于标注框需要两个点(框的左上角点和右下角点)进行确定,而本发明涉及的关节点只需要一个点,因此可以将一个关节点看作是一个″框″,只不过这个″框″的左上角点和右下角点是相同的点,修改后同一动作样本(一系列连续的视频帧)中的所有关节点信息按照时序存放在一个mat文件中,因此,一个mat文件包含了一个样本的所有关节点信息。
为了更好地描述动作的特征,将关节点附近一小块区域的光流特征添加到时间边(temporaledge)
Figure BDA0002358179540000171
的输入特征中。可以将每一个动作片段先等间隔的抽取为若干帧图片(例如,13帧),使得动作变化幅度增大,这样提取出来的光流图可以具有更好的动作表征力。可以使用OpenCV提取每一段动作片段的相应光流图片并保存下来。
因为光流图片是基于两帧视频帧计算的,对应的光流图片的关节点坐标可能会出现偏移,可以利用两帧视频帧对应的关节点坐标计算得到光流图片的关节点坐标,根据得到的光流图片的关节点坐标,裁剪出每一张光流图中各关节点对应的小部分区域。由于图片的尺寸都不一样,可以定义要裁减出来的区域面积为头部面积的四倍左右。
可以结合Kinect相机等可以获取人体骨架信息的设备,实现动作的实时识别,实现表演者或观演者与观演空间的智能互动。
在观演空间中,本发明可以通过识别表演者的动作切换舞台背景或控制舞台背景中的元素,实现表演者和舞台背景的自动交互。改变传统定时定点切换背景时易出错的弊端。
在表演过程中可以根据表演内容及舞台特点切换灯光效果,实现更真实的观演效果。
通过识别表演者或观演者的动作可以实现对观演空间中布景或舞台设施的控制。
本发明的主要创新性包括:
(1)自建15类细粒度太极拳动作关节点数据集。包括每一帧的关节点坐标以及关节点所对应的小范围(头部面积的4倍)区域的光流图。
(2)探索不同时空图结构对动作的表征能力。逐步增加关节点,对时空图中节点的不同连接方式进行实验,并在开放数据集J-HMDB和自建的太极拳动作数据集上进行了验证。实验表明,随着增加关节点和改善连接方式,两个数据集上的识别率均有所提高。
(3)添加Trust Gate机制降低关节点位置误差对动作表征力的影响;引入注意力机制降低时空图中的连接冗余;增加关节点附近区域的光流特征提高了动作的表征能力。上述改进丰富了动作特征,增强了网络对动作的表征力,提升了识别精度。

Claims (2)

1.一种适用于智能交互观演场景的演艺动作识别方法。依据定点摄像头摄录的定点画面,采用姿态估计算法进行单人的关节点检测,得到相关骨骼关键点在图像中的像素位置,建立时空图,依据时空图计算这些关节点之间的距离和角度特征,将这些特征送入到LSTM建模的结构化动作识别网络中学习动作特征,通过全连接层和Softmax函数进行动作识别。
2.如权利要求1所述的方法,其特征在于通过注意力机制降低时空图中的连接冗余。
CN202010013997.XA 2020-01-07 2020-01-07 适用于智能交互观演场景的演艺动作识别方法 Active CN111191630B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010013997.XA CN111191630B (zh) 2020-01-07 2020-01-07 适用于智能交互观演场景的演艺动作识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010013997.XA CN111191630B (zh) 2020-01-07 2020-01-07 适用于智能交互观演场景的演艺动作识别方法

Publications (2)

Publication Number Publication Date
CN111191630A true CN111191630A (zh) 2020-05-22
CN111191630B CN111191630B (zh) 2024-01-09

Family

ID=70708554

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010013997.XA Active CN111191630B (zh) 2020-01-07 2020-01-07 适用于智能交互观演场景的演艺动作识别方法

Country Status (1)

Country Link
CN (1) CN111191630B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112257845A (zh) * 2020-10-12 2021-01-22 萱闱(北京)生物科技有限公司 一种基于改进lstm模型的按压动作识别方法
CN112668492A (zh) * 2020-12-30 2021-04-16 中山大学 一种自监督学习与骨骼信息的行为识别方法
CN114973403A (zh) * 2022-05-06 2022-08-30 广州紫为云科技有限公司 一种基于时空双重维度特征深度网络的高效行为预测方法
CN115019395A (zh) * 2022-06-10 2022-09-06 杭州电子科技大学 一种基于堆叠沙漏网络的团体动作一致性的检测方法及系统
CN115457518A (zh) * 2022-08-30 2022-12-09 淮阴工学院 基于姿态感知与几何约束下的驾驶员行为识别方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170255832A1 (en) * 2016-03-02 2017-09-07 Mitsubishi Electric Research Laboratories, Inc. Method and System for Detecting Actions in Videos
CN108062505A (zh) * 2016-11-09 2018-05-22 微软技术许可有限责任公司 基于神经网络的动作检测

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170255832A1 (en) * 2016-03-02 2017-09-07 Mitsubishi Electric Research Laboratories, Inc. Method and System for Detecting Actions in Videos
CN108062505A (zh) * 2016-11-09 2018-05-22 微软技术许可有限责任公司 基于神经网络的动作检测

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
JUN LIU等: "Skeleton-Based Action Recognition Using Spatio-Temporal LSTM Network with Trust Gates", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》, vol. 40, no. 12, pages 3007 - 3019 *
LINGXIAO DONG 等: "Tai chi action recognition based on structural LSTM with attention module" *
LINGXIAO DONG 等: "Tai chi action recognition based on structural LSTM with attention module", 《THE SECOND INTERNATIONAL CONFERENCE ON IMAGE, VIDEO PROCESSING AND ARTIFICAL INTELLIGENCE》, pages 1 - 6 *
SONGYANG ZHANG 等: "On Geometric Features for Skeleton-Based Action Recognition using Multilayer LSTM Networks" *
SONGYANG ZHANG 等: "On Geometric Features for Skeleton-Based Action Recognition using Multilayer LSTM Networks", 《2017 IEEE WINTER CONFERENCE ON APPLICATIONS OF COMPUTER VISION》, pages 148 - 156 *
章树军 等: "基于深度学习的动作识别方法简述", vol. 26, no. 26, pages 44 - 48 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112257845A (zh) * 2020-10-12 2021-01-22 萱闱(北京)生物科技有限公司 一种基于改进lstm模型的按压动作识别方法
CN112668492A (zh) * 2020-12-30 2021-04-16 中山大学 一种自监督学习与骨骼信息的行为识别方法
CN112668492B (zh) * 2020-12-30 2023-06-20 中山大学 一种自监督学习与骨骼信息的行为识别方法
CN114973403A (zh) * 2022-05-06 2022-08-30 广州紫为云科技有限公司 一种基于时空双重维度特征深度网络的高效行为预测方法
CN114973403B (zh) * 2022-05-06 2023-11-03 广州紫为云科技有限公司 一种基于时空双重维度特征深度网络的行为预测方法
CN115019395A (zh) * 2022-06-10 2022-09-06 杭州电子科技大学 一种基于堆叠沙漏网络的团体动作一致性的检测方法及系统
CN115019395B (zh) * 2022-06-10 2022-12-06 杭州电子科技大学 基于堆叠沙漏网络的团体动作一致性的检测方法及系统
CN115457518A (zh) * 2022-08-30 2022-12-09 淮阴工学院 基于姿态感知与几何约束下的驾驶员行为识别方法及系统
CN115457518B (zh) * 2022-08-30 2024-01-26 淮阴工学院 基于姿态感知与几何约束下的驾驶员行为识别方法及系统

Also Published As

Publication number Publication date
CN111191630B (zh) 2024-01-09

Similar Documents

Publication Publication Date Title
Song et al. Constructing stronger and faster baselines for skeleton-based action recognition
CN111191630B (zh) 适用于智能交互观演场景的演艺动作识别方法
Liu et al. Trajectorycnn: a new spatio-temporal feature learning network for human motion prediction
Liu et al. Multi-view hierarchical bidirectional recurrent neural network for depth video sequence based action recognition
CN111160164B (zh) 基于人体骨架和图像融合的动作识别方法
CN107767419A (zh) 一种人体骨骼关键点检测方法及装置
CN111310659A (zh) 基于增进式图卷积神经网络的人体动作识别方法
Bashirov et al. Real-time rgbd-based extended body pose estimation
CN113642379A (zh) 基于注意力机制融合多流图的人体姿态预测方法及系统
CN114036969A (zh) 一种多视角情况下的3d人体动作识别算法
CN116386141A (zh) 基于单目视频的多阶段人体动作捕捉方法、设备及介质
CN113989928B (zh) 一种动作捕捉和重定向方法
Parelli et al. Spatio-temporal graph convolutional networks for continuous sign language recognition
Tao et al. Building a visual tracking system for home-based rehabilitation
Yao et al. Recurrent graph convolutional autoencoder for unsupervised skeleton-based action recognition
Zhao et al. Human action recognition based on improved fusion attention CNN and RNN
CN112199994A (zh) 一种实时检测rgb视频中的3d手与未知物体交互的方法和装置
Mocanu et al. Human activity recognition with convolution neural network using tiago robot
Cai et al. An Automatic Music-Driven Folk Dance Movements Generation Method Based on Sequence-To-Sequence Network
Li Three-dimensional diffusion model in sports dance video human skeleton detection and extraction
Yuan et al. Spatial transformer network with transfer learning for small-scale fine-grained skeleton-based tai chi action recognition
Cai et al. A method for 3D human pose estimation and similarity calculation in Tai Chi videos
Feng Deep Learning for Depth, Ego-Motion, Optical Flow Estimation, and Semantic Segmentation
Mu Pose Estimation-Assisted Dance Tracking System Based on Convolutional Neural Network
CN117671738B (zh) 基于人工智能的人体姿态识别系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant