CN113205043B - 一种基于强化学习的视频序列二维姿态估计方法 - Google Patents
一种基于强化学习的视频序列二维姿态估计方法 Download PDFInfo
- Publication number
- CN113205043B CN113205043B CN202110480110.2A CN202110480110A CN113205043B CN 113205043 B CN113205043 B CN 113205043B CN 202110480110 A CN202110480110 A CN 202110480110A CN 113205043 B CN113205043 B CN 113205043B
- Authority
- CN
- China
- Prior art keywords
- frame
- attitude
- estimator
- video
- pose
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 87
- 230000002787 reinforcement Effects 0.000 title claims abstract description 51
- 230000033001 locomotion Effects 0.000 claims abstract description 170
- 238000006243 chemical reaction Methods 0.000 claims abstract description 71
- 230000009471 action Effects 0.000 claims abstract description 31
- 230000008569 process Effects 0.000 claims description 31
- 238000012549 training Methods 0.000 claims description 26
- 230000006870 function Effects 0.000 claims description 16
- 238000002372 labelling Methods 0.000 claims description 14
- 238000009826 distribution Methods 0.000 claims description 11
- 230000008485 antagonism Effects 0.000 claims description 5
- 230000003042 antagnostic effect Effects 0.000 claims description 3
- 230000006872 improvement Effects 0.000 abstract description 5
- 238000005065 mining Methods 0.000 abstract description 4
- 239000003795 chemical substances by application Substances 0.000 description 47
- 230000036544 posture Effects 0.000 description 31
- 230000000875 corresponding effect Effects 0.000 description 7
- 238000011160 research Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000003759 clinical diagnosis Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Social Psychology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Biology (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于强化学习的视频序列二维姿态估计方法,首先构建强化学习智能体的整体状态,然后输出动作,从当前视频序列中选择一个标注帧和一个未标注帧,两帧通过姿态估计器得到姿态,并被一起送入动作转换器完成动作转换并更新姿态估计器和动作转换器,最后根据姿态估计器的提升算出智能体的回报,并更新优化智能体。本发明利用强化学习和主动学习的思想,通过充分挖掘视频中的时序信息选出最有信息量的视频帧对,从而可以很好地抵御人体自遮挡,运动模糊等问题,可提高视频姿态估计方法的准确性和鲁棒性。本发明不同于常见的监督学习方案,仅使用少量的视频标注帧来完成姿态估计器的学习,较为明显地降低了人工标注量,从而实用性更高。
Description
技术领域
本发明涉及视频二维人体姿态估计技术领域,具体涉及一种基于强化学习的视频序列二维姿态估计方法。
背景技术
视频人体姿态估计一直备受计算机视觉界研究者的关注,是计算机视觉领域中一个重要的研究方向,其核心研究内容是从单个或多个视频序列中检测人体(包括运动分割与目标分类),跟踪以及对人体运动进行识别与理解(包括姿态估计与动作识别及其描述)。其中,单目视频中人体姿态估计以期从单目视频中分析人体图像特征,进而估计人体二维姿态参数,是视频人体姿态估计中最复杂的研究分支之一。由于其涉及计算机视觉、模式识别以及人工智能等领域,是一个极具挑战的跨学科研究技术。
目前,多目视频中有标记点的三维人体运动捕获技术已经较为成熟地被广泛应用于动画制作、游戏和电影特效等领域中。但是,由于其对硬件设备要求较高、系统价格昂贵等原因并没有在其他领域得到广泛应用。相对而言,单目视频的人体姿态估计技术由于其信息采集方便、更广泛的应用前景以及对技术的更大挑战逐渐成为了一个活跃的研究领域。除此之外,现有方法大都使用带有标签的数据作为训练数据,而在视频中对人体关键点进行逐帧标注无疑是一件耗时费力的事情。视频人体姿态估计主要的应用领域包括虚拟现实与增强现实、智能人机交互、智能视频监控、游戏动画与制作、体育运动视频分析、辅助临床诊断、基于内容的视频索引与检索等,具有极为广泛的应用前景。
该问题最早的解决方案由Rohit Girdhar等人提出,将该问题分成两个阶段的问题,首先估计视频里每一帧的关键点,之后再利用时序平滑的后处理方式来进一步使姿态估计结果更精确。之后有一部分学者Tomas Pfister等人受到视频分析领域方法的启发,开始使用结合光流信息的卷积神经网络来传递姿态时序信息,主要利用视频起始部分帧和高置信度的姿态估计帧的光流信息来估计其他视频帧。然而估计的光流信息并不区分视频帧的前景和背景信息,因此会限制该类方法的性能和准确度。
另一些学者Georgia Gkioxari等人考虑使用基于循环神经网络RNN的时序序列建模方法,在RNN的基础上,提出采用几何一致性约束来解决视频帧中出现的图像降质问题,并受RNN思想的启发,提出使用时序卷积网络TCN来建模视频帧间的时序关系,取得了一定的成效。但该过程仍然需要大量人工标注过的视频帧来用于监督训练,因此会较大程度限制其在实际生活中的应用。
中国专利文献CN104715493A公开了一种运动人体姿态估计的方法,采用中值滤波的方法对深度图像数据进行预处理操作,并提出基于测地距离的迪杰斯特拉算法对人体像素进行部位标定,最终使用基于K-均值聚类算法的区域特征点提取算法来定位人体骨架点,但该方案由于使用传统算法,对人体的自遮挡,运动模糊等难点问题不具备较好的泛化性。
发明内容
本发明提出一种基于强化学习的视频序列二维姿态估计方法,用于解决或者至少部分解决现有技术的方法中姿态估计不够准确的技术问题。
为了解决上述技术问题,本发明提供了一种基于强化学习的视频序列二维姿态估计方法,包括:
S1:构建运动转换网络学习框架,运动转换网络学习框架包括强化学习智能体、姿态估计器和运动转换器,其中,强化学习智能体用于主动选择出一个未标注帧和一个已标注帧并组成帧对,姿态估计器用于分别对未标注帧和已标注帧进行姿态估计;运动转换器用于根据未标注帧、标注帧、预训练的姿态估计器的根据未标注帧的姿态估计结果、已标注帧的姿态估计结果进行运动转换,学习视频中的时序信息以及运动模式;
S2:在运动转换网络学习框架中将组成的帧对对姿态估计器和运动转换器进行联合训练,训练过程中,计算损失并进行反向传播,对运动转换器和姿态估计器进行更新,得到更新后的运动转换器和更新后的姿态估计器,其中,更新后的运动转换器将学习到的视频中的时序信息以及运动模式传递给更新后的姿态估计器;
S3:基于更新后的姿态估计器对视频序列进行二维姿态估计。
在一种实施方式中,步骤S1中强化学习智能体选择一个未标注帧和一个标注帧并组成帧对,包括:
强化学习智能体根据当前视频序列构建整体状态,整体状态包括三部分特征,分别为当前姿态估计器的性能、当前视频序列的全局信息、已有的标注帧与未标注帧的帧号对;
强化学习智能体从整体状态中获取当前状态,并根据获取的当前状态输出动作,输出动作表示从无标签视频帧的候选池中选择一个未标注帧与给定的标注帧进行配对,组成帧对。
在一种实施方式中,运动转换器包括运动转换生成器和判别器,步骤S1中运动转换的过程包括:
首次运动转换,通过运动转换生成器根据未标注帧和标注帧的真实姿态标签生成新标注帧,通过判别器指导运动转换生成器生成更真实的标注帧,并判断新标注帧与原标注帧在姿态上的一致性;
再次运动转换,通过运动转换生成器根据标注帧和未标注帧的姿态标签生成新未标注帧,通过判别器指导运动转换生成器生成更真实的未标注帧,并判断新未标注帧与原未标注帧在姿态上的一致性。
在一种实施方式中,S2具体包括:
将强化学习智能体选择出的未标注帧和标注帧输入姿态估计器;
姿态估计器对未标注帧和标注帧进行姿态估计,得到未标注帧的姿态和标注帧的姿态,其中,标注帧还包括真实姿态;
运动转换生成器将未标注帧和标注帧的真实姿态标签作为输入,重建标注帧,得到新标注帧,姿态估计器估计新标注帧的姿态;
运动转换生成器将标注帧和未标注帧的姿态标签作为输入,重建未标注帧,得到新未标注帧,姿态估计器估计新未标注帧的姿态;
判别器判断新标注帧的真假、新未标注帧的真假,并判断新标注帧与原标注帧在姿态上的一致性、新未标注帧与原未标注帧在姿态上的一致性;
根据标注帧预测的姿态标签与真实姿态标签之间的误差、重建的视频帧与目标姿态之间的误差以及姿态估计器估计的姿态误差,构建损失函数;
通过损失函数和有监督损失对运动转换器和姿态估计器进行更新,得到更新后的运动转换器和更新后的姿态估计器。
在一种实施方式中,根据标注帧预测的姿态标签与真实姿态标签之间的误差、重建的视频帧与目标姿态之间的误差以及姿态估计器估计的姿态误差,构建损失函数,包括:
其中,pLBL表示标注帧的人体姿态热图分布,punLBL′表示新未标注帧的人体姿态热图分布,pLBL′表示新标注帧的人体姿态热图分布;
其中,k表示特征层的层数,Ek(Fi′)表示在第k层计算出的Fi′的姿态,Ek(Fi)第k层计算出的Fi的姿态,Fi′表示重建的帧,Fi表示原始帧,i∈{LBL unLBL};
根据标签损失、对抗性损失以及姿态一致性损失构建损失函数Lfull:
Lfull=λ1Lgt+λ2Ladv+λ3Lpose.
其中,λ1、λ2和λ3为加权系数。
在一种实施方式中,所述方法还包括:
根据更新后的姿态估计器与更新之前的姿态估计器的性能差别,计算出基于回报。
在一种实施方式中,所述方法还包括:
将计算出的回报反馈至强化学习智能体;
基于回报对强化学习智能体进行更新。
本申请实施例中的上述一个或多个技术方案,至少具有如下一种或多种技术效果:
本发明提供的一种基于强化学习的视频序列二维姿态估计方法,通过构建运动转换网络学习框架,运动转换网络学习框架包括强化学习智能体、姿态估计器和运动转换器,强化学习智能体在主动选择出一个未标注帧和一个已标注帧并组成帧对后,通过姿态估计器进行姿态估计;再通过运动转换器根据未标注帧、标注帧以及对应的姿态估计结果进行运动转换,学习视频中的时序信息以及运动模式;在运动转换网络学习框架中将组成的帧对对姿态估计器和运动转换器进行联合训练,训练过程中,计算损失并进行反向传播,对运动转换器和姿态估计器进行更新,得到更新后的姿态估计器,更新后的运动转换器将学习到的视频中的时序信息以及运动模式传递给更新后的姿态估计器;从而可以基于更新后的姿态估计器对视频序列进行二维姿态估计。通过本发明的方法可以充分利用稀疏标注视频中的标签信息和时序信息,并最终建立一个准确和鲁棒的姿态估计器,从而提高姿态估计的准确性。
进一步地,运动转换器以强化学习智能体选出的帧对为输入,通过利用视频中运动物体的外观不变性作为自监督信号,执行双向运动转换机制(包括首次运动转换和再次运动转换),来建模视频中人体的不同运动模式,并学习到其中蕴含的运动学知识。接着通过与姿态估计器的协同训练,将学到的运动学知识传递给姿态估计器,从而来不断提升姿态估计器的性能。该运动转换器在实现标签传递的同时,还通过运动学知识的建模,进一步提升了半监督学习的效率。
进一步地,通过构建基于强化学习的选帧智能体,来挑选视频中最有信息量的帧。对于视频中少量的标注帧,通过智能体来挑选无标签帧与其配对。该智能体会充分考虑视频中的全局信息,并会通过最终姿态估计器的性能提升程度,来动态调整其选出的无标签帧,最终达到充分挖掘视频中时序信息的目的。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明具体实施例提供的基于强化学习的视频序列二维姿态估计方法的流程图;
图2为具体实施例中协同训练运动转换器和姿态估计器的流程图;
图3为图2中联合训练流程算法的伪代码示意图。
具体实施方式
本发明实施例提供了一种基于强化学习的视频序列二维姿态估计方法,用于改善现有技术的方法中姿态估计不够准确的技术问题。
本申请发明人通过大量的研究与实践发现,现有的方法主要存在以下两个技术问题:
第一、对于视频里的时序信息挖掘不够充分。现有的方法仅仅关注视频里人体运动的局部信息,而忽略了对整体运动过程的建模,当视频里出现人体的自遮挡以及运动模糊情况的时候,如果不考虑全局信息,现有方法性能将会明显降低。
第二、对于视频中少量的姿态标签信息利用不够有效。现有方法通过标签传递来实现半监督性能,但其标签传递过程大多较为简单且较为随机,没有对运动物体的运动规律做深入挖掘,也没有与客观的运动学知识相结合,从而导致其最终的姿态估计性能不佳。除此之外,该标签传递过程还需要较多的标签信息来完成这一过程,这也较为明显地降低了这些方法的半监督效率。
因此,要想解决好该问题,得到一个准确率高且足够鲁棒的姿态估计器,其关键点在于如何最大程度地利用少量的标注帧中的姿态标签信息和视频帧间的时序信息。基于此,本申请提出了一个主动式的运动转换网络学习框架,来充分利用视频中的少量标签信息和丰富的时序信息,并在运动转换网络学习框架对运动转换器和姿态更新器进行训练和更新,最终得到更新后的姿态估计器,提高对视频序列姿态估计的准确性。
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供了一种基于强化学习的视频序列二维姿态估计方法,包括:
S1:构建运动转换网络学习框架,运动转换网络学习框架包括强化学习智能体、姿态估计器和运动转换器,其中,强化学习智能体用于主动选择出一个未标注帧和一个已标注帧并组成帧对,姿态估计器用于分别对未标注帧和已标注帧进行姿态估计;运动转换器用于根据未标注帧、标注帧、预训练的姿态估计器的对未标注帧的姿态估计结果、已标注帧的姿态估计结果进行运动转换,学习视频中的时序信息以及运动模式;
S2:在运动转换网络学习框架中将组成的帧对对姿态估计器和运动转换器进行联合训练,训练过程中,计算损失并进行反向传播,对运动转换器和姿态估计器进行更新,得到更新后的运动转换器和更新后的姿态估计器,其中,更新后的运动转换器将学习到的视频中的时序信息以及运动模式传递给更新后的姿态估计器;
S3:基于更新后的姿态估计器对视频序列进行二维姿态估计。
具体来说,姿态估计器为已有的通过预训练得到的姿态估计器,运动转换器以智能体选出的帧对为输入,通过利用视频中运动物体的外观不变性作为自监督信号,执行双向运动转换机制,来建模视频中人体的不同运动模式,并学习到其中蕴含的运动学知识。接着通过与姿态估计器的协同训练,将学到的运动学知识传递给姿态估计器,从而来不断提升姿态估计器的性能。该运动转换器在实现标签传递的同时,还通过运动学知识的建模,可以提升半监督学习的效率。
在一种实施方式中,步骤S1中强化学习智能体选择一个未标注帧和一个标注帧并组成帧对,包括:
强化学习智能体根据当前视频序列构建整体状态,整体状态包括三部分特征,分别为当前姿态估计器的性能、当前视频序列的全局信息、已有的标注帧与未标注帧的帧号对;
强化学习智能体从整体状态中获取当前状态,并根据获取的当前状态输出动作,输出动作表示从无标签视频帧的候选池中选择一个未标注帧与给定的标注帧进行配对,组成帧对。
具体来说,强化学习智能体包括状态的表示和动作的表示。
状态表示,为了选择合适的帧对,强化学习智能体收到的信息应该至少包括以下两部分特征:1.姿态估计器的当前性能,以了解姿态估计器有多大的改进空间;2.视频中的全局背景信息,以了解最有信息量的帧对可能在哪里。对于性能信息来说,本申请引入了一个单独的状态集姿态估计器将在这个状态集上被测试性能。为了确保有足够的代表性,本申请对进行均匀抽样,使其与原始数据集的分布相匹配,因此在上获得的改进可以成功转移到上。对于全局背景信息来说,本申请引入了一个全局信息模块来编码姿态随时间的演变,以帮助强化学习智能体更有效地探索视频中的时序信息。此外,智能体还需要知道一些关于动作执行和视频序列的额外信息(帧号对)来重复整个优化过程。
具体来说,本申请将强化学习智能体的状态表示为一个三元组st=(Bt,Vt,ht),其中Bt、Vt、ht分别表示姿态估计器的性能信息、视频序列的全局上下文信息和一些附加信息。
对于Bt的编码,本申请使用最为常见的姿态估计器性能的评估指标--PCK。因此,本申请考虑使用姿态估计器在状态集上测试时计算的PCK分数。然而,一个离散的值--PCK分数并不能代表足够多的性能信息。因此,本申请使用每个关节的PCK得分分布作为性能的信号。此外,姿态估计器的预测置信度也很有评估价值。因此,本申请使用每个人体关节的平均最大热图响应分布作为性能的另一个信号。对于Vt的编码,了解视频中的姿态演变是必要的。为此,本申请首先逐帧计算姿态热图特征。然后,利用一个自注意力机制来加权组合热图特征以形成最终的全局上下文信息Vt。ht作为一个辅助信息,它编码了视频中当前给定标签帧的索引k,用于限制动作空间的时间窗口T,以及以帧对字典的形式表示的过去已经被智能体选中的帧对的索引。
动作的表示,在本申请的框架中,智能体输出动作是指从潜在的无标签视频帧的候选池中选择一个无标签帧与给定的有标签帧进行配对。为了有效地选择帧,本申请将每个动作限制在一个受限的未标记帧候选池中,即动作空间A=[tk-T,tk+T],其中tk是处于动作空间中心的已标记帧,T是一个有限的时间窗口。通过定义好的行动空间,智能体不仅可以向前查找以挑选出新的未使用的有信息量的帧,还可以反过来重新审视过去已经挑选出来的帧。
动作表示at是由给定的标注帧和潜在的未标记帧用姿态估计器E计算出来的。它主要由两部分组成,第一部分编码算从各个未标准帧中估计的姿态的置信度,第二部分是来自未标记帧的估计姿态坐标与真实标签姿态之间的姿态差异(对应关节点的坐标相减)。
本申请认为被送入运动变换器的帧对之间应该有适度的运动偏移。否则,运动变换器就不能很好地建模该运动的动力学知识并进而改进姿态估计器。此外,姿态估计器估计出来的未标注帧的姿态并不是足够准确,这就使得计算出来的姿态差异也随之不准确。因此,本申请需要智能体同时考虑置信度和姿态差异来做出正确的决定。本申请用φ来表示强化学习智能体的参数,并用深度Q值网络对其建模。该深度Q值网络由两个独立的分支组成,分别对状态表示和动作表示进行编码,然后将其串联起来,以估计状态-动作对的Q值。
在训练过程中,本申请在一个时间窗口T内计算每个潜在的无标签帧的动作表示,并使用深度Q值网络代理评估相应的Q值,与最大Q值相对应的动作将被选定并输出。为了使网络能找到在状态st下具有最大Q值的动作at,即找到对应该动作的未标注帧,具体如下所示:
在一种实施方式中,运动转换器包括运动转换生成器和判别器,步骤S1中运动转换的过程包括:
首次运动转换,通过运动转换生成器根据未标注帧和标注帧的真实姿态标签生成新标注帧,通过判别器指导运动转换生成器生成更真实的标注帧,并判断新标注帧与原标注帧在姿态上的一致性;
再次运动转换,通过运动转换生成器根据标注帧和未标注帧的姿态标签生成新未标注帧,通过判别器指导运动转换生成器生成更真实的未标注帧,并判断新未标注帧与原未标注帧在姿态上的一致性。
现有的方法中,由于其构建的字典是基于最基础最简单的运动学知识,导致该种方法在这种情况下受到影响,准确性和鲁棒性都会下降。本申请通过利用稀疏标注视频中的不变性信息来解决这个问题。本申请假设视频序列中的变化是人在不同时刻不同帧下的姿态及其演变,而不变性则是该视频中各帧的人物外观保持不变,由此带来的运动物体外观一致性信息。也就是说,在一段视频中,其中的运动对象在同一背景下具有相同的外观信息。基于此种假设,如果从序列中选择两帧Fa和Fb,并使用一个较弱的别人已经预训练过的姿态估计器来获得姿态Pa和Pb。那么通过运动转换器的运动转换生成器将帧Fa和目标姿态Pb作为输入,并将Fa转换为生成的虚假帧Fb'。由于该视频中两帧之间的外观不变性,可以使用真实的帧Fb作为自监督信号来监督整个过程,反之亦然。本申请将这个过程称之为运动转换,并提出一个运动转换器来实现这个过程。如果运动转换器能够正常行使功能,且通过使用自监督信号在一段视频里不同的两帧间来进行运动转换,那么运动转换器可以学习到视频序列中的不同动作的运动学知识,并进一步将其传递给姿态估计器,从而使得姿态估计器在这一过程中逐渐变得越来越准确。
然而,对于参与该运动转换过程的两帧的选择来说,也需要非常慎重。如果选择的两帧的运动偏移很小,运动转换器则因为没有足够多的新信息而无法正常发挥功能,如果选择的两帧的运动偏移过大,运动转换器也没有办法有效建模两帧之间的运动偏移,进而无法有效地进行运动转换,并将学习到的错误知识传递给姿态估计器,最终导致姿态估计器的准确率下降因此,本申请提出了一种基于强化学习的选帧智能体来主动选择帧。智能体来主动选择那些帧之间有适度的运动偏移的帧对,并将其送给运动转换器。通过智能体的主动帧选择,运动转换器可以最大限度地发挥运动转换的潜能,最终在视频中产生一个准确且鲁棒的姿态估计器。
需要注意的是,上述整个过程仅以自监督的方式进行,它所需要和利用的只是视频帧间的时序信息这意味着本申请可以在数以亿计的没有任何标注的视频中完成这一过程,并以一种无监督学习的方式解决该问题。然而,正如实验所证明的,不能只用时序信息来发挥姿态估计器的性能。原因是姿态估计器估计的输入目标姿态Pb一般不够准确,不能保证运动转换器的功能良好运转。如果使用有标注的帧Fb的姿态作为目标姿态来进行其中一个方向的运动转换,可以给运动转换器一些额外的信息指导。如果这样做的话,运动转换器也可以更好地处理另一个方向的运动转换,在这个过程中,未标注帧被姿态估计器所估计的姿态会作为目标姿态。因此,在这个过程中,也需要一些标注的姿态信息来释放运动转换器的潜力。
具体来说,本申请中的运动转换器主要包含两个模块:运动转换生成器和判别器,来执行运动转换,最终为姿态估计器的预测结果提供约束。运动转换器被设计用来学习两个被选中帧中的时序信息。由于不同的运动有不同的速度和幅度,不同视频序列的两帧中的运动模式是不同的。如果能对运动模式的多样性进行建模和学习,并将知识传递给姿态估计器,姿态估计器将是稳健的和更加准确。受此启发,在本申请的运动转换器中,在两个选定的帧之间进行运动转换,并采用这两个帧中计算出的图像层面误差和姿态相关的特征层面误差作为监督信号,图像层面误差和姿态相关的特征层面误差即为姿态一致性损失。本申请建立运动转换器,用于对未标注的帧进行半监督学习。转换生成器将人物图像和目标姿态作为输入,并生成人物在目标姿态下的新帧。
运动转换器被用来1、从其真实姿态和未标注的帧中重建已标注的帧(生成新标注帧),以学习前向的运动偏移,称为前向运动转换2、从其估计姿态和已标注的帧中重建未标注的帧,这被称为反向运动转换。本申请把这种机制称为运动转换。除此之外,本申请还引入了一个基于卷积神经网络的判别器,以更好地以对抗性方式使用视频帧的自监督信号。判别器根据视频帧中运动对象的姿态是否与给定的姿态相匹配来估计给定的姿态和生成的人物图像是否匹配,使用判别器能进一步提高本申请姿态估计器的准确性。
在具体实施过程中,首次运动转换为正向运动转换:
FLBL′=G(FunLBL,Pgt),
其中,FLBL′表示生成器G根据原未标注帧FunLBL和标注帧的真实姿态标签Pgt重建的新标注帧,
再次运动转换为反向运动转换:
FunLBL′=G(FLBL,PunLBL),
FunLBL′表示生成器根据原标注帧FLBL和未标注帧的估计姿态标签PunLBL重建的新未标注帧,
生成完两个新的视频帧(FLBL′、FunLBL′)后,再将它们送进姿态估计器E:
PLBL′=E(FLBL′),
PunLBL′=E(FunLBL′),
得到对应的姿态,PLBL′为FLBL′的估计姿态,PunLBL′为FunLBL′的估计姿态。
除此之外,判别器也会判断新生成的图像和原始视频帧是否具有姿态一致性:
给定一个帧Fi和估计的姿态Pi,判别器Dis对姿态和输入帧的一致性进行概率评分。
pi=Dis([Fi Pi])
其中i∈(LBL unLBL),[··]表示通道间的级联。pi对输入帧Fi和姿态Pi对进行评分。通过提供姿态和外观信息作为判别器的输入,鼓励生成器G重建更真实的帧,并且同时考虑到重建帧与目标帧的姿态一致性。
在一种实施方式中,S2具体包括:
将强化学习智能体选择出的未标注帧和标注帧输入姿态估计器;
姿态估计器对未标注帧和标注帧进行姿态估计,得到未标注帧的姿态和标注帧的姿态,其中,标注帧还包括真实姿态;
运动转换生成器将未标注帧和标注帧的真实姿态标签作为输入,重建标注帧,得到新标注帧,姿态估计器估计新标注帧的姿态;
运动转换生成器将标注帧和未标注帧的姿态标签作为输入,重建未标注帧,得到新未标注帧,姿态估计器估计新未标注帧的姿态;
判别器判断新标注帧的真假、新未标注帧的真假,并判断新标注帧与原标注帧在姿态上的一致性、新未标注帧与原未标注帧在姿态上的一致性;
根据标注帧预测的姿态标签与真实姿态标签之间的误差、重建的视频帧与目标姿态之间的误差以及姿态估计器估计的姿态误差,构建损失函数;
通过损失函数和有监督损失对运动转换器和姿态估计器进行更新,得到更新后的运动转换器和更新后的姿态估计器。
请参见图2,为具体实施过程中,运动转换器和姿态估计器的联合训练流程图。
其中,在首次运动转换时,重建的视频帧是指根据未标注帧和标注帧的真实姿态标签生成的新标注帧,目标姿态是指标注帧的真实姿态。在再次运动转换时,重建的视频帧是指根据标注帧和未标注帧的姿态标签生成的新未标注帧,目标姿态是指未标注帧的姿态标签。
联合训练的流程算法的伪代码如图3所示。其中,整体loss是通过损失函数Lfull来计算。
在一种实施方式中,根据标注帧预测的姿态标签与真实姿态标签之间的误差、重建的视频帧与目标姿态之间的误差以及姿态估计器估计的姿态误差,构建损失函数,包括:
其中,pLBL表示标注帧的人体姿态热图分布,punLBL′表示新未标注帧的人体姿态热图分布,pLBL′表示新标注帧的人体姿态热图分布;
其中,k表示特征层的层数,Ek(Fi′)表示在第k层计算出的Fi′的姿态,Ek(Fi)第k层计算出的Fi的姿态,Fi′表示重建的帧,Fi表示原始帧,i∈{LBL unLBL};
根据标签损失、对抗性损失以及姿态一致性损失构建损失函数Lfull:
Lfull=λ1Lgt+λ2Ladv+λ3Lpose.
其中,λ1、λ2和λ3为加权系数。
具体来说,标签损失为预测的热图和真实标签热图之间的均方误差,该损失只对有标签的帧进行计算,热图为姿态的表示形式。对抗性损失的目的是为了鼓励重建的视频帧中的姿态与目标姿态尽可能一致。而上述两种损失在姿态方面没有对重建帧的直接限制,为了解决该问题,本申请还通过提出姿态一致性损失来使得重建帧和真实帧在语义层面能尽可能地相似。
在一种实施方式中,所述方法还包括:
根据更新后的姿态估计器与更新之前的姿态估计器的性能差别,计算出基于回报。
具体实施过程中,在用智能体选择的帧对联合训练姿态估计器和运动转换器之后,更新的姿态估计器E将在时间tth的状态数据集Dr上进行评估,得到得分PCKt。回报信号是通过检查新挑选的帧是否能提高姿态估计的准确性来计算的。因此,本申请将回报信号定义为:
从上述可知,只有当新更新的姿态估计器优于之前的任何一个估计器时,智能体才会得到奖励。否则,智能体就会根据准确度的下降而收到惩罚。因此,奖励函数作为一个明确的代理,可有效表明所选帧对姿态估计器E性能提升的有效性。
在一种实施方式中,所述方法还包括:
将计算出的回报反馈至强化学习智能体;
基于回报对强化学习智能体进行更新。
具体实施过程中,本申请用φ来表示强化学习智能体的参数,并用深度Q值网络对其建模。该深度Q值网络由两个独立的分支组成,分别对状态表示和动作表示进行编码,然后将其串联起来,以估计状态-动作对的Q值。
并采用三个独立的数据集(训练集状态集回报集)来更稳健地估计模型的状态和奖励。这三个数据集的分离有助于避免状态估计、动作生成和奖励估计之间的相互拟合。在训练过程中,本申请使用了一个经验重放缓冲区,这使得本申请可以对过去较少使用的经验进行采样,并将其作为训练样本,从而更有效地训练深度Q值网络。
为了获得对TD目标yt的精确估计,本申请用双深度Q值网络公式进一步解耦行动评估和行动选择过程。本申请不假设该网络总是达到了最佳的Q值,而是在额外的深度Q值网络的帮助下估计TD目标,参数为φ′。然后,TD目标yt被定义为:
yt=rt+1+γQ(st+1,at+1;φ′),
对应的动作表示为:
上述两个公式分别用于计算智能体的动作和评估智能体的动作。
为了更清楚地说明本发明的方法,下面通过一个实施例予以说明和介绍。
请参见图1,为基于强化学习的视频序列二维姿态估计方法的流程图;
本发明构建的主动运动转换网络学习框架由三部分构成,分别是:强化学习智能体、姿态估计器E和运动转换器,本申请可以将该框架看作是一个马尔科夫决策过程该决策过程简单而言可概括成如下几步:1、强化学习智能体首先根据各类所需信息构建状态st;2、强化学习智能体根据状态st输出选帧动作at,选出一个标注帧和一个未标注帧;3、通过选出的两帧在姿态估计器和运动转换器中的联合训练及优化,更新姿态估计器和运动转换器;4、根据姿态估计器更新前后的性能提升算出回报rt+1,并将回报rt+1传回智能体;5、智能体根据回报rt+1更新自身并构建新的状态st+1,进行下一次决策过程。
在此过程中,本申请将整个数据集一分为三,分成三个子集用于优化上述决策过程。这三个子集分别是:训练集状态集回报集训练集包含多个稀疏标注的视频序列,用于姿态估计器和运动转换器的更新及优化;状态集是从原数据集均匀采样而来,用来表征姿态估计器当前的性能状态,该状态集司样为稀疏标准的视频序列,但其数量远少于原始数据集;回报集用来表征姿态估计器的当前性能提升,可作为强化学习智能体选帧动作的奖励。
本发明可提高视频姿态估计方法的准确性和鲁棒性,具有如下优点或者有益技术效果:1、利用强化学习和主动学习的思想,通过充分挖掘视频中的时序信息选出最有信息量的视频帧对,从而可以很好地抵御人体自遮挡,运动模糊等问题;2、本方案提出的运动转换器,可以通过建模视频中不同运动的运动学知识,并利用运动对象的外观不变性来作为自监督信息,来提升姿态估计器的性能;3、本发明不同于常见的监督学习方案,仅使用少量的视频标注帧来完成姿态估计器的学习,较为明显地降低了人工标注量,从而具备更多实用性。
本发明中所描述的具体实施的例子仅仅是对本发明的方法和步骤的举例说明。本发明所述技术领域的技术人员可以对所描述的具体实施步骤做相应的修改或补充或变形(即采用类似的替代方式),但是不会背离本发明的原理和实质或者超越所附权利要求书所定义的范围。本发明的范围仅由所附权利要求书限定。
Claims (6)
1.一种基于强化学习的视频序列二维姿态估计方法,其特征在于,包括:
S1:构建运动转换网络学习框架,运动转换网络学习框架包括强化学习智能体、姿态估计器和运动转换器,其中,强化学习智能体用于主动选择出一个未标注帧和一个已标注帧并组成帧对,姿态估计器用于分别对未标注帧和已标注帧进行姿态估计;运动转换器用于根据未标注帧、标注帧、预训练的姿态估计器的对未标注帧的姿态估计结果、已标注帧的姿态估计结果进行运动转换,学习视频中的时序信息以及运动模式;
S2:在运动转换网络学习框架中将组成的帧对对姿态估计器和运动转换器进行联合训练,训练过程中,计算损失并进行反向传播,对运动转换器和姿态估计器进行更新,得到更新后的运动转换器和更新后的姿态估计器,其中,更新后的运动转换器将学习到的视频中的时序信息以及运动模式传递给更新后的姿态估计器;
S3:基于更新后的姿态估计器对视频序列进行二维姿态估计;
运动转换器包括运动转换生成器和判别器,步骤S1中运动转换的过程包括:
首次运动转换,通过运动转换生成器根据未标注帧和标注帧的真实姿态标签生成新标注帧,通过判别器指导运动转换生成器生成更真实的标注帧,并判断新标注帧与原标注帧在姿态上的一致性;
再次运动转换,通过运动转换生成器根据标注帧和未标注帧的姿态标签生成新未标注帧,通过判别器指导运动转换生成器生成更真实的未标注帧,并判断新未标注帧与原未标注帧在姿态上的一致性。
2.如权利要求1所述的二维姿态估计方法,其特征在于,步骤S1中强化学习智能体选择一个未标注帧和一个标注帧并组成帧对,包括:
强化学习智能体根据当前视频序列构建整体状态,整体状态包括三部分特征,分别为当前姿态估计器的性能、当前视频序列的全局信息、已有的标注帧与未标注帧的帧号对;
强化学习智能体从整体状态中获取当前状态,并根据获取的当前状态输出动作,输出动作表示从无标签视频帧的候选池中选择一个未标注帧与给定的标注帧进行配对,组成帧对。
3.如权利要求2所述的二维姿态估计方法,其特征在于,S2具体包括:
将强化学习智能体选择出的未标注帧和标注帧输入姿态估计器;
姿态估计器对未标注帧和标注帧进行姿态估计,得到未标注帧的姿态和标注帧的姿态,其中,标注帧还包括真实姿态;
运动转换生成器将未标注帧和标注帧的真实姿态标签作为输入,重建标注帧,得到新标注帧,姿态估计器估计新标注帧的姿态;
运动转换生成器将标注帧和未标注帧的姿态标签作为输入,重建未标注帧,得到新未标注帧,姿态估计器估计新未标注帧的姿态;
判别器判断新标注帧的真假、新未标注帧的真假,并判断新标注帧与原标注帧在姿态上的一致性、新未标注帧与原未标注帧在姿态上的一致性;
根据标注帧预测的姿态标签与真实姿态标签之间的误差、重建的视频帧与目标姿态之间的误差以及姿态估计器估计的姿态误差,构建损失函数;
通过损失函数和有监督损失对运动转换器和姿态估计器进行更新,得到更新后的运动转换器和更新后的姿态估计器。
4.如权利要求3所述的二维姿态估计方法,其特征在于,根据标注帧预测的姿态标签与真实姿态标签之间的误差、重建的视频帧与目标姿态之间的误差以及姿态估计器估计的姿态误差,构建损失函数,包括:
其中,pLBL表示标注帧的人体姿态热图分布,punLBL′表示新未标注帧的人体姿态热图分布,pLBL'表示新标注帧的人体姿态热图分布;
其中,k表示特征层的层数,Ek(Fi')表示在第k层计算出的Fi'的姿态,Ek(Fi)第k层计算出的Fi的姿态,Fi'表示重建的帧,Fi表示原始帧,i∈{LBL unLBL};
根据标签损失、对抗性损失以及姿态一致性损失构建损失函数Lfull:
Lfull=λ1Lgt+λ2Ladv+λ3Lpose.
其中,λ1、λ2和λ3为加权系数。
5.如权利要求1所述的二维姿态估计方法,其特征在于,所述方法还包括:
根据更新后的姿态估计器与更新之前的姿态估计器的性能差别,计算出回报。
6.如权利要求5所述的二维姿态估计方法,其特征在于,所述方法还包括:
将计算出的回报反馈至强化学习智能体;
基于回报对强化学习智能体进行更新。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110480110.2A CN113205043B (zh) | 2021-04-30 | 2021-04-30 | 一种基于强化学习的视频序列二维姿态估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110480110.2A CN113205043B (zh) | 2021-04-30 | 2021-04-30 | 一种基于强化学习的视频序列二维姿态估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113205043A CN113205043A (zh) | 2021-08-03 |
CN113205043B true CN113205043B (zh) | 2022-06-07 |
Family
ID=77029621
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110480110.2A Active CN113205043B (zh) | 2021-04-30 | 2021-04-30 | 一种基于强化学习的视频序列二维姿态估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113205043B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114363702B (zh) * | 2021-12-28 | 2023-09-08 | 上海网达软件股份有限公司 | Sdr视频转换为hdr视频的方法、装置、设备及存储介质 |
CN115797851B (zh) * | 2023-02-09 | 2023-05-05 | 安徽米娱科技有限公司 | 一种动漫视频处理方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105550678A (zh) * | 2016-02-03 | 2016-05-04 | 武汉大学 | 基于全局显著边缘区域的人体动作特征提取方法 |
CN109858430A (zh) * | 2019-01-28 | 2019-06-07 | 杭州电子科技大学 | 一种基于强化学习优化的多人姿态检测方法 |
CN111325797A (zh) * | 2020-03-03 | 2020-06-23 | 华东理工大学 | 一种基于自监督学习的位姿估计方法 |
CN112347861A (zh) * | 2020-10-16 | 2021-02-09 | 浙江工商大学 | 一种基于运动特征约束的人体姿态估计方法 |
WO2021034864A1 (en) * | 2019-08-21 | 2021-02-25 | XNOR.ai, Inc. | Detection of moment of perception |
CN112597883A (zh) * | 2020-12-22 | 2021-04-02 | 武汉大学 | 一种基于广义图卷积和强化学习的人体骨架动作识别方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11179064B2 (en) * | 2018-12-30 | 2021-11-23 | Altum View Systems Inc. | Method and system for privacy-preserving fall detection |
CN110222665B (zh) * | 2019-06-14 | 2023-02-24 | 电子科技大学 | 一种基于深度学习和姿态估计的监控中人体动作识别方法 |
CN112633220B (zh) * | 2020-12-30 | 2024-01-09 | 浙江工商大学 | 一种基于双向序列化建模的人体姿态估计方法 |
-
2021
- 2021-04-30 CN CN202110480110.2A patent/CN113205043B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105550678A (zh) * | 2016-02-03 | 2016-05-04 | 武汉大学 | 基于全局显著边缘区域的人体动作特征提取方法 |
CN109858430A (zh) * | 2019-01-28 | 2019-06-07 | 杭州电子科技大学 | 一种基于强化学习优化的多人姿态检测方法 |
WO2021034864A1 (en) * | 2019-08-21 | 2021-02-25 | XNOR.ai, Inc. | Detection of moment of perception |
CN111325797A (zh) * | 2020-03-03 | 2020-06-23 | 华东理工大学 | 一种基于自监督学习的位姿估计方法 |
CN112347861A (zh) * | 2020-10-16 | 2021-02-09 | 浙江工商大学 | 一种基于运动特征约束的人体姿态估计方法 |
CN112597883A (zh) * | 2020-12-22 | 2021-04-02 | 武汉大学 | 一种基于广义图卷积和强化学习的人体骨架动作识别方法 |
Non-Patent Citations (3)
Title |
---|
Deep Reinforcement Learning for Active Human Pose Estimation;Erik Gartner 等;《The Thirty-Fourth AAAI Conference on Artificial Intelligence (AAAI-20)》;20201231;第10835-10844页 * |
Multi-Correlation Filters With Triangle-Structure Constraints for Object Tracking;Weijian Ruan 等;《IEEE TRANSACTIONS ON MULTIMEDIA》;20190531;第20卷(第5期);第1122-1134页 * |
针对不可微多阶段算法的环境升级式强化学习方;谢树钦 等;《重庆邮电大学学报(自然科学版)》;20201031;第32卷(第5期);第857-866页 * |
Also Published As
Publication number | Publication date |
---|---|
CN113205043A (zh) | 2021-08-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhao et al. | Learning to forecast and refine residual motion for image-to-video generation | |
Luo et al. | 3d human motion estimation via motion compression and refinement | |
Xu et al. | X-invariant contrastive augmentation and representation learning for semi-supervised skeleton-based action recognition | |
WO2023116635A1 (zh) | 一种基于互学习的半监督医学图像分割方法及其系统 | |
Rothfuss et al. | Deep episodic memory: Encoding, recalling, and predicting episodic experiences for robot action execution | |
CN113205043B (zh) | 一种基于强化学习的视频序列二维姿态估计方法 | |
CN111597946B (zh) | 图像生成器的处理方法、图像生成方法及装置 | |
CN111401106B (zh) | 一种行为识别方法、装置及设备 | |
Zhang et al. | Semi-supervised action quality assessment with self-supervised segment feature recovery | |
Labuguen et al. | Primate markerless pose estimation and movement analysis using DeepLabCut | |
CN111199207B (zh) | 基于深度残差神经网络的二维多人体姿态估计方法 | |
CN113780059B (zh) | 一种基于多特征点的连续手语识别方法 | |
CN117671738B (zh) | 基于人工智能的人体姿态识别系统 | |
CN115223201A (zh) | 基于单目序列图像的三维人体关节点估算方法、系统及装置 | |
CN114170353A (zh) | 一种基于神经网络的多条件控制的舞蹈生成方法及系统 | |
CN117809109A (zh) | 基于多尺度时间特征的行为识别方法 | |
Chen et al. | Learning variational motion prior for video-based motion capture | |
CN111753657A (zh) | 一种基于自训练的文本检测器训练方法及系统 | |
Palanimeera et al. | Yoga posture recognition by learning spatial-temporal feature with deep learning techniques | |
CN114373146B (zh) | 基于骨骼信息和时空特征的参会动作识别方法 | |
Chen et al. | Movement Evaluation Algorithm‐Based Form Tracking Technology and Optimal Control of Limbs for Dancers | |
CN115187633A (zh) | 一种六自由度视觉反馈实时运动跟踪方法 | |
CN113688790A (zh) | 一种基于图像识别的人体动作预警方法及系统 | |
CN111881979A (zh) | 多模态数据标注装置及包含程序的计算机可读存储介质 | |
Chen et al. | VIT and Bi-LSTM for Micro-Expressions Recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |