CN113537393A - 一种基于改进Transformer的黑暗场景三维人体姿态估计算法 - Google Patents
一种基于改进Transformer的黑暗场景三维人体姿态估计算法 Download PDFInfo
- Publication number
- CN113537393A CN113537393A CN202110907362.9A CN202110907362A CN113537393A CN 113537393 A CN113537393 A CN 113537393A CN 202110907362 A CN202110907362 A CN 202110907362A CN 113537393 A CN113537393 A CN 113537393A
- Authority
- CN
- China
- Prior art keywords
- human body
- dimensional
- convolution
- body posture
- posture estimation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于改进Transformer的黑暗场景三维人体姿态估计算法,包括以下步骤:制作黑暗场景下人体姿态数据集,并进行数据增强;训练二维人体姿态估计模型,并将经过处理后的图像首先进行二维人体姿态估计,得到人体关节点的二维坐标;将得到的二维关节点坐标组成特征序列作为改进Transformer的输入实现三维人体姿态估计;将训练好的模型部署到移动端设备。本发明在黑暗场景下具有准确率较高和实用性较好等优点。
Description
技术领域
本发明涉及深度学习、计算机视觉、三维人体姿态估计。尤其涉及一种基于改进Transformer的黑暗场景三维人体姿态估计算法。
背景技术
人体姿态估计是在计算机视觉领域的基础研究,也是一个热点研究。在医学领域、虚拟现实(VR)、人机交互等领域有着广泛的应用。目前,三维人体姿态估计方法主要有两类:基于传统方法的人体姿态估计和基于深度学习的人体姿态估计。
基于传统方法的人体姿态估计是通过建立人体的模型来描述和推测人体姿态,通过算法来提取姿态特征。例如,《random-forest-based human pose estimation using amulti-scale and cascade approach》一文采用随机森林来判断前景中每个像素点属于身体的哪个部位,并使用随机回归森林来判断人体的所有关节点。《A data-driven approachfor real-time full body pose reconstruction from a depth camera》一文使用数据驱动的模板匹配算法来进行姿态估计,再由算法对姿态进行精确调整。尽管传统方法处理速度快,但由于自身模型的限制,存在着精度不足等问题。而且传统方法容易受光照、遮挡等因素影响,鲁棒性不高。
基于深度学习的三维人体姿态估计主要是通过深度卷积网络提取图像特征,然后再通过特征图得到关节点的位置。例如,《human pose estimation from mono-cularimages with deep convolutional neural network》一文通过训练网络,直接从图像中回归计算三维人体关节位置。《A simple yet effective baseline for 3D human poseestimation》一文以2D人体姿态估计为基础,首先获得2D人体姿态结果,然后通过简单的神经网络将2D姿态回归到3D人体姿态。基于深度学习的三维人体姿态估计相较于传统方法精度有较大的提升,但是特定场景下,如黑暗场景下依旧存在着准确率低,鲁棒性差等问题。
发明内容
本发明的目的是为了解决在黑暗场景条件下三维人体姿态估计准确率较低、鲁棒性较差的问题,提出一种基于改进Transformer的黑暗场景三维人体姿态估计算法。
本发明采用的技术方案为:一种基于改进Transformer的黑暗场景三维人体姿态估计算法,包括如下步骤:
S1、通过摄像头以一定帧率拍摄黑暗场景下的人体姿态,制作黑暗场景下人体姿态数据集,并进行数据增强;
所述数据增强方式包括:随机旋转、随机缩放和随机饱和度调整;所述随即旋转即将图片随机旋转-45度~+45度,随机缩放为将图片随机缩放为原图的 0.7~1.2倍,随机饱和度调整的实施方法为首先设定一个阈值t(本发明中t=0.5),接着在(0,1)内随机选取一个数a,如果,则饱和度调整的比例为a,如果,则在 (-a,a)内随机选取一个数b,饱和度调整的比例为b+1;
S2、训练二维人体姿态估计模型,并将进行数据处理后的图像首先进行二维人体姿态估计,得到人体关节点的二维坐标,具体包括:
S21、采用级联金字塔网络(CPN)进行二维人体姿态估计,并且使用Mask R-CNN进行人体边界框检测,其中Mask R-CNN使用ResNet101作为backbone;
S22、在S21搭建完毕的模型的基础上,CPN选择ResNet50作为backbone,输入图片大小为384×288;
S23、重新初始化网络最后一层,使得人体关节点热图(heatmap)回归到Human3.6M数据集所对应的二维关节点;
S24、训练好级联金字塔网络模型后,将S1中数据增强后的图片输入到级联金字塔网络中进行二维人体姿态估计,得到二维人体关节点坐标;
上述训练过程中模型超参数设定为:迭代100000次,选择Adam优化器,单批次训练样本数量为16,学习率使用逐步衰减的策略,初始学习率为0.0005,每20000轮衰减一次,衰减率为0.1;
S3、训练改进Transformer模型,将所有人体关节点的二维坐标组成一个特征序列输入到改进Transformer中进行三维人体姿态估计,得到人体关节点的三维坐标;
本发明通过可切换时域空洞网络、姿态图卷积对Transformer进行改进并在Human3.6M数据集上训练改进后的Transformer模型,具体包括:
S31、本发明的可切换时域空洞网络结构:输入可切换时域空洞网络的特征序列大小为(243,34),输入特征序列经过一个卷积核大小为3、空洞率为1、输出通道数为544的1D卷积,然后特征经过B个具有残差结构的Block。每一个 Block首先经过一个卷积核大小为3、空洞率为3C(C∈[1,B])的1维可切换时域空洞卷积,之后特征序列经过一个卷积核大小为1,空洞率为1的1D卷积。每一个卷积后面都有一组1维的批量归一化层、ReLU激活函数以及Dropout层;
S32、本发明可切换时域空洞卷积:输入可切换时域空洞卷积的特征序列大小为(H,544),其中H表示H帧图像,544表示通道数,输入特征序列首先分别经过卷积核大小为3、步长为1、空洞率为3C的时域空洞卷积、卷积核大小为S,空洞率为1的标准卷积以及自注意力。经过自注意力的特征序列大小为H×H,之后经过平均池化特征大小变为(H,1),再经过卷积核大小为1的1D卷积和 Softmax得到转换因子(Switchable factor)M;M与经过卷积核大小为3的时域空洞卷积进行特征提取后的特征序列相乘得到特征序列K2,而(1-M)与卷积核大小为S的标准卷积进行特征提取得到的特征序列相乘得到特征序列K1;
S33、本发明的图自注意力机制:机制中的Q先经过姿态图卷积聚合特征序列中关节点的局部特征信息,然后与K进行矩阵相乘,再经过Softmax得到权重矩阵,最后和V相乘得到图自注意力机制的输出。
S34、所述人体关节点的关系包括人体关节点邻接关系、人体关节点对称关系、人体关节点运动关联关系;
S35、所述人体关节点运动关联关系共有四类:左手腕连接右脚踝、左手肘连接右膝盖、右手腕连接左脚踝、右手肘连接左膝盖;
S36、本发明模型损失由两个部分组成,一个部分是三维坐标差:本发明的M=17,ρi为模型预测的第i关节点的三维坐标,表示第i个关节点三维坐标的真实值;另一部分是人身体对称部分骨骼长度差:人体对称部分骨骼差含义是人体右手腕和右手肘的长度与人体左手腕与左手肘的长度相同,即二者理想差值应该为0,其中UC表示左边第C个骨骼长度,表示右边第C个骨骼长度。C∈[1,6],本发明损失函数表达式如下:
L=λ1×LP+λ2×LG
其中,λ1和λ2,为各自系数,本发明中λ1=2,λ2=1;
S37、以上改进为基础,搭建改进Transformer模型。模型超参数设置:选择Amsgrad优化器,共训练80个epoch,学习率采用指数衰减策略(每一轮都衰减,衰减因子为0.95),初始学习率为0.001。
S4、将训练好的模型部署到移动端设备例如Jetson TX2上,完成黑暗场景下三维人体姿态估计。
有益效果:本发明首先基于时域空洞卷积模型提出可切换时域空洞卷积网络,通过可切换时域空洞卷积对时域空洞卷积进行改进,使得模型能够根据输入特征自适应决定学习相邻特征信息还是长范围特征信息。接着,提出姿态图卷积对 Transformer的自注意力机制进行改进,提升Transformer提取局部特征的能力。最后,提出三种人体关节点的连接关系,提升姿态图卷积聚合人体关节点特征的能力。本发明在黑暗场景下具有准确率较高和实用性较好等优点。
附图说明
图1为本发明实施例的可切换时域空洞网络结构图;
图2为改进自注意力机制图;
图3为本发明实施例的姿态图卷积中节点连接关系图。
具体实施方式
下面将结合附图和具体实施方式对本发明作进一步说明。
本发明提出一种基于改进Transformer的黑暗场景下的三维人体姿态估计算法,包括以下步骤:
步骤1:摄像头拍摄黑暗场景中的人体姿态。
本发明中通过摄像机获取黑暗场景下的人体姿态图,由于拍摄到的图片存在噪声,需要进行数据处理,对拍摄到的图片进行数据增强。本发明数据增强方法包括:随即旋转、随机缩放、随机饱和度调整等。随即旋转即将图片随机旋转-45 度~+45度。随机缩放为将图片随机缩放为原图的0.7~1.2倍。随机饱和度调整的实施方法为首先设定一个阈值t(本法发明中t=0.5),接着在(0,1)内随机选取一个数a,如果a≥t,则饱和度调整的比例为a,如果a≤t,则在(-a,a)内随机选取一个数b,饱和度调整的比例为b+1。
步骤2:训练二维人体姿态估计模型,并对增强后的图片进行二维人体姿态估计:
本发明实施例选择级联金字塔网络(CPN)进行二维人体姿态估计。由于CPN 进行人体姿态估计时采用自顶向下策略,需要提供人体边界框,本发明使用Mask R-CNN进行人体边界框检测,其中Mask R-CNN使用ResNet101作为backbone。本发明的CPN选择ResNet50作为backbone,输入图片大小为384×288。本发明首先在COCO数据集上对CPN进行预训练,由于COCO数据集部分关节点和 Human3.6M中不同,本发明在Human3.6M数据集上对在COCO数据集上预训练的二维关节点进行微调,具体来说重新初始化网络最后一层,使得人体关节点热图(heatmap)回归到Human3.6M数据集所对应的二维关节点。二维人体姿态估计使用Human3.6M中提供的二维坐标作为数据集,共迭代100000次,优化器选择Adam,单批次训练样本数量(batch-size)为16,学习率使用逐步衰减的策略,即初始学习率为0.0005,每20000轮衰减一次,衰减率为0.1。
训练好级联金字塔网络模型后,将步骤1中数据增强后的图片输入到级联金字塔网络中进行二维人体姿态估计,得到二维人体关节点坐标。
步骤3:搭建并训练改进Transformer模型,将二维关节点坐标组成特征序列输入改进Transformer模型中进行三维人体姿态估计。
本发明实施例中通过可切换时域空洞网络、姿态图卷积对Transformer模型进行改进,提升Transformer提取局部特征的能力。
图1展示本发明实施例的可切换时域空洞网络结构图。具体来说,输入可切换时域空洞网络的特征序列大小为(243,34),输入特征序列首先经过一个卷积核大小为3、空洞率为1、输出通道数为544的1D卷积,接着特征经过B个具有残差结构的Block。每一个Block首先经过一个卷积核大小为3、空洞率为3C(C ∈[1,B])的1维可切换时域空洞卷积,之后特征序列经过一个卷积核大小为1,空洞率为1的1D卷积。每一个卷积后面都有一组1维的批量归一化层、ReLU 激活函数以及Dropout层。为了匹配每一个Block的输出和输入特征序列的尺寸,使得输入和输出特征序列能够相加,本发明使用切片操作改变特征序列尺寸。每一个Block相较于前一个Block空洞率呈指数级增长,这使得后一个Block感受野更大。最后一个Block输出特征大小为(1,544)。本发明级联金字塔网络输出特征序列经过填充操作后共有N+242帧图像,通过滑动窗口的方式每次从N+242 帧图像中抽取243帧图像作为可切换时域空洞网络的输入,最终在整个时域上可切换时域空洞网络输出特征序列大小为(N,544)。可切换时域空洞网络利用一个姿态的过去信息和未来的信息去提取243帧图像中间位置的姿态特征。
图1中同时展示了本发明实施例中提出的可切换时域空洞卷积。与时域空洞卷积只能学习长范围特征信息相比,可切换时域空洞卷积能够根据输入特征序列自适应决定选择学习相邻特征信息还是长范围的特征信息。这样的特点可以更好对输入特征序列进行特征提取,因为对于某个阶段,相邻的时域信息相较于长范围的时域信息可能更有利于关节点的三维坐标建模。
如图1所示。输入可切换时域空洞卷积的特征序列大小为(H,544),其中H 表示H帧图像,544表示通道数,输入特征序列首先分别经过卷积核大小为3、步长为1、空洞率为3C的时域空洞卷积、卷积核大小为S,空洞率为1的标准卷积以及自注意力。经过自注意力的特征序列大小为H×H,之后经过平均池化特征大小变为(H,1),再经过卷积核大小为1的1D卷积和Softmax得到转换因子 (Switchable factor)M。M与经过卷积核大小为3的时域空洞卷积进行特征提取后的特征序列相乘得到特征序列K2,而(1-M)与卷积核大小为S的标准卷积进行特征提取得到的特征序列相乘得到特征序列K1。由于此时K1与K2特征序列尺寸不同,为了使得K1和K2特征尺寸相同,本发明对特征序列K1使用和可切换时域空洞网络中相同的切片操作。
通过可切换时域空洞网络,模型能够有效地捕捉与自身相关联的特征信息。Transformer中通过自注意力机制提取全局特征,但是自注意力机制对于局部特征的提取能力较差,局部特征提取的能力对于人体姿态的三维建模有着十分重要的作用。基于这一点本发明通过提出姿态图卷积对Transformer中的自注意力机制进行改进,提高Transformer提取局部特征的能力。
如图2所示中改进自注意力机制图所示,Q(Query)、K(Key)、V(Value)表示图自注意力机制的三个输入,与自注意力机制不同的是本发明的图自注意力机制中的Q先经过姿态图卷积聚合特征序列中关节点的局部特征信息,然后与K进行矩阵相乘,再经过Softmax得到权重矩阵,最后和V相乘得到图自注意力机制的输出。从图2中可以看出,本发明通过姿态图卷积将聚合到的局部特征Q 和原始输入K进行相乘,不仅可以学习到整个时域上特征的关联性,同时也突出每个特征的局部特征。
图3展示本发明实施例中姿态图卷积聚合人体关节点特征时关节点的连接关系图。人体关节点间不同的连接关系对人体关节点三维坐标的建模有着不同的影响,为了充分利用关节点的连接关系,本发明基于人体骨架图提出三种关节点关系:人体关节点邻接关系、人体关节点对称关系、人体关节点运动关联关系。
图3中以1号节点为中心点,2号、3号、4号节点为其邻居节点。2号节点表示相邻关节点、3号节点为对称关节点、4号节点表示运动时关联的关节点,本发明使用这三种关节点关系改进GCN中的连接矩阵A,而传统GCN对人体关节点进行建模时只考虑相邻节点。相邻节点中,连接关系只有中心节点以及其相邻的节点,如图3中的1号关节点与2号关节点。相邻连接关系能够基本的建模出人体的整体形状。人体对称连接是指正常的人体处于张开时人体是一种对称状态,如图3中1号关节点与3号关节点。人体的对称关系可以辅助相邻连接关系,更能凸显出人体的特征。运动连接关系如图3中1号关节点与4号关节点的连接,1号关节点表示人体的右手肘部,4号节点表示人的左膝盖,当人在运动时人的左膝盖在走动时会带动右肘部进行运动,表明这两个关节点具有运动关联性(右膝盖是等价的,本发明选择左膝盖)。由于对人体进行三维坐标建模时,人体会处于一种运动的状态,增加这种连接关系能够更好地表示运动情况下人体关节点的连接关系。本发明中运动性连接共有四类:左手腕连接右脚踝、左手肘连接右膝盖、右手腕连接左脚踝、右手肘连接左膝盖。基于提出的三种连接关系,姿态图卷积能够充分地聚合某一个关节点局部特征的作用。
本发明实施例中模型损失由两个部分组成,一个部分是三维坐标差,另一部分是人身体对称部分骨骼长度差。本发明三维坐标差其中M 表示人体关节点总数,本发明的M=17,ρi为模型预测的第i关节点的三维坐标,表示第i个关节点三维坐标的真实值。人体对称部分骨骼长度差人体对称部分骨骼差含义是人体右手腕和右手肘的长度与人体左手腕与左手肘的长度应该基本相同,即二者理想差值应该为0。其中UC表示左边第C个骨骼长度,表示右边第C个骨骼长度。C∈[1,6],6个对称部分分别为脖子和左右肩部的骨骼长度差、左右肩部和左右手肘、左右手肘和左右手腕、脊柱和左右臀部的骨骼长度差、左右臀部和左右膝盖的骨骼长度差、左右膝盖和左右脚踝长度差。本发明损失函数表达式如公式(1)所示。
L=λ1×LP+λ2×LG (1) 其中,λ1和λ2,为各自系数,本发明中λ1=2,λ2=1。
搭建好改进Transformer模型后,本发明将模型在Human3.6M数据集上进行训练。优化器选择Amsgrad,共训练80个epoch,学习率采用指数衰减策略(每一轮都衰减,衰减因子为0.95),初始学习率为0.001,本发明三维人体姿态估计单批次样本训练数量为791。
模型训练好后,将得到的二维坐标组成一个特征序列,利用改进Transformer 进行三维人体姿态估计,得到人体关节点的三维人体坐标。
步骤4:将模型部署到移动端设备
将训练好的Transformer模型部署到移动端设备,完成黑暗场景下的三维人体姿态估计,本发明的移动端设备选择Jetson TX2,使用JetPack4.4刷机。本发明的深度学习框架为PaddlePaddle2.0,部署软件为PaddleLite。最终可以实现场景下的三维人体姿态估计。
以上所述仅是本发明的优先选择的实施方式,应当指出,对于本技术领域的人员,在不脱离不发明的技术原理前提,在速度和准确度上还可以做出很多提升,这些改变和提升也应该视作本发明的保护范围内。
Claims (4)
1.一种基于改进Transformer的黑暗场景三维人体姿态估计算法,其特征在于:包括如下步骤:
S1、通过摄像头拍摄黑暗场景场景下的人体姿态,制作黑暗场景下人体姿态数据集,并进行数据增强;
S2、训练二维人体姿态估计模型,并将进行数据处理后的图像首先进行二维人体姿态估计,得到人体关节点的二维坐标;
S3、训练改进Transformer模型,将所有人体关节点的二维坐标组成一个特征序列输入到改进Transformer中实现三维人体姿态估计,得到人体关节点的三维坐标;
S4、将训练好的模型部署到移动端设备上,完成黑暗场景下三维人体姿态估计。
2.根据权利要求1所述的一种基于改进Transformer的黑暗场景三维人体姿态估计算法,其特征在于:所述S1中数据增强方式包括:随机旋转、随机缩放和随机饱和度调整;所述随即旋转即将图片随机旋转-45度~+45度,随机缩放为将图片随机缩放为原图的0.7~1.2倍,随机饱和度调整的实施方法为首先设定一个阈值t,接着在(0,1)内随机选取一个数a,如果,则饱和度调整的比例为a,如果,则在(-a,a)内随机选取一个数b,饱和度调整的比例为b+1。
3.根据权利要求1所述的一种基于改进Transformer的黑暗场景三维人体姿态估计算法,其特征在于:所述S2具体包括:
S21、采用级联金字塔网络(CPN)进行二维人体姿态估计,并且使用Mask R-CNN进行人体边界框检测,其中Mask R-CNN使用ResNet101作为backbone;
S22、在S21搭建完毕的模型的基础上,CPN选择ResNet50作为backbone,输入图片大小为384×288;
S23、重新初始化网络最后一层,使得人体关节点热图回归到Human3.6M数据集所对应的二维关节点;
S24、训练好级联金字塔网络模型后,将S1中数据增强后的图片输入到级联金字塔网络中进行二维人体姿态估计,得到二维人体关节点坐标;
上述训练过程中模型超参数设定为:迭代100000次,选择Adam优化器,单批次训练样本数量为16,学习率使用逐步衰减的策略,初始学习率为0.0005,每20000轮衰减一次,衰减率为0.1。
4.根据权利要求1所述的一种基于改进Transformer的黑暗场景三维人体姿态估计算法,其特征在于:所述S3中通过可切换时域空洞网络、姿态图卷积对Transformer进行改进并在Human3.6M数据集上训练改进后的Transformer模型,具体包括:
S31、本发明的可切换时域空洞网络结构:输入可切换时域空洞网络的特征序列大小为(243,34),输入特征序列经过一个卷积核大小为3、空洞率为1、输出通道数为544的1D卷积,然后特征经过B个具有残差结构的Block;每一个Block首先经过一个卷积核大小为3、空洞率为3C(C∈[1,B])的1维可切换时域空洞卷积,之后特征序列经过一个卷积核大小为1,空洞率为1的1D卷积;每一个卷积后面都有一组1维的批量归一化层、ReLU激活函数以及Dropout层;
S32、本发明可切换时域空洞卷积:输入可切换时域空洞卷积的特征序列大小为(H,544),其中H表示H帧图像,544表示通道数,输入特征序列首先分别经过卷积核大小为3、步长为1、空洞率为3C的时域空洞卷积、卷积核大小为S,空洞率为1的标准卷积以及自注意力;经过自注意力的特征序列大小为H×H,之后经过平均池化特征大小变为(H,1),再经过卷积核大小为1的1D卷积和Softmax得到转换因子(Switchable factor)M;M与经过卷积核大小为3的时域空洞卷积进行特征提取后的特征序列相乘得到特征序列K2,而(1-M)与卷积核大小为S的标准卷积进行特征提取得到的特征序列相乘得到特征序列K1;
S33、本发明的图自注意力机制:机制中的Q先经过姿态图卷积聚合特征序列中关节点的局部特征信息,然后与K进行矩阵相乘,再经过Softmax得到权重矩阵,最后和V相乘得到图自注意力机制的输出;
S34、所述人体关节点的关系包括人体关节点邻接关系、人体关节点对称关系、人体关节点运动关联关系;
S35、所述人体关节点运动关联关系共有四类:左手腕连接右脚踝、左手肘连接右膝盖、右手腕连接左脚踝、右手肘连接左膝盖;
S36、本发明模型损失由两个部分组成,一个部分是三维坐标差:本发明的M=17,ρi为模型预测的第i关节点的三维坐标,表示第i个关节点三维坐标的真实值;另一部分是人身体对称部分骨骼长度差:人体对称部分骨骼差含义是人体右手腕和右手肘的长度与人体左手腕与左手肘的长度相同,即二者理想差值应该为0,其中UC表示左边第C个骨骼长度,表示右边第C个骨骼长度。C∈[1,6],本发明损失函数表达式如下:
L=λ1×LP+λ2×LG
其中,λ1和λ2,为各自系数,本发明中λ1=2,λ2=1;
S37、以上改进为基础,搭建改进Transformer模型。模型超参数设置:选择Amsgrad优化器,共训练80个epoch,学习率采用指数衰减策略,初始学习率为0.001。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110907362.9A CN113537393B (zh) | 2021-08-09 | 2021-08-09 | 一种基于改进Transformer的黑暗场景三维人体姿态估计算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110907362.9A CN113537393B (zh) | 2021-08-09 | 2021-08-09 | 一种基于改进Transformer的黑暗场景三维人体姿态估计算法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113537393A true CN113537393A (zh) | 2021-10-22 |
CN113537393B CN113537393B (zh) | 2023-08-22 |
Family
ID=78090797
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110907362.9A Active CN113537393B (zh) | 2021-08-09 | 2021-08-09 | 一种基于改进Transformer的黑暗场景三维人体姿态估计算法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113537393B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113870422A (zh) * | 2021-11-30 | 2021-12-31 | 华中科技大学 | 一种基于金字塔Transformer的点云重建方法、装置、设备及介质 |
CN114299535A (zh) * | 2021-12-09 | 2022-04-08 | 河北大学 | 基于Transformer的特征聚合人体姿态估计方法 |
CN114550305A (zh) * | 2022-03-04 | 2022-05-27 | 合肥工业大学 | 一种基于Transformer的人体姿态估计方法及系统 |
CN114663917A (zh) * | 2022-03-14 | 2022-06-24 | 清华大学 | 基于多视角的多人三维人体位姿估计方法及装置 |
CN115457464A (zh) * | 2022-09-06 | 2022-12-09 | 燕山大学 | 基于transformer和CNN的人群计数方法 |
CN117611675A (zh) * | 2024-01-22 | 2024-02-27 | 南京信息工程大学 | 一种三维人体姿态估计方法、装置、存储介质和设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111460928A (zh) * | 2020-03-17 | 2020-07-28 | 中国科学院计算技术研究所 | 一种人体动作识别系统及方法 |
JP2020135637A (ja) * | 2019-02-22 | 2020-08-31 | 日本電信電話株式会社 | 姿勢推定装置、学習装置、方法、及びプログラム |
CN113205595A (zh) * | 2021-05-21 | 2021-08-03 | 华中科技大学 | 一种3d人体姿态估计模型的构建方法及其应用 |
-
2021
- 2021-08-09 CN CN202110907362.9A patent/CN113537393B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020135637A (ja) * | 2019-02-22 | 2020-08-31 | 日本電信電話株式会社 | 姿勢推定装置、学習装置、方法、及びプログラム |
CN111460928A (zh) * | 2020-03-17 | 2020-07-28 | 中国科学院计算技术研究所 | 一种人体动作识别系统及方法 |
CN113205595A (zh) * | 2021-05-21 | 2021-08-03 | 华中科技大学 | 一种3d人体姿态估计模型的构建方法及其应用 |
Non-Patent Citations (2)
Title |
---|
AILING ZENG ET AL.: ""SRNet: Improving Generalization in 3D Human Pose Estimation with a Split-and-Recombine Approach"", 《ARXIV》 * |
刘勇等: ""基于深度学习的二维人体姿态估计研究进展"", 《计算机工程》, vol. 47, no. 3 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113870422A (zh) * | 2021-11-30 | 2021-12-31 | 华中科技大学 | 一种基于金字塔Transformer的点云重建方法、装置、设备及介质 |
CN113870422B (zh) * | 2021-11-30 | 2022-02-08 | 华中科技大学 | 一种点云重建方法、装置、设备及介质 |
CN114299535A (zh) * | 2021-12-09 | 2022-04-08 | 河北大学 | 基于Transformer的特征聚合人体姿态估计方法 |
CN114299535B (zh) * | 2021-12-09 | 2024-05-31 | 河北大学 | 基于Transformer的特征聚合人体姿态估计方法 |
CN114550305A (zh) * | 2022-03-04 | 2022-05-27 | 合肥工业大学 | 一种基于Transformer的人体姿态估计方法及系统 |
CN114663917A (zh) * | 2022-03-14 | 2022-06-24 | 清华大学 | 基于多视角的多人三维人体位姿估计方法及装置 |
CN115457464A (zh) * | 2022-09-06 | 2022-12-09 | 燕山大学 | 基于transformer和CNN的人群计数方法 |
CN115457464B (zh) * | 2022-09-06 | 2023-11-10 | 燕山大学 | 基于transformer和CNN的人群计数方法 |
CN117611675A (zh) * | 2024-01-22 | 2024-02-27 | 南京信息工程大学 | 一种三维人体姿态估计方法、装置、存储介质和设备 |
CN117611675B (zh) * | 2024-01-22 | 2024-04-16 | 南京信息工程大学 | 一种三维人体姿态估计方法、装置、存储介质和设备 |
Also Published As
Publication number | Publication date |
---|---|
CN113537393B (zh) | 2023-08-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113537393A (zh) | 一种基于改进Transformer的黑暗场景三维人体姿态估计算法 | |
CN109271933B (zh) | 基于视频流进行三维人体姿态估计的方法 | |
Zhang et al. | Learning 3d human shape and pose from dense body parts | |
CN110188239B (zh) | 一种基于跨模态注意力机制的双流视频分类方法和装置 | |
CN106780543B (zh) | 一种基于卷积神经网络的双框架估计深度和运动方法 | |
Dockstader et al. | Multiple camera tracking of interacting and occluded human motion | |
CN111696137B (zh) | 一种基于多层特征混合与注意力机制的目标跟踪方法 | |
CN112530019B (zh) | 三维人体重建方法、装置、计算机设备和存储介质 | |
CN108960212A (zh) | 基于端到端的人体关节点检测与分类方法 | |
CN110378208B (zh) | 一种基于深度残差网络的行为识别方法 | |
CN111160294B (zh) | 基于图卷积网络的步态识别方法 | |
CN113128424B (zh) | 基于注意力机制的图卷积神经网络动作识别方法 | |
CN112037310A (zh) | 基于神经网络的游戏人物动作识别生成方法 | |
CN112232134A (zh) | 一种基于沙漏网络结合注意力机制的人体姿态估计方法 | |
CN116959094A (zh) | 一种基于时空图卷积网络的人体行为识别方法 | |
CN116524121A (zh) | 一种单目视频三维人体重建方法、系统、设备及介质 | |
CN114708649A (zh) | 基于集成学习方法融合时间注意力图卷积的行为识别方法 | |
CN116030498A (zh) | 面向虚拟服装走秀的三维人体姿态估计方法 | |
CN116343334A (zh) | 融合关节捕捉的三流自适应图卷积模型的动作识别方法 | |
CN116092190A (zh) | 一种基于自注意力高分辨网络的人体姿态估计方法 | |
Zhou et al. | Towards locality similarity preserving to 3D human pose estimation | |
Usman et al. | Skeleton-based motion prediction: A survey | |
CN114863013A (zh) | 一种目标物体三维模型重建方法 | |
Yin et al. | Multi-Branch Attention Graph Convolutional Networks for 3D Human Pose Estimation | |
Li et al. | Skeleton-based action recognition with a triple-stream graph convolutional network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |