CN114155560B - 基于空间降维的高分辨率人体姿态估计模型的轻量化方法 - Google Patents
基于空间降维的高分辨率人体姿态估计模型的轻量化方法 Download PDFInfo
- Publication number
- CN114155560B CN114155560B CN202210116943.5A CN202210116943A CN114155560B CN 114155560 B CN114155560 B CN 114155560B CN 202210116943 A CN202210116943 A CN 202210116943A CN 114155560 B CN114155560 B CN 114155560B
- Authority
- CN
- China
- Prior art keywords
- resolution
- feature
- human body
- dimension reduction
- weight
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了基于空间降维的高分辨率人体姿态估计模型的轻量化方法,涉及人体姿态估计领域,解决深度神经网络所需要的计算资源巨大的技术问题,本发明提出一种对1*1卷积核的等级替换方案。首先通过条纹状的上下文建模对输入的二维空间特征压缩后得到单维的空间特征,再分别对两个单维的空间特征进行编码学习到条纹状的注意力图,最终用学习到的两个单维空间的注意力图还原成一个双维空间的注意力图,并且用此注意力图帮助模型聚焦在关键点附近的区域;由于在自顶向下的姿态估计方法中两个一维的空间特征可以还原出一个二维的空间特征的特性,这种方法能够在保持高精度的同时将网络的计算复杂度从二次方级降低到一次方级。
Description
技术领域
本发明涉及人体姿态估计领域,具体涉及基于空间降维的高分辨率人体姿态估计模型的轻量化方法。
背景技术
人体姿态估计是计算机视觉中一个基础而又富有挑战性的问题,其目的是从单张RGB图像中,精确地识别出多个人体的位置以及每个人体实例的预先定义好的关节点(左/右眼睛、鼻子、左/右肩膀、左/右手肘等17类关节点)的位置。人体姿态任务从提出至今一直是学术界研究的热点任务,它承接了基础的目标检测的同时又作为行为识别、情感分析等众多高阶理解任务的基础,在工业界也广受关注。
研究技术尝试利用前沿的深度学习技术改善模型表现力,基于深度学习的人体姿态估计技术不断涌现。相较于手工设计数据的特征,深度学习方法可以自动学习数据的特征并由此对数据进行分类与回归,因此具有更高的鲁棒性。随着深度卷积神经网络的应用和MSCOCO等大规模数据集的发布,人体姿态估计方法已经取得了较大的发展,它们大致可以分为自底向上(bottom-up)和自顶向下(top-down)的方法。
1)对于自顶向下的方法,首先对输入图片进行人体检测,定位所有人体实例,然后根据检测的结果将每个人体实例对应的区域裁剪出,再对每个人体实例进行单人的姿态估计,此类方法的设计核心主要集中在如何设计高效的单人姿态估计方法。
2)自底向上的方法则正好相反,首先通过一个关键点检测器定位出所有的人体关键点,然后以对每个关键点的编码为依据将这些关键点分配到不同的人体实例,从而组成图片中所有的人体姿态。这类方法的核心技术在于如何检测出所有的关键点以及如何正确地进行分组。
虽然相较于需要提前进行人体检测的自顶向下的方法来说,自底向上的方法具有更高的检测效率,但在精度上仍然有一定的差距,因此目前的研究热点仍然集中在自顶向下的方法上。
目前自顶向下的方法在精度方面已经完全达到了工业应用的要求,但是因为人体姿态估计这个任务本身就是一个像素级的密集预测任务,因此要求在通过神经网络提取特征时要保持高分辨率的空间维度,这就导致深度神经网络所需要的计算资源巨大,而这些大网络对计算资源的苛刻要求,使得其难以部署到日益普遍的移动端设备上。
发明内容
本发明的目的在于:克服现有技术的不足,提供基于空间降维的高分辨率人体姿态估计模型的轻量化方法,通过对将神经网络学习到的高分辨率二维空间特征压缩到两个一维的空间特征实现对人体姿态估计网络的轻量化设计。
本发明采用的技术方案如下:
基于空间降维的高分辨率人体姿态估计模型的轻量化方法,包括以下步骤:
步骤S1:选择训练数据集为MSCOCO key point数据集,并通过人体检测框截取图片得到输入图片;
步骤S2:构建基于空间降维的高分辨率轻量级基础网络模块Mx;
步骤S3:基于步骤S2中构建好的轻量级基础网络模块Mx,构建基于空间降维的高分辨率轻量级特征提取网络Nx,对步骤S1中截取到的输入图片通过卷积编码的方法生成高分辨率的视觉特征;
步骤S4:构建基于热力图的人体姿态估计器Ex,利用步骤S3中提取出的高分辨率的视觉特征,得到人体姿态的预测结果,并定义损失函数计算预测结果的误差;
步骤S5:采用Adam优化器,根据步骤S3得到的误差,对整个基于空间降维的轻量级高分辨率姿态估计网络进行训练;
步骤S6:实用训练完的基于空间降维的轻量级高分辨率姿态估计网络对人体图片进行姿态估计,以验证训练完的基于空间降维的轻量级高分辨率姿态估计网络的检测精度。
进一步地,所述步骤S2具体包括:
步骤S21:首先设定基础网络模块,输入的初始图像特征为F∈RC×H×W,其中RC×H×W表示维度为C×H×W的实数域,C表示初始图像特征F的通道数,H和W分别表示初始图像特征F的两个空间维度;
步骤S22:对步骤S21中定义好的初始图像特征F在通道数C二等分、得到等分图像特征一F1∈R1/2C×H×W和等分图像特征二F2∈R1/2C×H×W;
步骤S23:对二等分的到的等分图像特征二F2,首先对H空间维度通过带权重的平均函数进行压缩得到压缩等分图像特征二F2 W∈R1/2C×1×W,对压缩等分图像特征二F2 W通过1*1卷积核进行编码,通过Sigmoid激活函数后得到W维度的注意力图A2 W∈R1/2C×1×W;将学习到注意力图A2 W与等分图像特征二F2进行元素级的相乘、得到对维度强化后的第一代等分图像特征二F' 2。
步骤S24:对步骤S23中得到的第一代等分图像特征二F' 2通过卷积核为3*3的深度可分离卷积进行编码,得到更大感受野的第二代等分图像特征二F'' 2;
步骤S25:对步骤S24中得到的第二代等分图像特征二F'' 2对W空间维度通过带权重的平均函数进行压缩得到第二代压缩等分图像特征二F'' 2 H∈R1/2C×H×1,对第二代压缩等分图像特征二F'' 2 H通过1*1卷积核进行编码,通过Sigmoid激活函数后得到H维度的注意力图A'' 2 H∈R1/2C×H×1;将学习到注意力图A'' 2 H与第二代等分图像特征二F'' 2进行元素级的相乘得到对维度强化后的第三代等分图像特征二F''' 2;
步骤S26:将步骤S25中的强化后的第三代等分图像特征二F''' 2和步骤S22中二等分后的另一半等分图像特征一F1在特征维度重新拼接在一起,得到输出特征F*,将输出特征F*带入到步骤S21中设定的基础网络模块,得到基于空间降维的高分辨率轻量级基础网络模块Mx。
进一步地,所述步骤S3具体包括:
步骤S31:首先通过卷积核和双线性插值操作对输入的图片I∈R3×H×W;提取4倍下采样的基础特征Fbase∈RC×H×W;
步骤S32:构建多分辨率网络结构,最终构建出有四个分支的三角形层级网络结构,这四个分支的分辨率分别4倍下采样,8倍下采样,16倍下采样和32倍下采样;“整个网络结构的所有编码模块都是在步骤S2中构建的基于空间降维的高分辨率轻量级基础网络模块Mx;
步骤S33:构建对不同分辨率的特征融合模块,对小分辨率的特征进行上采样后通过元素级加法的方式加到大分辨率的特征上,对大分辨率的特征进行下采样后通过元素级加法的方式加到小分辨率的特征上;
步骤S34:在步骤S32中设计的多分辨率网络结构中,加入在步骤S33中构建的对不同分辨率的特征融合模块,对不同分辨率的特征进行信息交互,得到基于空间降维的高分辨率轻量级特征提取网络NX;
步骤S35:通过步骤S34中设计好的基于空间降维的高分辨率轻量级特征提取网络NX对S31中提取好的4倍下采样的基础特征进行编码,最终得到一组不同分辨率的视觉特征(F4X、F8X、F16X、F32X)。
进一步地,所述步骤S4具体包括:
步骤S41:通过卷积操作构建人体姿态估计器,对步骤S35中提取出的高分辨率特征F4X进行编码,得到K张人体关节点的热力图,其中K表示数据集预先定义好的人体关节点类别数量;
步骤S42:对步骤S41中预测到的K张人体关节点的热力图与根据真值构造好的高斯分布真值热力图通过均方差损失函数计算损失。
进一步地,在MSCOCO key point数据集中,K=17。
进一步地,所述均方差损失函数为L MSE,具体如下:
进一步地,所述步骤S5中,对Adam的超参设置为:学习率为2e-3,用于计算梯度以及梯度平方的运行平均值的系数β 1=0.9,β 2=0.999。
进一步地,所述步骤S6中,对在步骤S4中预测到的K张人体关节点的热力图分别得到对应的峰值所在的索引位置即为最终的关节点的预测结果。
本发明的有益效果如下:
1.本发明的轻量化方法保持了特征的高分辨率,由于在自顶向下的姿态估计方法中两个一维的空间特征可以还原出一个二维的空间特征的特性,这种方法能够在保持高精度的同时将网络的计算复杂度从二次方级降低到一次方级;
2.本发明使用空间降维的方式对自顶向下的人体姿态估计方法进行轻量化优化,有效地将计算量从二次方级降低到一次方级;
3.本发明所设计的基于空间降维的高分辨率人体姿态估计模型轻量化方法在轻量化的过程中保持了特征的高分辨率,基本对网络的精度不造成损失。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,本说明书附图中的各个部件的比例关系不代表实际选材设计时的比例关系,其仅仅为结构或者位置的示意图,其中:
图1是本发明的流程图;
图2是本发明的热力图;
图3是本发明网络模块示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明,即所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。
下面结合图1至图3,对本发明作详细说明。
实施例1
基于空间降维的高分辨率人体姿态估计模型的轻量化方法,包括以下步骤:
步骤S1:选择训练数据集为MSCOCO key point数据集,并通过人体检测框截取图片得到输入图片;
步骤S2:构建基于空间降维的高分辨率轻量级基础网络模块Mx;
步骤S3:基于步骤S2中构建好的轻量级基础网络模块Mx,构建基于空间降维的高分辨率轻量级特征提取网络Nx,对步骤S1中截取到的输入图片通过卷积编码的方法生成高分辨率的视觉特征;
步骤S4:构建基于热力图的人体姿态估计器Ex,利用步骤S3中提取出的高分辨率的视觉特征,得到人体姿态的预测结果,并定义损失函数计算预测结果的误差;
步骤S5:采用Adam优化器,根据步骤S3得到的误差,对整个基于空间降维的轻量级高分辨率姿态估计网络进行训练;
步骤S6:实用训练完的基于空间降维的轻量级高分辨率姿态估计网络对人体图片进行姿态估计,以验证训练完的基于空间降维的轻量级高分辨率姿态估计网络的检测精度。
本发明的工作原理/工作过程为:首先通过条纹状的上下文建模对输入的二维空间特征压缩后得到单维的空间特征,再分别对两个单维的空间特征进行编码学习到条纹状的注意力图,最终用学习到的两个单维空间的注意力图还原成一个双维空间的注意力图,并且用此注意力图帮助模型聚焦在关键点附近的区域。
实施例2
一种基于空间降维的高分辨率人体姿态估计模型轻量化方法实际上是提出了一种对1*1卷积核的等级替换方案。首先通过条纹状的上下文建模对输入的二维空间特征压缩后得到单维的空间特征,再分别对两个单维的空间特征进行编码学习到条纹状的注意力图,最终用学习到的两个单维空间的注意力图还原成一个双维空间的注意力图,并且用此注意力图帮助模型聚焦在关键点附近的区域。
本发明的工作原理/工作过程为:主要包括步骤S1:选择训练数据集为MSCOCO keypoint数据集,并通过人体检测框截取图片得到输入图片;
MSCOCO key poin数据集基于MSCOCO数据集构建。训练集包括57,000张图片,其中包含了150,000个人体实例,验证集包含了5,000张图片。MSCOCO key point中包含各种各样的自然场景,人体姿态多样性高,这是一个非常具有挑战性的数据集;
步骤S2:构建基于空间降维的高分辨率轻量级基础网络模块Mx;该步骤具体内容如下:
步骤S21:首先设定基础网络模块,输入的初始图像特征为F∈RC×H×W,其中RC×H×W表示维度为C×H×W的实数域,C表示初始图像特征F的通道数,H和W分别表示初始图像特征F的两个空间维度;
步骤S22:对步骤S21中定义好的初始图像特征F在通道数C二等分、得到等分图像特征一F1∈R1/2C×H×W和等分图像特征二F2∈R1/2C×H×W;
步骤S23:对二等分的到的等分图像特征二F2,首先对H空间维度通过带权重的平均函数进行压缩得到压缩等分图像特征二F2 W∈R1/2C×1×W,对压缩等分图像特征二F2 W通过1*1卷积核进行编码,通过Sigmoid激活函数后得到W维度的注意力图A2 W∈R1/2C×1×W;将学习到注意力图A2 W与等分图像特征二F2进行元素级的相乘、得到对维度强化后的第一代等分图像特征二F' 2。
步骤S24:对步骤S23中得到的第一代等分图像特征二F' 2通过卷积核为3*3的深度可分离卷积进行编码,得到更大感受野的第二代等分图像特征二F'' 2;
步骤S25:对步骤S24中得到的第二代等分图像特征二F'' 2对W空间维度通过带权重的平均函数进行压缩得到第二代压缩等分图像特征二F'' 2 H∈R1/2C×H×1,对第二代压缩等分图像特征二F'' 2 H通过1*1卷积核进行编码,通过Sigmoid激活函数后得到H维度的注意力图A'' 2 H∈R1/2C×H×1;将学习到注意力图A'' 2 H与第二代等分图像特征二F'' 2进行元素级的相乘得到对维度强化后的第三代等分图像特征二F''' 2;
步骤S26:将步骤S25中的强化后的第三代等分图像特征二F''' 2和步骤S22中二等分后的另一半等分图像特征一F1在特征维度重新拼接在一起,得到输出特征F*,将输出特征F*带入到步骤S21中设定的基础网络模块,得到基于空间降维的高分辨率轻量级基础网络模块Mx。
步骤S3:基于步骤S2中构建好的轻量级基础网络模块Mx,构建基于空间降维的高分辨率轻量级特征提取网络Nx,对步骤S1中截取到的输入图片通过卷积编码的方法生成高分辨率的视觉特征。具体内容如下:
步骤S31:首先通过卷积核和双线性插值操作对输入的图片I∈R3×H×W;提取4倍下采样的基础特征Fbase∈RC×H×W;
步骤S32:构建多分辨率网络结构,最终构建出有四个分支的三角形层级网络结构,这四个分支的分辨率分别4倍下采样,8倍下采样,16倍下采样和32倍下采样;“整个网络结构的所有编码模块都是在步骤S2中构建的基于空间降维的高分辨率轻量级基础网络模块Mx;
步骤S33:构建对不同分辨率的特征融合模块,对小分辨率的特征进行上采样后通过元素级加法的方式加到大分辨率的特征上,对大分辨率的特征进行下采样后通过元素级加法的方式加到小分辨率的特征上;
步骤S34:在步骤S32中设计的多分辨率网络结构中,加入在步骤S33中构建的对不同分辨率的特征融合模块,对不同分辨率的特征进行信息交互,得到基于空间降维的高分辨率轻量级特征提取网络NX;
步骤S35:通过步骤S34中设计好的基于空间降维的高分辨率轻量级特征提取网络NX对S31中提取好的4倍下采样的基础特征进行编码,最终得到一组不同分辨率的视觉特征(F4X、F8X、F16X、F32X)。
步骤S4:构建基于热力图的人体姿态估计器EX,利用步骤S3中提取出的高分辨率的视觉特征,得到人体姿态的预测结果,并定义损失函数计算预测结果的误差。具体内容如下:
步骤S41:通过卷积操作构建人体姿态估计器,对S35中提取出的高分辨率特征F4X进行编码,得到K张人体关节点的热力图,其中K表示数据集预先定义好的人体关节点类别数量,就MSCOCO key point数据集来说,K=17;
步骤S42:对S41中预测到的K张人体关节点的热力图与根据真值构造好的高斯分布真值热力图通过均方差损失函数计算损失。
所述步骤S4中提到的均方差损失函数L MSE,具体如下:
步骤S5:采用Adam优化器,根据S3计算出的误差,对整个基于空间降维的轻量级高分辨率姿态估计网络进行训练。具体的,我们对Adam的超参设置为:学习率为2e-3,用于计算梯度以及梯度平方的运行平均值的系数β 1=0.9,β 2=0.999。
步骤S6:实用训练完的基于空间降维的轻量级高分辨率姿态估计网络对人体图片进行姿态估计,以验证训练完的基于空间降维的轻量级高分辨率姿态估计网络的检测精度。具体地,我们对在步骤S4中预测到的K张人体关节点的热力图分别得到对应的峰值所在的索引位置即为最终的关节点的预测结果。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (7)
1.基于空间降维的高分辨率人体姿态估计模型的轻量化方法,其特征在于,包括以下步骤:
步骤S1:选择训练数据集为MSCOCOkeypoint数据集,并通过人体检测框截取图片得到输入图片;
步骤S2:构建基于空间降维的高分辨率轻量级基础网络模块Mx;
步骤S3:基于步骤S2中构建好的轻量级基础网络模块Mx,构建基于空间降维的高分辨率轻量级特征提取网络Nx,对步骤S1中截取到的输入图片通过卷积编码的方法生成高分辨率的视觉特征;
步骤S4:构建基于热力图的人体姿态估计器Ex,利用步骤S3中提取出的高分辨率的视觉特征,得到人体姿态的预测结果,并定义损失函数计算预测结果的误差;
步骤S5:采用Adam优化器,根据步骤S3得到的误差,对整个基于空间降维的轻量级高分辨率姿态估计网络进行训练;
步骤S6:实用训练完的基于空间降维的轻量级高分辨率姿态估计网络对人体图片进行姿态估计,以验证训练完的基于空间降维的轻量级高分辨率姿态估计网络的检测精度;
所述步骤S2具体包括:
步骤S21:首先设定基础网络模块,输入的初始图像特征为F∈RC×H×W,其中RC×H×W表示维度为C×H×W的实数域,C表示初始图像特征F的通道数,H和W分别表示初始图像特征F的两个空间维度;
步骤S22:对步骤S21中定义好的初始图像特征F在通道数C二等分, 得到等分图像特征一F1∈R1/2C×H×W和等分图像特征二F2∈R1/2C×H×W;
步骤S23:对二等分得 到的等分图像特征二F2,首先对H空间维度通过带权重的平均函数进行压缩得到压缩等分图像特征F2 W∈R1/2C×1×W,对压缩等分图像特征二F2 W通过1*1卷积核进行编码,通过Sigmoid激活函数后得到W维度的注意力图A2 W∈R1/2C×1×W;将学习到注意力图A2 W与等分图像特征二F2进行元素级的相乘、得到对维度强化后的第一代等分图像特征二F' 2;
步骤S24:对步骤S23中得到的第一代等分图像特征二F' 2通过卷积核为3*3的深度可分离卷积进行编码,得到更大感受野的第二代等分图像特征二F'' 2;
步骤S25:对步骤S24中得到的第二代等分图像特征二F'' 2对W空间维度通过带权重的平均函数进行压缩得到第二代压缩等分图像特征二F'' 2 H∈R1/2C×H×1,对第二代压缩等分图像特征二F'' 2 H通过1*1卷积核进行编码,通过Sigmoid激活函数后得到H维度的注意力图A'' 2 H∈R1/2C×H×1;将学习到注意力图A'' 2 H与第二代等分图像特征二F'' 2进行元素级的相乘得到对维度强化后的第三代等分图像特征二F''' 2;
步骤S26:将步骤S25中的强化后的第三代等分图像特征二F''' 2和步骤S22中二等分后的另一半等分图像特征一F1在特征维度重新拼接在一起,得到输出特征F*,将输出特征F*带入到步骤S21中设定的基础网络模块,得到基于空间降维的高分辨率轻量级基础网络模块Mx。
2.根据权利要求1所述的基于空间降维的高分辨率人体姿态估计模型的轻量化方法,其特征在于,所述步骤S3具体包括:
步骤S31:首先通过卷积核和双线性插值操作对输入的图片I∈R3×H×W;提取4倍下采样的基础特征Fbase∈RC×H×W;
步骤S32:构建多分辨率网络结构,最终构建出有四个分支的三角形层级网络结构,这四个分支的分辨率分别4倍下采样,8倍下采样,16倍下采样和32倍下采样;整个网络结构的所有编码模块都是在步骤S2中构建的基于空间降维的高分辨率轻量级基础网络模块Mx;
步骤S33:构建对不同分辨率的特征融合模块,对小分辨率的特征进行上采样后通过元素级加法的方式加到大分辨率的特征上,对大分辨率的特征进行下采样后通过元素级加法的方式加到小分辨率的特征上;
步骤S34:在步骤S32中设计的多分辨率网络结构中,加入在步骤S33中构建的对不同分辨率的特征融合模块,对不同分辨率的特征进行信息交互,得到基于空间降维的高分辨率轻量级特征提取网络NX;
步骤S35:通过步骤S34中设计好的基于空间降维的高分辨率轻量级特征提取网络NX对S31中提取好的4倍下采样的基础特征进行编码,最终得到一组不同分辨率的视觉特征(F4X、F8X、F16X、F32X)。
3.根据权利要求2所述的基于空间降维的高分辨率人体姿态估计模型的轻量化方法,其特征在于,所述步骤S4具体包括:
步骤S41:通过卷积操作构建人体姿态估计器,对步骤S35中提取出的高分辨率特征F4X进行编码,得到K张人体关节点的热力图,其中K表示数据集预先定义好的人体关节点类别数量;
步骤S42:对步骤S41中预测到的K张人体关节点的热力图与根据真值构造好的高斯分布真值热力图通过均方差损失函数计算损失。
4.根据权利要求3所述的基于空间降维的高分辨率人体姿态估计模型的轻量化方法,其特征在于,在MSCOCOkeypoint数据集中,K=17。
6.根据权利要求1所述的基于空间降维的高分辨率人体姿态估计模型的轻量化方法,其特征在于,所述步骤S5中,对Adam的超参设置为:学习率为2e-3,用于计算梯度以及梯度平方的运行平均值的系数β 1=0.9,β 2=0.999。
7.根据权利要求1所述的基于空间降维的高分辨率人体姿态估计模型的轻量化方法,其特征在于,所述步骤S6中,对在步骤S4中预测到的K张人体关节点的热力图分别得到对应的峰值所在的索引位置即为最终的关节点的预测结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210116943.5A CN114155560B (zh) | 2022-02-08 | 2022-02-08 | 基于空间降维的高分辨率人体姿态估计模型的轻量化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210116943.5A CN114155560B (zh) | 2022-02-08 | 2022-02-08 | 基于空间降维的高分辨率人体姿态估计模型的轻量化方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114155560A CN114155560A (zh) | 2022-03-08 |
CN114155560B true CN114155560B (zh) | 2022-04-29 |
Family
ID=80450159
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210116943.5A Active CN114155560B (zh) | 2022-02-08 | 2022-02-08 | 基于空间降维的高分辨率人体姿态估计模型的轻量化方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114155560B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116434127B (zh) * | 2023-06-14 | 2023-11-07 | 季华实验室 | 人体姿态估计方法、装置、设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111339903A (zh) * | 2020-02-21 | 2020-06-26 | 河北工业大学 | 一种多人人体姿态估计方法 |
CN113221824A (zh) * | 2021-05-31 | 2021-08-06 | 之江实验室 | 基于个体模型生成的人体姿态识别方法 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9448636B2 (en) * | 2012-04-18 | 2016-09-20 | Arb Labs Inc. | Identifying gestures using gesture data compressed by PCA, principal joint variable analysis, and compressed feature matrices |
KR102134421B1 (ko) * | 2015-10-22 | 2020-07-15 | 삼성전자주식회사 | 신호 처리 및 복원 방법, 및 상기 방법을 수행하는 장치들 |
US20220036150A1 (en) * | 2018-09-18 | 2022-02-03 | The Trustees Of Princeton University | System and method for synthesis of compact and accurate neural networks (scann) |
CN109474825B (zh) * | 2018-10-18 | 2020-07-10 | 北京大学 | 一种脉冲序列压缩方法及系统 |
CN110188598B (zh) * | 2019-04-13 | 2022-07-05 | 大连理工大学 | 一种基于MobileNet-v2的实时手部姿态估计方法 |
CN110969124B (zh) * | 2019-12-02 | 2022-09-27 | 重庆邮电大学 | 基于轻量级多分支网络的二维人体姿态估计方法及系统 |
CN112131959B (zh) * | 2020-08-28 | 2024-03-22 | 浙江工业大学 | 一种基于多尺度特征强化的2d人体姿态估计方法 |
CN112597943B (zh) * | 2020-12-28 | 2024-08-20 | 北京眼神智能科技有限公司 | 行人重识别的特征提取方法及装置、电子设备、存储介质 |
CN113487576B (zh) * | 2021-07-14 | 2023-08-22 | 中国科学院合肥物质科学研究院 | 一种基于通道注意力机制的虫害图像检测方法 |
CN113792641B (zh) * | 2021-09-08 | 2024-05-03 | 南京航空航天大学 | 一种结合多谱注意力机制的高分辨率轻量级的人体姿态估计方法 |
CN113920581B (zh) * | 2021-09-29 | 2024-04-02 | 江西理工大学 | 一种时空卷积注意力网络用于视频中动作识别的方法 |
CN113935373A (zh) * | 2021-10-11 | 2022-01-14 | 南京邮电大学 | 基于相位信息和信号强度的人体动作识别方法 |
CN113920584A (zh) * | 2021-10-15 | 2022-01-11 | 东南大学 | 一种基于时间感知特征学习的动作质量评估方法 |
-
2022
- 2022-02-08 CN CN202210116943.5A patent/CN114155560B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111339903A (zh) * | 2020-02-21 | 2020-06-26 | 河北工业大学 | 一种多人人体姿态估计方法 |
CN113221824A (zh) * | 2021-05-31 | 2021-08-06 | 之江实验室 | 基于个体模型生成的人体姿态识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114155560A (zh) | 2022-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111079532B (zh) | 一种基于文本自编码器的视频内容描述方法 | |
CN111047548B (zh) | 姿态变换数据处理方法、装置、计算机设备和存储介质 | |
Chen et al. | The face image super-resolution algorithm based on combined representation learning | |
CN111523546B (zh) | 图像语义分割方法、系统及计算机存储介质 | |
CN108416266B (zh) | 一种利用光流提取运动目标的视频行为快速识别方法 | |
CN110728219A (zh) | 基于多列多尺度图卷积神经网络的3d人脸生成方法 | |
CN113344806A (zh) | 一种基于全局特征融合注意力网络的图像去雾方法与系统 | |
CN112232134B (zh) | 一种基于沙漏网络结合注意力机制的人体姿态估计方法 | |
CN112489164B (zh) | 基于改进深度可分离卷积神经网络的图像着色方法 | |
CN113313173B (zh) | 基于图表示和改进Transformer的人体解析方法 | |
CN111985532B (zh) | 一种场景级上下文感知的情感识别深度网络方法 | |
CN110111365B (zh) | 基于深度学习的训练方法和装置以及目标跟踪方法和装置 | |
CN109461177A (zh) | 一种基于神经网络的单目图像深度预测方法 | |
CN113837290A (zh) | 一种基于注意力生成器网络的无监督非成对图像翻译方法 | |
CN113362242A (zh) | 基于多特征融合网络的图像修复方法 | |
CN111476133A (zh) | 面向无人驾驶的前背景编解码器网络目标提取方法 | |
CN114898284A (zh) | 一种基于特征金字塔局部差异注意力机制的人群计数方法 | |
CN114581918A (zh) | 一种文本识别模型训练方法及装置 | |
CN114155560B (zh) | 基于空间降维的高分辨率人体姿态估计模型的轻量化方法 | |
CN116797456A (zh) | 图像超分辨率重建方法、系统、设备和存储介质 | |
Di et al. | 3D face modeling algorithm for film and television animation based on lightweight convolutional neural network | |
CN113096133A (zh) | 一种基于注意力机制的语义分割网络的构建方法 | |
Jiang et al. | Tcgan: Semantic-aware and structure-preserved gans with individual vision transformer for fast arbitrary one-shot image generation | |
CN113628107B (zh) | 人脸图像超分辨率方法和系统 | |
Yang et al. | A teacher–student deep learning strategy for extreme low resolution unsafe action recognition in construction projects |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |