CN107492121B - 一种单目深度视频的二维人体骨骼点定位方法 - Google Patents
一种单目深度视频的二维人体骨骼点定位方法 Download PDFInfo
- Publication number
- CN107492121B CN107492121B CN201710541240.6A CN201710541240A CN107492121B CN 107492121 B CN107492121 B CN 107492121B CN 201710541240 A CN201710541240 A CN 201710541240A CN 107492121 B CN107492121 B CN 107492121B
- Authority
- CN
- China
- Prior art keywords
- time
- dimensional
- output
- convolution
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Abstract
本发明涉及一种单目深度视频的二维人体骨骼点定位方法。该方法包括构建模型、训练过程和识别过程,其中训练过程包含以下步骤:S21收集训练样本;S22生成训练目标;S23随机初始化深层模型(长短时记忆卷积神经网络)及其参数,所述的参数由卷积层的参数和长短时记忆卷积层中的参数组成;S24采用模型优化算法,端到端地利用训练样本更新深层模型的参数;识别过程如下:S31输入单目深度视频帧;S32利用训练好的深层模型推断预测出其中的人体骨骼点位置。本发明通过设置合理的学习目标,构建了深层次的长短时卷积神经网络,按照数据驱动的方式自适应地学习出人体骨骼点预测特征,到达了稳定可靠的人体骨骼点定位效果。
Description
技术领域
本发明涉及二维人体姿态识别、计算机视觉、模式识别和人机交互领域,特别涉及一种基于长短时记忆卷积神经网络的单目深度视频二维人体骨骼点定位方法。
背景技术
人体骨骼点定位是计算机视觉研究领域的一个重要研究方向,其主要任务是让计算机能够自动地感知场景中的人是“什么姿势”,它被广泛应用于家庭娱乐、动作识别、智能监控、病人监护等需要人机交互的系统中。
人体姿态估计的目标是希望能够自动地从一段二维图像序列中,预测人肢体各个部分的姿态数据(即,骨骼点在图像中的坐标)。由于普通的RGB彩色图像或视频中存在光照、复杂背景等环境因素的影响,从单目彩色图像中预测出人体骨骼点非常困难,难以做到鲁棒。而由深度距离摄像机捕获的二维深度图像,与RGB彩色数据不同,其每个像素的灰度值表示的是该点对应区域在真实空间中与摄像机的毫米距离。因此,其具有一定的抗光照变化和背景复杂的能力,能有效地反映出图像场景中的几何轮廓信息,因此被认为是计算机视觉和人机交互的研究领域中重要的数据源。
基于深度图像的二维人体骨骼点定位是指从一张包含有人物或者人体的二维深度图片中,定位出人体各个骨骼点的位置。由于深度二维图像本身存在不可忽略的噪声和人体姿态中四肢之间的遮挡,稳定快速准确地识别以上所述的骨骼点仍然是非常困难的挑战。
发明内容
为了克服上述现有技术的不足,本发明提供了一种基于长短时记忆卷积神经网络的单目深度视频的二维人体骨骼点定位方法,该方法可以有效地从深度视频数据中,端到端自动地学习出复杂人物姿态的时空特征,提高人体骨骼点定位的准确率。
为实现上述目的,本发明采用以下技术方案:
一种单目深度视频的二维人体骨骼点定位方法,包括以下阶段:
S1、深层模型构建。该模型包括二维特征抽取模块和时序特征表达模块;
其中,二维特征抽取模块由多个二维卷积层和矫正线性单元层依次串联,其间穿插连接多个池化层组成,用于对深度视频数据进行逐帧处理,抽取人物姿态的二维空间特征,输出深度图像中人物的关键区域和二维人体骨骼点到时序特征表达模块;时序特征表达模块由长短时记忆卷积层组成,用于抽取连续多帧的二维深度图像的时空特征,输出K个概率置信图,K为待预测的骨骼点数目,用以预测出当前帧的二维人体骨骼点坐标。
S2、训练过程。该过程包含以下步骤:
S21收集训练样本。从深度距离摄像机,获取连续多帧二维深度图像的视频数据、每帧二维图像中真实的二维人体骨骼点坐标。其中,视频数据由深度距离相机采集,配合用户精细标注的二维人体骨骼点坐标,用于学习深层模型的参数。
S22生成训练目标。训练目标包含由真实的二维人体骨骼点坐标生成的概率置信图和关键区域坐标;其中,每个骨骼点对应一个二维的概率置信图。该图的每个像素值表示像这个骨骼点的概率;关键区域表示二维深度图像中包含人物的矩形框,该矩形框由4个变量表示,依次是中心的横坐标、中心的纵坐标、矩形框高、矩形框宽。
S23随机初始化深层模型及其参数。所述的参数由卷积层的参数和长短时记忆卷积层中的参数组成。其中,卷积层的参数包括卷积核的权重和偏置;长短记忆卷积层中的参数包括输入卷积门、输出卷积门、忘记卷积门和记忆元组的权重和偏置。
S24采用模型优化算法,端到端地利用训练样本更新深层模型的参数。所述模型优化算法具体地是指采用基于一阶梯度的随机优化算法Adam(Adaptive momentestimation,Adam),联合二维特征抽取模块和时序特征表达模块一起更新参数。学习过程用的损失函数是预测的关键区域坐标与真实的关键区域坐标的欧式距离,和预测的特征图与真实的置信图的欧氏距离;采用时序反向传播算法求长短时记忆层中各个参数的偏导数;根据长短时记忆层传入的残差,通过反向传播算法求卷积层中各个参数的偏导数;根据计算结果更新模型参数并重复迭代计算。
S3、识别过程。该过程包含以下步骤:
S31输入单目深度视频帧。其中,单目深度视频帧由一个深度距离摄像机捕获,形成二维深度图像序列。
S32利用训练好的深层模型推断预测出其中的人体关节点位置。将S3-1形成的二维图像序列依次输入深层模型中,首先输出关键区域坐标,以从输入原图上提取关键区域,再紧接着输入网络,输出其中的人物各个骨骼点的概率置信图,最终根据置性图中的最大概率,得到骨骼点二维坐标。
与现有技术相比,本发明的有益效果是:
第一,本发明通过构建深层次的长短时卷积神经网络,采用数据驱动的方式,从大量的包含了多种深度距离摄像机摆放角度、深度距离摄像机与人不同距离和各种人的躯干四肢之间的遮挡等训练样本中,学习出有效的时空人物姿态特征。该特征不再受限于手工设计特征的先验条件和人体骨骼点的几何结构约束,可有效地用于定位人体的骨骼点。
第二,本发明用一个模型同时强调了人体二维骨骼点的空间关系和时序一致性;本发明建模的时空一致性具有端对端训练的可微分结构,结合数据驱动,可以自适应地整体优化模型的各个模块。同时,本发明借助优化出的人体骨骼点时空特征能抗深度数据噪声和人体自遮挡等多种挑战,实现了稳定可靠的二维人体骨骼点定位。
附图说明
图1是本发明提供的一种单目深度视频的二维人体骨骼点定位方法的流程示意图;
图2是本发明的深层模型框架图;
图3是本发明的深层模型中二维特征抽取模块的框架图;
图4是本发明的深层模型中二维特征抽取模块详细网络设置图;
图5是本发明的深层模型中时序特征表达模块的框架图;
图6是本发明提供的一种单目深度视频的二维人体骨骼点定位方法的数据流向图;
图7是本发明支持的15个人体骨骼点示意图。
具体实施方式
下面结合附图,对本发明的单目深度视频的二维人体骨骼点定位方法做详细说明。
如图1所示,本发明提供了一种单目深度视频的二维人体骨骼点定位方法,包括构建模型、训练过程和识别过程,具体的构建模型包括构建深层模型102;训练过程包括使用深度距离相机捕获数据100,收集训练样本生成训练目标101,初始化参数、训练模型103;识别过程包括使用深度距离相机捕获数据100,利用训练好的模型预测人体骨骼点104。
S1、深层模型构建,包括构建深层模型102。
S2、训练过程,该过程包含以下步骤:
S21收集训练样本,包括使用深度距离相机捕获数据100,具体为从深度距离摄像机,获取连续多帧二维深度图像的视频数据、每帧二维图像中真实的二维人体骨骼点坐标。其中,视频数据由深度距离相机采集,配合用户精细标注的二维人体骨骼点坐标,用于学习深层模型的参数。
S22生成训练目标,包括收集训练样本生成训练目标101,具体为训练目标包含由真实的二维人体骨骼点坐标生成的概率置信图和关键区域坐标;其中,每个骨骼点对应一个二维的概率置信图。该图的每个像素值表示像这个骨骼点的概率;关键区域表示二维深度图像中包含人物的矩形框,该矩形框由4个变量表示,依次是中心的横坐标、中心的纵坐标、矩形框高、矩形框宽。
S23随机初始化深层模型及其参数,包括初始化参数、训练模型103。所述的参数由卷积层的参数和长短时记忆卷积层中的参数组成。其中,卷积层的参数包括卷积核的权重和偏置;长短记忆卷积层中的参数包括输入卷积门、输出卷积门、忘记卷积门和记忆元组的权重和偏置。
S24采用模型优化算法,端到端地利用训练样本更新深层模型的参数。
S3、识别过程,包括利用训练好的模型预测人体骨骼点104。该过程包含以下步骤:
S31输入单目深度视频帧。其中,单目深度视频帧由一个深度距离摄像机捕获100,形成二维深度图像序列。将S31形成的二维图像序列依次输入深层模型中,首先输出关键区域坐标,以从输入原图上提取关键区域,再紧接着输入网络,输出其中的人物各个骨骼点的概率置信图,最终根据置性图中的最大概率,得到骨骼点二维坐标。
S32利用训练好的深层模型推断预测出其中的人体骨骼点位置。
本发明中,如图2所示,构建深层模型102包括二维特征抽取模块21和时序特征表达模块22。二维特征抽取模块21由多个二维卷积层211和矫正线性单元层212依次串联,其间穿插连接多个池化层213组成,时序特征表达模块22由长短时记忆卷积层221组成。
二维特征抽取模块21如图3所示,二维特征抽取模块由多个二维卷积层和矫正线性单元层依次串联,其间穿插连接多个池化层组成,用于对深度视频数据进行逐帧处理,抽取人物姿态的二维空间特征。
时序特征表达模块22如图5所示,时序特征表达模块由长短时记忆卷积层组成,用于抽取连续多帧的二维深度图像的时空特征,输出K个概率置信图,K为待预测的骨骼点数目,用以预测出当前帧的二维人体骨骼点坐标。
下面将对本发明提出的深层模型进行详细说明。
如图4所示,给出了本发明的一种具体实施方式,二维特征抽取模块中包含23个二维卷积层(图中标记为卷积层),4个降采样池化层(图中标记为池化层)、2个全连接层(图中标记为全连接层)、1个反卷积层(图中标记为反卷积层)、1个特征图并联层(图中标记为并联层)和图像裁剪层。
二维卷积层:所述二维卷积层用于对输入的图像或者特征图在二维空间上进行卷积运算,提取层次化特征。假设输入深度图像的宽度和高度分别为w和h,通道数为1,二维卷积核的大小为w′×h′×m′,其中w′、h′、m′分别表示宽度、高度和通道数。卷积后可以获得一个特征图。其中位于特征图(x,y)位置处的值可以表示成,
其中p(x+i)(y+j)(s+k)表示输入的第(s+k)帧中(x+i,y+j)位置的像素值,ωijk表示卷积核的参数,b表示跟与该特征图相关的偏置。故此我们可以得到1个特征图,每个特征图的大小为(w-w'+1,h-h'+1)。由于单个卷积核只能抽取一种类型的特征,因此我们在每一层卷积层引入了多个卷积核抽取多种不同的特征。
降采样池化层:降采样我们使用max-pooling操作。该操作是指对特征图按照一定策略(选取最大值)进行降采样的过程。这是一种被广泛应用的有效过程,它能够提取出保持形状和偏移不变性的特征。对于一组特征图,max-pooling操作通过对它们降采样,得到同样数量的一组低分辨率特征图。更多地,如果在a1×a2大小的特征图上应用2×2的max-pooling操作,抽取2×2不重叠区域上的最大值,我们将得到大小为a1/2×a2/2的新特征图。
矫正线性单元层:该层是采用简单的非线性阈值函数,对输入进行只允许非负信号通过的变换。假设表示g本层的输出,W表示本层边的权重,a表示本层输入,则我们有
g=max(0,WTa)
实验证明在深层次卷积神经网络中,使用矫正线性单元层可使得训练时网络的收敛速度比传统的激励函数更快。
全连接层:该层将输入的特征图直接拉成一个长特征向量。该向量即表示从深度图像抽取到的关键区域特征。它的每一维元素都连向第一个全连接层(隐藏层)的所有节点,并进一步全连接到所有的输出单元。输出单元共4个,这里表示关键区域的坐标,分别对应关键区域矩形框的中心的横坐标,中心的纵坐标、矩形框高、矩形框宽。
图像裁剪层:根据传入的关键区域坐标,在输入图片上裁剪出新的图片。传入的关键区域坐标是一个矩形框,由四个变量表示(中心的横坐标、中心的纵坐标、矩形框高、矩形框宽)。
反卷积层:对输入的图像或者特征图在二维空间上进行反卷积运算,进行上采样操作。假设输入深度图像的第i个像素点为xi,二维反卷积核中对其有贡献的权重为二维反卷积核的偏置为b。反卷积后可以获得一个特征图。该特征图对xi的响应区域为Ωj,其中像素点j位置处的值yj可以表示为:
特征图并联层:将多组特征图并联在一起,这些特征图有相同的批数量、宽度和高度。假设有两组特征图依次表示为四元组(批数量、通道数1、高度、宽度)、(批数量、通道数2、高度、宽度),则经过特征图并联层,输出为(批数量、通道数1+通道数2、高度、宽度),即从通道数上将特征图并联在一起。
在本发明实施例中,时序特征表达模块由一个长短时记忆卷积层构成,用于抽取连续多帧的二维深度图像的时空特征,输出K个概率置信图,K为待预测的骨骼点数目,用以预测出当前帧的二维人体骨骼点坐标。在本发明中,K初步设置为15。如图7所示,骨骼点可以包括头部1,颈部2,躯干中心3,左肩4,左肘5,左腕6,右肩7,右肘8,右腕9,左臀10,左膝11,左踝12,右臀13,右膝14,右踝15中的任何一个或者多个的组合。
长短时记忆卷积层:该层由一定数量的长短时记忆单元组成。如图5所示,每个长短时记忆单元包括1个输入卷积门、1个输出卷积门、1个忘记卷积门和1个记忆元组;具体来讲,输入卷积门用于对输入进行预处理,输出卷积门用于对输出做后处理,忘记卷积门用于控制记忆元组,对记忆元组记录的内容进行自适应地遗忘。这里的卷积门是指常规的卷积操作。长短时记忆卷积层不同于采用矩阵乘法的长短时记忆层,能够保留数据的二维空间结构信息,结合记忆元组对时序信息的建模,能够有效地学习出二维时序与空间结构特征(时空特征)。更具体的公式表示如下。
输入卷积门:
遗忘卷积门:
记忆元组:
输出卷积门:
输出:
第t帧输入卷积门、忘记卷积门和输出卷积门分别由it、ft、ot表示,记忆单元C(时序上不同时间的记忆单元状态不同,Ct和Ct-1分别表示在t和t-1时刻的记忆元组状态)。Xt表示在t时刻的输入特征(可以为中间特征图或原图像),b表示卷积核中的偏置(bi、bf、bo依次表示输入卷积门、忘记卷积门和输出卷积门的偏置),W表示卷积核的权重(Wi、Wf、Wo依次表示输入卷积门、忘记卷积门和输出卷积门的权重),σ表示sigmoid激活函数,tanh表示tanh函数,*和о分别表示卷积操作和点乘操作,Ht和Ht-1分别表示在t和t-1时刻的输出特征。在进行前向传播的时候,输入包括t时刻的输入特征Xt和t-1时刻的输出特征Ht-1,从而通过计算得到Ht。
模型的训练:模型优化算法具体地是指采用基于一阶梯度的随机优化算法Adam,联合二维特征抽取模块和时序特征表达模块一起更新参数。学习过程用的损失函数定义如下:
其中,P是预测出的关键区域坐标,P*是真实的关键区域坐标,K是骨骼点数目,bk(z)是骨骼点k的预测特征图,是骨骼点k的概率置信图,z是概率置信图中包含的空间范围。该公式包括:计算训练样本中预测关键区域与真实关键区域坐标的欧式距离,和各个真实的二维人体骨骼点概率置信图与预测出的二维人体骨骼点坐标的欧式距离作为误差;采用时序反向传播算法求长短时记忆层中各个参数的偏导数;根据长短时记忆层传入的残差,通过反向传播算法求卷积层中各个参数的偏导数;根据计算结果更新模型参数并重复迭代计算。
图6是本发明提供的一种单目深度视频的二维人体骨骼点定位方法的数据流向图。从该图可以看出,经深度距离摄像机捕获的第t帧图像,1)传入二维特征抽取模块,首先历经多重卷积和池化,进行关键区域定位,根据定位结果对输入的第t帧图像进行裁剪,再经过多重卷积和池化,输出第t帧的二维人体骨骼点特征图;2)传入时序特征表达模块,历经输入、输出、忘记卷积门和在t-1次状态的记忆元组等相关操作,输出t+1次状态的记忆元组和第t帧的K个概率置信图;根据所得的第t帧的K个概率置信图,分别取其中最大概率的坐标,加上关键区域的坐标,最终得到预测的人体骨骼点坐标。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (9)
1.一种深度视频的二维人体骨骼点定位方法,其特征在于,构建可配置的深层模型,并在该深层模型中通过长短时记忆卷积层引入时序信息,提升人体骨骼点的预测效果,该方法包括:
S1.深层模型构建步骤:所述深层模型包括二维特征抽取模块和时序特征表达模块;所述二维特征抽取模块由多个二维卷积层、多个矫正线性单元层、多个池化层组成;每个所述二维卷积层后面连接一个所述矫正线性单元层,所述二维特征抽取模块用于对深度视频数据进行逐帧处理,抽取深度视频帧中的关键区域和人体骨骼点的二维空间特征并输出到时序特征表达模块;其中,所述关键区域为深度视频帧中包含人物的矩形区域;
所述时序特征表达模块由长短时记忆卷积层组成,用于抽取连续多帧的深度视频帧的时空特征,并输出K个预测概率置信图,从而预测出当前帧的二维人体骨骼点坐标,其中,K为待预测的骨骼点数目;
S2.训练步骤:包括S21收集训练样本;S22生成训练目标;S23随机初始化深层模型及其参数,所述参数由二维卷积层的参数和长短时记忆卷积层中的参数组成;S24采用模型优化算法,端到端地利用训练样本更新深层模型的参数;其中,所述训练目标包含分别由真实的二维人体骨骼点坐标生成的真实概率置信图和真实关键区域的坐标;其中,每个骨骼点对应一个二维的真实概率置信图,以及,所述关键区域的坐标由4个变量表示,依次是矩形区域中心的横坐标、矩形区域中心的纵坐标、矩形区域的高、矩形区域的宽;
S3.识别步骤:包括S31输入待预测深度视频帧;S32利用训练好的深层模型预测出所述待预测深度视频帧中的人体骨骼点位置。
2.根据权利要求1所述的深度视频的二维人体骨骼点定位方法,其特征在于,所述步骤S21中的训练样本包括连续多帧深度视频帧的视频数据、每个深度视频帧中真实的二维人体骨骼点坐标;其中,视频数据由深度距离相机采集,配合用户精细标注的真实的二维人体骨骼点坐标,用于学习深层模型的参数。
3.根据权利要求1所述的深度视频的二维人体骨骼点定位方法,其特征在于,所述二维卷积层对输入的深度视频数据在二维空间上进行卷积运算,提取层次化特征,所述池化层使用没有重叠的最大池化操作,用于提取形状和偏移不变的特征,同时减少深度视频数据大小,提高计算效率。
4.根据权利要求1所述的深度视频的二维人体骨骼点定位方法,其特征在于,每个二维卷积层后面连接一个矫正线性单元层,所述矫正线性单元层采用非线性阀值函数,对输入信号进行只允许非负信号通过的处理。
6.根据权利要求1所述的深度视频的二维人体骨骼点定位方法,其特征在于,所述步骤S31中的待预测深度视频帧为由一个深度距离相机捕获的二维深度图像序列。
7.根据权利要求6所述的深度视频的二维人体骨骼点定位方法,其特征在于,所述步骤S32是将所述的二维深度图像序列依次输入深层模型中,输出所述二维深度图像中的各个骨骼点的预测概率置信图,最终根据预测概率置信图中的最大概率,预测得到骨骼点的二维坐标。
8.根据权利要求1所述的深度视频的二维人体骨骼点定位方法,其特征在于,所述长短时记忆卷积层包括1个输入卷积门、1个输出卷积门、1个遗忘卷积门、1个记忆元组,其中,所述的输入卷积门用于对输入进行预处理;所述的输出卷积门用于对输出做后处理;所述的遗忘卷积门用于控制记忆元组;对所述记忆元组记录的内容进行自适应地遗忘。
9.根据权利要求8所述的深度视频的二维人体骨骼点定位方法,其特征在于,所述长短时记忆卷积层的输入卷积门在第t时刻的输出、遗忘卷积门在第t时刻的输出、记忆元组在第t时刻的状态、输出卷积门在第t时刻的输出以及所述长短时记忆卷积层在第t时刻的的输出用以下公式表示,
输入卷积门在第t时刻的输出:
遗忘卷积门在第t时刻的输出:
记忆元组在第t时刻的状态:
输出卷积门在第t时刻的输出:
所述长短时记忆卷积层在第t时刻的输出:
其中,输入卷积门在第t时刻的输出、遗忘卷积门在第t时刻的输出和输出卷积门在第t时刻的输出分别由it、ft、ot表示,Ct和Ct-1分别表示在第t和t-1时刻的记忆元组状态,Xt表示在第t时刻的输入,bi、bf、bc、bo依次表示输入卷积门、遗忘卷积门、记忆元组和输出卷积门的偏置,Wxi、Whi、Wci依次表示输入卷积门中处理对应输入的Xt、Ht-1、Ct-1的权重,Wxf、Whf、Wcf依次表示遗忘卷积门中处理对应输入的Xt、Ht-1、Ct-1的权重,Wxc、Whc依次表示记忆元组中处理对应输入的Xt、Ht-1的权重,Wxo、Who、Wco依次表示输出卷积门中处理对应输入的Xt、Ht-1、Ct的权重,σ表示sigmoid激活函数,tanh表示tanh函数,*和ο分别表示卷积操作和点乘操作,Ht和Ht-1分别表示所述长短时记忆卷积层在第t和t-1时刻的输出特征;将第t时刻的输入Xt和第t-1时刻的输出Ht-1输入至所述长短时记忆卷积层,从而通过计算得到Ht。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710541240.6A CN107492121B (zh) | 2017-07-03 | 2017-07-03 | 一种单目深度视频的二维人体骨骼点定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710541240.6A CN107492121B (zh) | 2017-07-03 | 2017-07-03 | 一种单目深度视频的二维人体骨骼点定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107492121A CN107492121A (zh) | 2017-12-19 |
CN107492121B true CN107492121B (zh) | 2020-12-29 |
Family
ID=60644611
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710541240.6A Active CN107492121B (zh) | 2017-07-03 | 2017-07-03 | 一种单目深度视频的二维人体骨骼点定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107492121B (zh) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019006591A1 (zh) * | 2017-07-03 | 2019-01-10 | 广州新节奏智能科技股份有限公司 | 一种单目深度视频的二维人体骨骼点定位方法 |
CN108960078A (zh) * | 2018-06-12 | 2018-12-07 | 温州大学 | 一种基于单目视觉、从动作识别身份的方法 |
CN108564586A (zh) * | 2018-06-22 | 2018-09-21 | 高鹏 | 一种基于深度学习的人体曲线测量方法及系统 |
CN109190656B (zh) * | 2018-07-16 | 2020-07-21 | 浙江大学 | 一种低采样定位环境下的室内语义轨迹标注和补全方法 |
CN109145788B (zh) * | 2018-08-08 | 2020-07-07 | 北京云舶在线科技有限公司 | 基于视频的姿态数据捕捉方法和系统 |
CN109299685A (zh) * | 2018-09-14 | 2019-02-01 | 北京航空航天大学青岛研究院 | 用于人体关节3d坐标估计的推断网络及其方法 |
CN109376663A (zh) * | 2018-10-29 | 2019-02-22 | 广东工业大学 | 一种人体姿态识别方法及相关装置 |
CN109461162B (zh) * | 2018-12-03 | 2020-05-12 | 中国科学技术大学 | 图像中目标分割的方法 |
CN109685797B (zh) * | 2018-12-25 | 2021-08-10 | 北京旷视科技有限公司 | 骨骼点检测方法、装置、处理设备及存储介质 |
CN109711374B (zh) * | 2018-12-29 | 2021-06-04 | 深圳美图创新科技有限公司 | 人体骨骼点识别方法及装置 |
CN109977747A (zh) * | 2019-01-08 | 2019-07-05 | 浙江大学 | 一种综合时空特征的煤矸识别系统 |
CN110287955B (zh) * | 2019-06-05 | 2021-06-22 | 北京字节跳动网络技术有限公司 | 目标区域确定模型训练方法、装置和计算机可读存储介质 |
CN110232685B (zh) * | 2019-06-17 | 2022-09-30 | 合肥工业大学 | 基于深度学习的空间骨盆参数自动测量方法 |
CN110472612B (zh) * | 2019-08-22 | 2021-09-07 | 海信集团有限公司 | 人体行为识别方法及电子设备 |
CN112052902B (zh) * | 2020-04-16 | 2023-05-23 | 北京信息科技大学 | 滚动轴承故障诊断方法、系统、计算机程序及存储介质 |
CN112099330B (zh) * | 2020-08-31 | 2021-09-28 | 中国人民解放军军事科学院国防科技创新研究院 | 基于外部相机和穿戴式显控设备的全息人体重建方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104217214A (zh) * | 2014-08-21 | 2014-12-17 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 基于可配置卷积神经网络的rgb-d人物行为识别方法 |
CN104700828A (zh) * | 2015-03-19 | 2015-06-10 | 清华大学 | 基于选择性注意原理的深度长短期记忆循环神经网络声学模型的构建方法 |
CN105787439A (zh) * | 2016-02-04 | 2016-07-20 | 广州新节奏智能科技有限公司 | 一种基于卷积神经网络的深度图像人体关节定位方法 |
-
2017
- 2017-07-03 CN CN201710541240.6A patent/CN107492121B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104217214A (zh) * | 2014-08-21 | 2014-12-17 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 基于可配置卷积神经网络的rgb-d人物行为识别方法 |
CN104700828A (zh) * | 2015-03-19 | 2015-06-10 | 清华大学 | 基于选择性注意原理的深度长短期记忆循环神经网络声学模型的构建方法 |
CN105787439A (zh) * | 2016-02-04 | 2016-07-20 | 广州新节奏智能科技有限公司 | 一种基于卷积神经网络的深度图像人体关节定位方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107492121A (zh) | 2017-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107492121B (zh) | 一种单目深度视频的二维人体骨骼点定位方法 | |
CN107392097B (zh) | 一种单目彩色视频的三维人体关节点定位方法 | |
WO2022036777A1 (zh) | 基于卷积神经网络的人体动作姿态智能估计方法及装置 | |
KR102302725B1 (ko) | 룸 레이아웃 추정 방법들 및 기술들 | |
CN111310707B (zh) | 基于骨骼的图注意力网络动作识别方法及系统 | |
CN105787439B (zh) | 一种基于卷积神经网络的深度图像人体关节定位方法 | |
CN111339942B (zh) | 基于视点调整的图卷积循环网络骨骼动作识别方法及系统 | |
CN110503680A (zh) | 一种基于非监督的卷积神经网络单目场景深度估计方法 | |
CN111814719A (zh) | 一种基于3d时空图卷积的骨架行为识别方法 | |
CN111160294B (zh) | 基于图卷积网络的步态识别方法 | |
CN112232134B (zh) | 一种基于沙漏网络结合注意力机制的人体姿态估计方法 | |
CN113095254B (zh) | 一种人体部位关键点的定位方法及系统 | |
CN116012950B (zh) | 一种基于多重心时空注意图卷积网络的骨架动作识别方法 | |
Núñez et al. | Multiview 3D human pose estimation using improved least-squares and LSTM networks | |
CN111833400B (zh) | 一种相机位姿定位方法 | |
CN114581502A (zh) | 基于单目图像的三维人体模型联合重建方法、电子设备及存储介质 | |
CN116030498A (zh) | 面向虚拟服装走秀的三维人体姿态估计方法 | |
CN112149645A (zh) | 基于生成对抗学习和图神经网络的人体姿势关键点识别方法 | |
CN112668543B (zh) | 一种手模型感知的孤立词手语识别方法 | |
CN113989928A (zh) | 一种动作捕捉和重定向方法 | |
Babu et al. | Subject independent human action recognition using spatio-depth information and meta-cognitive RBF network | |
CN114882493A (zh) | 一种基于图像序列的三维手部姿态估计与识别方法 | |
CN117115911A (zh) | 一种基于注意力机制的超图学习动作识别系统 | |
CN112149613A (zh) | 一种基于改进lstm模型的动作预估评定方法 | |
CN116246338B (zh) | 一种基于图卷积和Transformer复合神经网络的行为识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |