CN109948453A - 一种基于卷积神经网络的多人姿态估计方法 - Google Patents
一种基于卷积神经网络的多人姿态估计方法 Download PDFInfo
- Publication number
- CN109948453A CN109948453A CN201910136583.3A CN201910136583A CN109948453A CN 109948453 A CN109948453 A CN 109948453A CN 201910136583 A CN201910136583 A CN 201910136583A CN 109948453 A CN109948453 A CN 109948453A
- Authority
- CN
- China
- Prior art keywords
- human body
- key point
- body key
- people
- loss
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明提出了一种基于卷积神经网络的多人姿态估计方法,将待处理图像输入到已完成训练的多人姿态估计网络得到两组数据,分别为人体关键点位置数据和人体关键点映射向量数据,然后解码数据得到图像中人体关键点和人体中心点的位置,并通过映射向量将关键点映射到可聚类的二维空间,再使用k‑means算法对映射后的关键点进行聚类间接实现原始人体关键点的分组,对分组关键点分析,最终实现多人姿态估计。本发明提出的多人姿态估计网络由特征提取网络、特征通道压缩模块、人体关键点位置分支模块和人体关键点映射向量分支模块四部分组成,可以实现端到端的训练和预测。本发明是一种自下而上多人姿态估计方法,在速度和准确率上均有良好表现。
Description
技术领域
本发明属于计算机视觉技术领域,具体涉及到了一种基于卷积神经网络的多人姿态估计方法。
背景技术
在计算机视觉任务中,人体常常是主要的研究对象,例如视频监控、运动分析和人机交互等。人的行为动作由人体关键点或称为骨骼点的运动组成,如肩部、手肘和手腕的运动组成手的运动。如果可以定位这些人体关键点,就可以为后续的人体行为分析打下基础,例如在无人监守的情况下自动识别打砸,行人跌倒等异常行为。基于计算机视觉的多人姿态估计,是指根据图像信息定位人体关键点,将人体关键点相连从而构成人体骨架模型。多人姿态估计主要面临以下难点:图像中的人体可能出现在任意位置,数量和尺寸未知;图像中的人体存在互相遮挡的情况,人体外观不完整;图像中的人体姿态复杂多变等。
近年来,得益于卷积神经网络的强大图像特征提取能力,多人姿态估计取得了显著的进步,主要可以分为自上而下和自下而上两种思路。其中自上而下是指,首先检测图像中人体从而获得人体的位置、数量和尺寸信息,再对每个检出人体采用单人姿态估计方法。这种方法依赖人体检测器,测试速度慢且随图像中人体个数线性变慢。自下而上是指,首先检测图像中所有的人体关键点再建模关键点之间的关系,属于相同人体的关键点分组在一起,组成人体骨架模型,从而实现多人姿态估计。现有技术一般采用预测关键点标记或者关键点之间的连接关系,通过标记或者连接关系对关键点分组,不能很好的利用人体结构特点,可解释性较差。
发明内容
针对现有技术的缺陷,本发明提供了一种基于卷积神经网络的多人姿态估计方法,旨在解决现有技术自上而下的方法速度慢,依赖人体检测器,自下而上的方法其关键点分组可解释性较差的问题。
为实现上述目的,本发明提供了一种基于卷积神经网络的多人姿态估计方法,包括:
(1)使用完成训练的多人姿态估计网络对输入的512×512大小的图像进行计算得到两种数据,分别是人体关键点位置数据和人体关键点映射向量数据;
(2)解码人体关键点位置数据得到图像中所有的16类人体关键点和人体中心,解码人体关键点映射向量数据,将每个人体关键点和人体中心映射到可聚类的二维空间得到人体关键点映射后的二维坐标;
(3)使用k-means对映射后的二维坐标分组,从而间接实现原始人体关键点分组,完成多人姿态估计。
优选地,步骤(1)中所述多人姿态估计网络由特征提取网络、特征通道压缩模块、人体关键点位置分支模块和人体关键点映射向量分支模块四部分组成。其中,特征提取网络为去除池化层和全连接层的ResNet50(残差50)网络,用于提取图像特征;特征通道压缩模块由卷积层、BN(Batch Normalization,批归一化)和ReLU(Rectified linear unit,修正线性单元)激活函数组成,用于压缩特征,使得特征通道数由2048缩减至512;人体关键点位置分支模块由3层卷积和激活函数组成,前两层激活函数为ReLU激活函数,最后一层激活函数为sigmoid激活函数,用于输出人体关键点位置数据;人体关键点映射向量分支模块由3层卷积和激活函数组成,前两层激活函数为ReLU激活函数,最后一层激活函数为tanh激活函数,用于输出人体关键点映射向量数据。
优选地,多人姿态估计网络的训练采用的损失函数为平方损失函数,定义总体损失函数为:
Loss=loc_loss+conf_loss+vec_loss
其中loc_loss表示位置损失,conf_loss表示置信度损失,vec_loss表示映射向量损失,具体计算公式如下:
其中为示性函数表示第i类人体关键点落在第k个网格中,为示性函数表示第i类人体关键点没有落在第k个网格中,具体为以下公式:
表示第k个网格第i类人体关键点的位置输出置信度输出和映射向量输出 分别表示对应的真实标签值,λxy,λconf_obj,λconf_noobj,λvec是调节位置损失、正样本置信度损失、负样本置信度损失和映射向量损失相应各部分损失的经验参数,考虑到不含关键点的网格占比大,为了平衡正负样本,经验性的将各参数取值为1、1、0.05和1。
优选地,步骤(1)中所述人体关键点位置数据是S×S×51的数据块,其中S×S指图像划分成S×S大小的网格,51由16类人体关键点和1个人体中心共17组位置信息(p,x,y)组成,p表示人体关键点落在该网格的概率,x表示人体关键点相对于网格左上角的水平方向偏移,y表示人体关键点相对于网格左上角的竖直方向偏移。
优选地,步骤(1)中所述人体关键点映射向量数据是S×S×32的数据块,其中S×S指图像划分成S×S大小的网格,32由16类人体关键点指向人体中心的映射向量v组成,其中v是二维向量(vx,vy)。
优选地,步骤(2)中所述解码人体关键点位置数据的过程为,通过S×S网格输出概率p,使用非极大值抑制确定最大概率输出值,其对应关键点位于S×S网格的第row行,第col列,该网格输出人体关键点相对于该网格左上角的坐标(x,y),则人体关键点位置(px,py)由以下公式得到。
其中W和H为输入图像的宽和高。
优选地,步骤(2)中所述解码人体关键点映射向量数据具体为关键点所在网格输出映射向量(vx,vy),由以下公式得到映射后的二维坐标(x′,y′):
x′=px+vx
y′=py+vy
优选地,步骤(3)中所述使用k-means对映射后的二维坐标分组具体为k-means算法,聚类中心个数是人体中心个数,聚类初始化中心是人体中心位置,聚类所用特征是人体关键点映射后的二维坐标(x′,y′)。
附图说明
图1是本发明提供的基于卷积神经网络的多人姿态估计方法的流程示意图;
图2是本发明实施例提供的多人姿态估计网络的结构示意图;
图3是本发明实施例提供的人体关键点位置数据示意图;
图4是本发明实施例提供的人体关键点映射向量数据示意图;
图5是本发明实施例提供的人体关键点与S×S网格关系示意图;
图6是本发明实施例提供的人体关键点的预测结果示意图;
图7是本发明实施例提供的人体关键点经过映射后的结果示意图;
图8为本发明实施例提供的映射后的人体关键点聚类结果示意图;
图9为本发明实施例提供的多人姿态估计结果示意图。
具体实施方式
为了充分阐述本发明的目的、技术方案及优点,以下结合附图,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施方式仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
本发明的具体步骤如图1所示的流程示意图,可以分为以下步骤:
(1)输入512×512大小的图像,使用完成训练的多人姿态估计网络计算得到两种数据,分别是人体关键点位置数据和人体关键点映射向量数据;
(2)解码人体关键点位置数据得到图像中所有的16类人体关键点和人体中心,解码人体关键点映射向量数据,将每个人体关键点和人体中心映射到可聚类的二维空间得到人体关键点映射后的二维坐标;
(3)使用k-means对映射后的人体关键点聚类分组,从而间接实现原始人体关键点分组,完成多人姿态估计。
搭建多人姿态估计网络如图2所示,该网络由特征提取网络、特征通道压缩模块、人体关键点位置分支模块和人体关键点映射向量分支模块四部分组成。
具体地,特征提取网络为去除池化层和全连接层的ResNet50(残差50)网络,用于提取图像特征;特征通道压缩模块由卷积层、BN(Batch Normalization,批归一化)和ReLU(Rectified linear unit,修正线性单元)激活函数组成,用于压缩特征,使得特征通道由2048缩减至512;人体关键点位置分支模块由3层卷积和激活函数组成,前两层激活函数为ReLU激活函数,最后一层激活函数为sigmoid激活函数,用于输出人体关键点位置数据;人体关键点映射向量分支模块由3层卷积和激活函数组成,前两层激活函数为ReLU激活函数,最后一层激活函数为tanh激活函数,用于输出人体关键点映射向量数据。
本发明使用深度学习方法,其训练过程使用了Ubuntu16.04系统,Pytorch深度学习框架,硬件配置如下,GPU:GTX1080Ti(显存11GB)、内存:32GB、CPU:Intel酷睿12核i7处理器。
训练使用随机梯度下降(SGD,Stochastic Gradient Descent)作为优化器,其批尺度(Batch Size)为12,动量(Momentum)为0.9,权重惩罚系数(Weight Decay)为5×10-4,初始化学习率为5×10-3,随着训练轮数(Epoch)递减,训练轮数为100轮。输入图像尺寸为512×512,做随机旋转和随机水平翻转数据增强,其中随机概率均为0.5,旋转角度范围在[-30°,30°]之间。
多人姿态估计网络输出两组数据,分别为人体关键点位置数据和人体关键点映射向量数据。如图3所示是人体关键点位置数据是S×S×51的数据块,具体而言S×S指图像划分成S×S大小的网格,51由16类人体关键点和1个人体中心共17组位置信息(p,x,y)组成,分别表示人体关键点落在该网格的概率,相对于网格左上角的水平方向偏移,相对于网格左上角的竖直方向偏移。如图4所示是人体关键点映射向量数据是S×S×32的数据块,其中S×S指图像划分成S×S大小的网格,32由16类人体关键点指向人体中心的映射向量v组成,其中v是二维向量(vx,vy)。
网络输出以上两组数据后,需要对数据解码得到最终想要的结果,人体关键点位置编码如图5所示,其中(xp,yp)为原始位置坐标,(xi,yi)是编码后的位置坐标,(xg,yg)是网格左上角坐标,b是网格边长,具体编码公式如下:
解码人体关键点位置数据的过程为,通过S×S网格输出概率p,使用非极大值抑制确定最大概率输出值,其对应关键点位于S×S网格的第row行,第col列,该网格输出人体关键点相对于该网格左上角的坐标(x,y),则人体关键点位置(px,py)由以下公式得到:
其中W和H为输入图像的宽和高,得到关键点位置和人体中心位置如图6所示。
解码人体关键点映射向量数据具体为,通过关键点所在网格输出映射向量(vx,vy),由以下公式将人体关键点映射到位置(x′,y′):
x′=px+vx
y′=py+vy
得到映射向量和映射后的关键点位置如图7所示。
之后使用k-means对映射后的人体关键点聚类分组,具体为k-means算法,聚类中心个数是人体中心个数,聚类初始化中心是人体中心位置,聚类所用特征是人体关键点映射后的二维坐标(x′,y′),聚类结果如图8所示,多人对象分别为不同类别。
得到上述聚类结果间接实现了原始人体关键点的分组,从而实现了多人姿态估计,结果如图9所示。
本发明的内容并不限于上述实施方式,并不限定它的保护范围。本技术领域的技术人员可以对其进行局部修改,只要没有超出本专利的技术实质,都在本专利的保护范围之内。
Claims (8)
1.一种基于卷积神经网络的多人姿态估计方法,其特征在于,包括下述步骤:
(1)使用完成训练的多人姿态估计网络对输入的图像进行计算得到人体关键点位置数据和人体关键点映射向量数据;
(2)解码所述人体关键点位置数据得到所述图像中所有的m类人体关键点和人体中心,解码所述人体关键点映射向量数据,将所述每类人体关键点和人体中心映射到可聚类的二维空间得到人体关键点映射后的二维坐标;
(3)对所述映射后的二维坐标分组,进行多人姿态估计。
2.如权利要求1所述的多人姿态估计方法,其特征在于,所述多人姿态估计网络包括特征提取网络、特征通道压缩模块、人体关键点位置分支模块和人体关键点映射向量分支模块;
所述特征提取网络用于提取所述图像的特征;所述特征通道压缩模块用于压缩所述特征;所述人体关键点位置分支模块用于输出人体关键点位置数据;所述人体关键点映射向量分支模块用于输出人体关键点映射向量数据。
3.如权利要求2所述的多人姿态估计方法,其特征在于,所述特征通道压缩模块包括卷积层、BN(Batch Normalization,批归一化)和ReLU(Rectified linear unit,修正线性单元)激活函数;所述人体关键点位置分支模块包括3层卷积和激活函数,前两层激活函数为ReLU激活函数,最后一层激活函数为sigmoid激活函数;所述人体关键点映射向量分支模块包括3层卷积和激活函数,前两层激活函数为ReLU激活函数,最后一层激活函数为tanh激活函数。
4.如权利要求1所述的多人姿态估计方法,其特征在于,所述多人姿态估计网络的训练采用的损失函数为平方损失函数,定义总体损失函数为:
Loss=loc_loss+conf_loss+vec_loss
其中loc_loss表示位置损失,conf_loss表示置信度损失,vec_loss表示映射向量损失,具体计算公式如下:
其中为示性函数表示第i类人体关键点落在第k个网格中,为示性函数表示第i类人体关键点没有落在第k个网格中,具体为以下公式:
表示第k个网格第i类人体关键点的位置输出置信度输出和映射向量输出 分别表示对应的真实标签值,λxy,λconf_obj,λconf_noobj,λvec分别是调节位置损失、正样本置信度损失、负样本置信度损失和映射向量损失相应各部分损失的经验参数,各参数取值为1、1、1、0.05和1。
5.如权利要求1所述的多人姿态估计方法,其特征在于,所述人体关键点位置数据为S×S×3×(m+1)的数据块,所述图像被划分成S×S大小的网格,3×(m+1)包括m类人体关键点和1个人体中心共m+1组位置信息(p,x,y),p表示人体关键点落在该网格的概率,x表示人体关键点相对于网格左上角的水平方向偏移,y表示人体关键点相对于网格左上角的竖直方向偏移。
6.如权利要求1所述的多人姿态估计方法,其特征在于,所述人体关键点映射向量数据是S×S×2×m的数据块,所述图像被划分成S×S大小的网格,2×m包括m类人体关键点指向人体中心的映射向量v=(vx,vy)。
7.如权利要求1所述的多人姿态估计方法,其特征在于,所述解码人体关键点位置数据包括使用非极大值抑制方法得到最大概率输出值,所述最大概率对应的人体关键点位于S×S网格的第row行,第col列,解码后的人体关键点位置(px,py)由以下公式得到:
其中W和H为输入图像的宽和高。
8.如权利要求1所述的多人姿态估计方法,其特征在于,所述映射后的二维坐标(x′,y′)由以下公式得到:
x′=px+vx
y′=py+vy
其中v=(vx,vy)为人体关键点指向人体中心的映射向量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910136583.3A CN109948453B (zh) | 2019-02-25 | 2019-02-25 | 一种基于卷积神经网络的多人姿态估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910136583.3A CN109948453B (zh) | 2019-02-25 | 2019-02-25 | 一种基于卷积神经网络的多人姿态估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109948453A true CN109948453A (zh) | 2019-06-28 |
CN109948453B CN109948453B (zh) | 2021-02-09 |
Family
ID=67008031
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910136583.3A Expired - Fee Related CN109948453B (zh) | 2019-02-25 | 2019-02-25 | 一种基于卷积神经网络的多人姿态估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109948453B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110598554A (zh) * | 2019-08-09 | 2019-12-20 | 中国地质大学(武汉) | 基于对抗学习的多人姿态估计方法 |
CN110889393A (zh) * | 2019-12-10 | 2020-03-17 | 上海芯翌智能科技有限公司 | 人体姿态估计方法及设备 |
CN110969138A (zh) * | 2019-12-10 | 2020-04-07 | 上海芯翌智能科技有限公司 | 人体姿态估计方法及设备 |
CN111291729A (zh) * | 2020-03-26 | 2020-06-16 | 北京百度网讯科技有限公司 | 一种人体姿态估计方法、装置、设备及存储介质 |
CN111626220A (zh) * | 2020-05-28 | 2020-09-04 | 北京拙河科技有限公司 | 一种多人三维姿态的估计方法、装置、介质及设备 |
CN111797714A (zh) * | 2020-06-16 | 2020-10-20 | 浙江大学 | 基于关键点聚类的多视点人体运动捕捉方法 |
WO2021007859A1 (zh) * | 2019-07-18 | 2021-01-21 | 华为技术有限公司 | 一种人体姿态估计方法及装置 |
CN112836594A (zh) * | 2021-01-15 | 2021-05-25 | 西北大学 | 一种基于神经网络的三维手部姿态估计方法 |
CN112966574A (zh) * | 2021-02-22 | 2021-06-15 | 厦门艾地运动科技有限公司 | 人体三维关键点预测方法、装置及电子设备 |
CN116091596A (zh) * | 2022-11-29 | 2023-05-09 | 南京龙垣信息科技有限公司 | 一种自下而上的多人2d人体姿态估计方法及装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103824089A (zh) * | 2014-02-17 | 2014-05-28 | 北京旷视科技有限公司 | 一种基于级联回归的人脸3d姿态识别方法 |
CN106598221A (zh) * | 2016-11-17 | 2017-04-26 | 电子科技大学 | 基于眼部关键点检测的3d视线方向估计方法 |
CN107886069A (zh) * | 2017-11-10 | 2018-04-06 | 东北大学 | 一种多目标人体2d姿态实时检测系统及检测方法 |
CN108229445A (zh) * | 2018-02-09 | 2018-06-29 | 深圳市唯特视科技有限公司 | 一种基于级联金字塔网络的多人姿态估计方法 |
CN108549844A (zh) * | 2018-03-22 | 2018-09-18 | 华侨大学 | 一种基于多层分形网络和关节亲属模式的多人姿态估计方法 |
CN109376571A (zh) * | 2018-08-03 | 2019-02-22 | 西安电子科技大学 | 基于变形卷积的人体姿态估计方法 |
CN109376681A (zh) * | 2018-11-06 | 2019-02-22 | 广东工业大学 | 一种多人姿态估计方法及系统 |
-
2019
- 2019-02-25 CN CN201910136583.3A patent/CN109948453B/zh not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103824089A (zh) * | 2014-02-17 | 2014-05-28 | 北京旷视科技有限公司 | 一种基于级联回归的人脸3d姿态识别方法 |
CN106598221A (zh) * | 2016-11-17 | 2017-04-26 | 电子科技大学 | 基于眼部关键点检测的3d视线方向估计方法 |
CN107886069A (zh) * | 2017-11-10 | 2018-04-06 | 东北大学 | 一种多目标人体2d姿态实时检测系统及检测方法 |
CN108229445A (zh) * | 2018-02-09 | 2018-06-29 | 深圳市唯特视科技有限公司 | 一种基于级联金字塔网络的多人姿态估计方法 |
CN108549844A (zh) * | 2018-03-22 | 2018-09-18 | 华侨大学 | 一种基于多层分形网络和关节亲属模式的多人姿态估计方法 |
CN109376571A (zh) * | 2018-08-03 | 2019-02-22 | 西安电子科技大学 | 基于变形卷积的人体姿态估计方法 |
CN109376681A (zh) * | 2018-11-06 | 2019-02-22 | 广东工业大学 | 一种多人姿态估计方法及系统 |
Non-Patent Citations (3)
Title |
---|
SAPP B: "MODEC: Multimodal decomposable models for human pose estimation", 《2013 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
关韬: "基于深度学习的行人姿态识别与行为预判算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
范佳柔: "基于深度学习的多人姿态估计", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021007859A1 (zh) * | 2019-07-18 | 2021-01-21 | 华为技术有限公司 | 一种人体姿态估计方法及装置 |
CN110598554A (zh) * | 2019-08-09 | 2019-12-20 | 中国地质大学(武汉) | 基于对抗学习的多人姿态估计方法 |
CN110889393A (zh) * | 2019-12-10 | 2020-03-17 | 上海芯翌智能科技有限公司 | 人体姿态估计方法及设备 |
CN110969138A (zh) * | 2019-12-10 | 2020-04-07 | 上海芯翌智能科技有限公司 | 人体姿态估计方法及设备 |
CN111291729A (zh) * | 2020-03-26 | 2020-06-16 | 北京百度网讯科技有限公司 | 一种人体姿态估计方法、装置、设备及存储介质 |
CN111291729B (zh) * | 2020-03-26 | 2023-09-01 | 北京百度网讯科技有限公司 | 一种人体姿态估计方法、装置、设备及存储介质 |
CN111626220A (zh) * | 2020-05-28 | 2020-09-04 | 北京拙河科技有限公司 | 一种多人三维姿态的估计方法、装置、介质及设备 |
CN111797714A (zh) * | 2020-06-16 | 2020-10-20 | 浙江大学 | 基于关键点聚类的多视点人体运动捕捉方法 |
CN111797714B (zh) * | 2020-06-16 | 2022-04-26 | 浙江大学 | 基于关键点聚类的多视点人体运动捕捉方法 |
CN112836594A (zh) * | 2021-01-15 | 2021-05-25 | 西北大学 | 一种基于神经网络的三维手部姿态估计方法 |
CN112836594B (zh) * | 2021-01-15 | 2023-08-08 | 西北大学 | 一种基于神经网络的三维手部姿态估计方法 |
CN112966574A (zh) * | 2021-02-22 | 2021-06-15 | 厦门艾地运动科技有限公司 | 人体三维关键点预测方法、装置及电子设备 |
CN116091596A (zh) * | 2022-11-29 | 2023-05-09 | 南京龙垣信息科技有限公司 | 一种自下而上的多人2d人体姿态估计方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN109948453B (zh) | 2021-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109948453A (zh) | 一种基于卷积神经网络的多人姿态估计方法 | |
CN110175566B (zh) | 一种基于rgbd融合网络的手部姿态估计系统及方法 | |
CN110348330B (zh) | 基于vae-acgan的人脸姿态虚拟视图生成方法 | |
CN110276269B (zh) | 一种基于注意力机制的遥感图像目标检测方法 | |
CN105956560B (zh) | 一种基于池化多尺度深度卷积特征的车型识别方法 | |
CN107967695B (zh) | 一种基于深度光流和形态学方法的运动目标检测方法 | |
CN102682302B (zh) | 一种基于关键帧的多特征融合的人体姿态识别方法 | |
CN103679151B (zh) | 一种融合LBP、Gabor特征的人脸聚类方法 | |
CN108108751B (zh) | 一种基于卷积多特征和深度随机森林的场景识别方法 | |
CN106066996A (zh) | 人体动作的局部特征表示方法及其在行为识别的应用 | |
CN103400154B (zh) | 一种基于有监督等距映射的人体动作识别方法 | |
CN108182397B (zh) | 一种多姿态多尺度的人脸验证方法 | |
CN111160294B (zh) | 基于图卷积网络的步态识别方法 | |
CN111832516A (zh) | 基于无监督视频表示学习的视频行为识别方法 | |
CN104298974A (zh) | 一种基于深度视频序列的人体行为识别方法 | |
CN108921019A (zh) | 一种基于GEI和TripletLoss-DenseNet的步态识别方法 | |
CN104077742B (zh) | 基于Gabor特征的人脸素描合成方法及系统 | |
CN110309723A (zh) | 一种基于人体特征细分类的驾驶员行为识别方法 | |
CN105893942B (zh) | 一种基于eSC和HOG的自适应HMM的手语识别方法 | |
CN110176023A (zh) | 一种基于金字塔结构的光流估计方法 | |
CN103218825A (zh) | 一种尺度不变的时空兴趣点快速检测方法 | |
CN108681689A (zh) | 基于生成对抗网络的帧率增强步态识别方法及装置 | |
CN105654061A (zh) | 基于估计补偿的三维人脸动态重建方法 | |
CN104751111A (zh) | 识别视频中人体行为的方法和系统 | |
CN104598889A (zh) | 人体行为识别的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20210209 |