CN107886089A - 一种基于骨架图回归的三维人体姿态估计的方法 - Google Patents
一种基于骨架图回归的三维人体姿态估计的方法 Download PDFInfo
- Publication number
- CN107886089A CN107886089A CN201711310090.4A CN201711310090A CN107886089A CN 107886089 A CN107886089 A CN 107886089A CN 201711310090 A CN201711310090 A CN 201711310090A CN 107886089 A CN107886089 A CN 107886089A
- Authority
- CN
- China
- Prior art keywords
- skeleton drawing
- skeleton
- segmentation
- network
- hypothesis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明中提出的一种基于骨架图回归的三维人体姿态估计的方法,其主要内容包括:分割、回归和匹配,其过程为,先给定一个人的RGB图像,对于具有裁剪缩放和宽度尺的每个配置,采用编码器‑解码器架构解卷积生成前景骨架图和背景骨架图,接着骨架映射分别馈入单独的回归网络,采用骨架图作为输入并且输出三维姿势的假设,从而产生多个三维假设,最后为了匹配二维观测值,选择对二维联合检测具有最小投影误差的假设作为最终输出。本发明从骨架图单独训练回归网络,当与多个假设相结合时,能够在室内和野外数据集上实现较好的估计效果,大大减少了由于照明、遮挡等对结果造成的影响,在很大程度上提高了姿态估计的性能。
Description
技术领域
本发明涉及姿态估计领域,尤其是涉及了一种基于骨架图回归的三维人体姿态估计的方法。
背景技术
根据人体的图像或视频序列自动提取其中的人体姿态信息,是机器视觉领域的研究热点之一。利用人体姿态估计的方法,可以使得计算机系统根据摄像机系统拍摄的视频信息,提取出人体的姿态,然后根据姿态的变化对人体的行为进行分析和判断。这种方法如果能应用到传统的视频监控设备中,将帮助机器实现分析视频内容的功能,通过识别视频中人物的异常行为或危险行为而提示监管人员及时制止可疑或危险行为的发生,这将大大提高视频监控设备的使用效率,减少大量的人力、物力和财力。三维人体姿态估计还可以应用于开发肢体控制游戏,用运动感应手柄代替传统的机械手柄,使用户体验到更真实生动的游戏效果,这在人体动画、游戏、人机交互、虚拟现实和增强现实等领域均有着广阔的应用前景。除此之外,它可以通过捕捉人体运动,从而用于动画制作、医疗分析和工业测量与控制等行业,或者帮助运动员分析自身运动特征,有效制定训练计划;记录肢体损伤的病人肢体恢复情况,帮助医生制定治疗方法和康复计划等。然而,传统的三维人体姿态估计面临着训练数据不足的难题,同时,由于受到照明、遮挡等的影响,姿态估计效果往往不太理想。
本发明提出了一种基于骨架图回归的三维人体姿态估计的方法,先给定一个人的RGB图像,对于具有裁剪缩放和宽度尺的每个配置,采用编码器-解码器架构解卷积生成前景骨架图和背景骨架图,接着骨架映射分别馈入单独的回归网络,采用骨架图作为输入并且输出三维姿势的假设,从而产生多个三维假设,最后为了匹配二维观测值,选择对二维联合检测具有最小投影误差的假设作为最终输出。本发明从骨架图单独训练回归网络,当与多个假设相结合时,能够在室内和野外数据集上实现较好的估计效果,大大减少了由于照明、遮挡等对结果造成的影响,在很大程度上提高了姿态估计的性能。
发明内容
针对训练数据不足和遮挡等问题,本发明的目的在于提供一种基于骨架图回归的三维人体姿态估计的方法,先给定一个人的RGB图像,对于具有裁剪缩放和宽度尺的每个配置,采用编码器-解码器架构解卷积生成前景骨架图和背景骨架图,接着骨架映射分别馈入单独的回归网络,采用骨架图作为输入并且输出三维姿势的假设,从而产生多个三维假设,最后为了匹配二维观测值,选择对二维联合检测具有最小投影误差的假设作为最终输出。
为解决上述问题,本发明提供一种基于骨架图回归的三维人体姿态估计的方法,其主要内容包括:
(一)分割;
(二)回归;
(三)匹配。
其中,所述的基于骨架图回归的三维人体姿态估计的方法,给定一个人的RGB图像 目标是输出关节数为K=16的3D关节位置将问题分解为分割、回归和匹配三个步骤。
进一步地,所述的分割、回归和匹配,对于具有裁剪缩放ci和宽度尺li的每个配置pi={ci,li},通过解卷积网络Deconvi(i=1,…,n)生成前景骨架图和背景骨架图 骨架映射分别馈入单独的回归网络R={Regressioni|i=1,…,n},其中,Regressioni采用骨架图作为输入并且输出3D姿势的假设Xi,从而产生多个3D假设为了匹配二维观测值选择对二维联合检测具有最小投影误差的假设作为最终输出。
进一步地,所述的骨架图,骨架图在人体骨骼中的相邻关节之间画出一条宽度为li的线,并指定不同的颜色来区分身体部位;将胸部定义为根,再定义其它15个身体部位;骨架图是身体局部分割图,它可以根据身体各个部位中的关系对各个身体部位进行编码。
其中,所述的分割,采用编码器-解码器架构解卷积,从而生成骨架图;使用解卷积层替换第5池层之后的完全连接层;网络结构以224×224图像开始,并提取下采样过程中的特征;在这里只描述了res2c,res3d,res4f和res5c(残差网络的层);最后去掉完全连接层;建立在第5池层上的传递模块处理特征映射,产生最终输出:一个三通道56×56的骨架图由重复的上采样块组成(初始权重设置为双线性上采样),然后是残差模块;分割包括截断处理、宽度处理和遮挡处理。
进一步地,所述的截断处理,截断是由图像边界引起的人体关节的局部可见性,尤其对于野外三维人体姿态估计来说是一个挑战;由于缺乏图像证据,解卷积网络不确定是否绘制与裁剪的端点关节(即手腕或脚踝)相关联的片断;解决这个问题的一个标准方法是使用多重图像裁剪,将提供的数据集中的粗略人物尺度乘以重新缩放因子(即ci∈{1.0,1.25,1.5});二维联合标定好的真实数据在相应的裁剪窗口中被重新缩放;室内数据集不会被截断,并且裁剪尺寸ci始终设置为1.0。
进一步地,所述的宽度处理,多尺度骨架图中,每个卷积层的比例尺小于感受域的骨架像素;只有感受野尺寸大于线宽度的卷积层才能捕捉身体部位的特征;因此,粗略分割(粗线宽度)和精细分割(细线宽度)以低级和高级特征的不同组合为特征。
进一步地,所述的遮挡处理,遮挡会阻碍准确的人体姿势估计;前景骨架图显示遮挡他人的身体部位,而背景骨架图显示被他人遮挡的部位;也就是说,骨架图模拟了两个重叠身体部位的遮挡关系;骨骼上的每个2D端点关节导致其朝向照相机光学中心的光线;假设3D点{Xu,Yu,Zu}对骨Bu、{Xv,Yv,Zv}对骨Bv产生相同的二维投影{x,y};用id表示深度较小(Z方向靠近摄像机)的点,另一个为前景骨架图将Bid的颜色赋予像素{x,y}上;相比之下,背景骨架图指定骨骼的假设骨骼遮挡骨骼Bid;骨架图的这种固有的遮挡感知属性对于回归非常重要。
其中,所述的回归,受到RGB图像杂乱背景的干扰,3D人体姿态估计中一个长期的研究方向是从原始的RGB输入开始利用更好的特征;采用最先进的ResNet-50网络作为骨干网络;由于解卷积网络Deconvi生成的骨架图为56×56,因此先将其重新缩放到224×224,然后连接在一起,作为Deconvi的输入,并沿着下采样路径进行处理;最后完全连接层重新用于输出所有K关节的3D位置欧几里得距离损失适用于后向传播;多个三维预测是通过训练独立的回归网络为不同的骨架图输入。
其中,所述的匹配,现有多个三维姿态假设问题归结为选择最优假设作为最终的3D输出;最简单的方法是选择其投影与2D姿态检测结果最匹配的候选者;把Proj写成相机投影矩阵,把x写成二维姿态检测,找到最佳的三维姿态通过最小化再投影的误差:
使用预先训练的最先进的2D检测器堆叠沙漏网络来生成x。
附图说明
图1是本发明一种基于骨架图回归的三维人体姿态估计的方法的系统框架图。
图2是本发明一种基于骨架图回归的三维人体姿态估计的方法的骨架图。
图3是本发明一种基于骨架图回归的三维人体姿态估计的方法的分割。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互结合,下面结合附图和具体实施例对本发明作进一步详细说明。
图1是本发明一种基于骨架图回归的三维人体姿态估计的方法的系统框架图。主要包括分割,回归和匹配。
基于骨架图回归的三维人体姿态估计的方法,给定一个人的RGB图像目标是输出关节数为K=16的3D关节位置将问题分解为分割、回归和匹配三个步骤。
对于具有裁剪缩放ci和宽度尺li的每个配置pi={ci,li},通过解卷积网络Deconvi(i=1,…,n)生成前景骨架图和背景骨架图骨架映射 分别馈入单独的回归网络R={Regressioni|i=1,…,n},其中,Regressioni采用骨架图作为输入并且输出3D姿势的假设Xi,从而产生多个3D假设为了匹配二维观测值选择对二维联合检测具有最小投影误差的假设作为最终输出。
回归,受到RGB图像杂乱背景的干扰,3D人体姿态估计中一个长期的研究方向是从原始的RGB输入开始利用更好的特征;采用最先进的ResNet-50网络作为骨干网络;由于解卷积网络Deconvi生成的骨架图为56×56,因此先将其重新缩放到224×224,然后连接在一起,作为Deconvi的输入,并沿着下采样路径进行处理;最后完全连接层重新用于输出所有K关节的3D位置欧几里得距离损失适用于后向传播;多个三维预测是通过训练独立的回归网络为不同的骨架图输入。
匹配,现有多个三维姿态假设问题归结为选择最优假设作为最终的3D输出;最简单的方法是选择其投影与2D姿态检测结果最匹配的候选者;把Proj写成相机投影矩阵,把x写成二维姿态检测,找到最佳的三维姿态通过最小化再投影的误差:
使用预先训练的最先进的2D检测器堆叠沙漏网络来生成x。
图2是本发明一种基于骨架图回归的三维人体姿态估计的方法的骨架图。骨架图在人体骨骼中的相邻关节之间画出一条宽度为li的线,并指定不同的颜色来区分身体部位;将胸部定义为根,再定义其它15个身体部位;骨架图是身体局部分割图,它可以根据身体各个部位中的关系对各个身体部位进行编码。
图3是本发明一种基于骨架图回归的三维人体姿态估计的方法的分割。采用编码器-解码器架构解卷积,从而生成骨架图;使用解卷积层替换第5池层之后的完全连接层;网络结构以224×224图像开始,并提取下采样过程中的特征;在这里只描述了res2c,res3d,res4f和res5c(残差网络的层);最后去掉完全连接层;建立在第5池层上的传递模块处理特征映射,产生最终输出:一个三通道56×56的骨架图由重复的上采样块组成(初始权重设置为双线性上采样),然后是残差模块;分割包括截断处理、宽度处理和遮挡处理。
截断处理,截断是由图像边界引起的人体关节的局部可见性,尤其对于野外三维人体姿态估计来说是一个挑战;由于缺乏图像证据,解卷积网络不确定是否绘制与裁剪的端点关节(即手腕或脚踝)相关联的片断;解决这个问题的一个标准方法是使用多重图像裁剪,将提供的数据集中的粗略人物尺度乘以重新缩放因子(即ci∈{1.0,1.25,1.5});二维联合标定好的真实数据在相应的裁剪窗口中被重新缩放;室内数据集不会被截断,并且裁剪尺寸ci始终设置为1.0。
宽度处理,多尺度骨架图中,每个卷积层的比例尺小于感受域的骨架像素;只有感受野尺寸大于线宽度的卷积层才能捕捉身体部位的特征;因此,粗略分割(粗线宽度)和精细分割(细线宽度)以低级和高级特征的不同组合为特征。
遮挡处理,遮挡会阻碍准确的人体姿势估计;前景骨架图显示遮挡他人的身体部位,而背景骨架图显示被他人遮挡的部位;也就是说,骨架图模拟了两个重叠身体部位的遮挡关系;骨骼上的每个2D端点关节导致其朝向照相机光学中心的光线;假设3D点{Xu,Yu,Zu}对骨Bu、{Xv,Yv,Zv}对骨Bv产生相同的二维投影{x,y};用id表示深度较小(Z方向靠近摄像机)的点,另一个为前景骨架图将Bid的颜色赋予像素{x,y}上;相比之下,背景骨架图指定骨骼的假设骨骼遮挡骨骼Bid;骨架图的这种固有的遮挡感知属性对于回归非常重要。
对于本领域技术人员,本发明不限制于上述实施例的细节,在不背离本发明的精神和范围的情况下,能够以其他具体形式实现本发明。此外,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围,这些改进和变型也应视为本发明的保护范围。因此,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
Claims (10)
1.一种基于骨架图回归的三维人体姿态估计的方法,其特征在于,主要包括分割(一);回归(二);匹配(三)。
2.基于权利要求书1所述的基于骨架图回归的三维人体姿态估计的方法,其特征在于,给定一个人的RGB图像目标是输出关节数为K=16的3D关节位置将问题分解为分割、回归和匹配三个步骤。
3.基于权利要求书2所述的分割、回归和匹配,其特征在于,对于具有裁剪缩放ci和宽度尺li的每个配置pi={ci,li},通过解卷积网络Deconvi(i=1,…,n)生成前景骨架图 和背景骨架图骨架映射分别馈入单独的回归网络R={Regressioni|i=1,…,n},其中,Regressioni采用骨架图作为输入并且输出3D姿势的假设Xi,从而产生多个3D假设为了匹配二维观测值选择对二维联合检测具有最小投影误差的假设作为最终输出。
4.基于权利要求书3所述的骨架图,其特征在于,骨架图在人体骨骼中的相邻关节之间画出一条宽度为li的线,并指定不同的颜色来区分身体部位;将胸部定义为根,再定义其它15个身体部位;骨架图是身体局部分割图,它可以根据身体各个部位中的关系对各个身体部位进行编码。
5.基于权利要求书1所述的分割(一),其特征在于,采用编码器-解码器架构解卷积,从而生成骨架图;使用解卷积层替换第5池层之后的完全连接层;网络结构以224×224图像开始,并提取下采样过程中的特征;在这里只描述了res2c,res3d,res4f和res5c(残差网络的层);最后去掉完全连接层;建立在第5池层上的传递模块处理特征映射,产生最终输出:一个三通道56×56的骨架图由重复的上采样块组成(初始权重设置为双线性上采样),然后是残差模块;分割包括截断处理、宽度处理和遮挡处理。
6.基于权利要求书5所述的截断处理,其特征在于,截断是由图像边界引起的人体关节的局部可见性,尤其对于野外三维人体姿态估计来说是一个挑战;由于缺乏图像证据,解卷积网络不确定是否绘制与裁剪的端点关节(即手腕或脚踝)相关联的片断;解决这个问题的一个标准方法是使用多重图像裁剪,将提供的数据集中的粗略人物尺度乘以重新缩放因子(即ci∈{1.0,1.25,1.5});二维联合标定好的真实数据在相应的裁剪窗口中被重新缩放;室内数据集不会被截断,并且裁剪尺寸ci始终设置为1.0。
7.基于权利要求书5所述的宽度处理,其特征在于,多尺度骨架图中,每个卷积层的比例尺小于感受域的骨架像素;只有感受野尺寸大于线宽度的卷积层才能捕捉身体部位的特征;因此,粗略分割(粗线宽度)和精细分割(细线宽度)以低级和高级特征的不同组合为特征。
8.基于权利要求书5所述的遮挡处理,其特征在于,遮挡会阻碍准确的人体姿势估计;前景骨架图显示遮挡他人的身体部位,而背景骨架图显示被他人遮挡的部位;也就是说,骨架图模拟了两个重叠身体部位的遮挡关系;骨骼上的每个2D端点关节导致其朝向照相机光学中心的光线;假设3D点{Xu,Yu,Zu}对骨Bu、{Xv,Yv,Zv}对骨Bv产生相同的二维投影{x,y};用id表示深度较小(Z方向靠近摄像机)的点,另一个为前景骨架图将Bid的颜色赋予像素{x,y}上;相比之下,背景骨架图指定骨骼的假设骨骼遮挡骨骼Bid;骨架图的这种固有的遮挡感知属性对于回归非常重要。
9.基于权利要求书1所述的回归(二),其特征在于,受到RGB图像杂乱背景的干扰,3D人体姿态估计中一个长期的研究方向是从原始的RGB输入开始利用更好的特征;采用最先进的ResNet-50网络作为骨干网络;由于解卷积网络Deconvi生成的骨架图为56×56,因此先将其重新缩放到224×224,然后连接在一起,作为Deconvi的输入,并沿着下采样路径进行处理;最后完全连接层重新用于输出所有K关节的3D位置欧几里得距离损失适用于后向传播;多个三维预测是通过训练独立的回归网络为不同的骨架图输入。
10.基于权利要求书1所述的匹配(三),其特征在于,现有多个三维姿态假设问题归结为选择最优假设作为最终的3D输出;最简单的方法是选择其投影与2D姿态检测结果最匹配的候选者;把Proj写成相机投影矩阵,把x写成二维姿态检测,找到最佳的三维姿态通过最小化再投影的误差:
<mrow>
<msup>
<mi>X</mi>
<mo>*</mo>
</msup>
<mo>=</mo>
<mi>arg</mi>
<munder>
<mi>min</mi>
<msup>
<mi>X</mi>
<mi>i</mi>
</msup>
</munder>
<mo>|</mo>
<mo>|</mo>
<mi>Pr</mi>
<mi>o</mi>
<mi>j</mi>
<mrow>
<mo>(</mo>
<msup>
<mi>X</mi>
<mi>i</mi>
</msup>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mi>x</mi>
<mo>|</mo>
<msup>
<mo>|</mo>
<mn>2</mn>
</msup>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
使用预先训练的最先进的2D检测器堆叠沙漏网络来生成x。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711310090.4A CN107886089A (zh) | 2017-12-11 | 2017-12-11 | 一种基于骨架图回归的三维人体姿态估计的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711310090.4A CN107886089A (zh) | 2017-12-11 | 2017-12-11 | 一种基于骨架图回归的三维人体姿态估计的方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107886089A true CN107886089A (zh) | 2018-04-06 |
Family
ID=61773467
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711310090.4A Withdrawn CN107886089A (zh) | 2017-12-11 | 2017-12-11 | 一种基于骨架图回归的三维人体姿态估计的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107886089A (zh) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108710830A (zh) * | 2018-04-20 | 2018-10-26 | 浙江工商大学 | 一种结合密集连接注意力金字塔残差网络和等距限制的人体3d姿势估计方法 |
CN108717531A (zh) * | 2018-05-21 | 2018-10-30 | 西安电子科技大学 | 基于Faster R-CNN的人体姿态估计方法 |
CN108960212A (zh) * | 2018-08-13 | 2018-12-07 | 电子科技大学 | 基于端到端的人体关节点检测与分类方法 |
CN109002783A (zh) * | 2018-07-02 | 2018-12-14 | 北京工业大学 | 救援环境中的人体检测以及姿态识别方法 |
CN109087329A (zh) * | 2018-07-27 | 2018-12-25 | 中山大学 | 基于深度网络的人体三维关节点估计框架及其定位方法 |
CN109299685A (zh) * | 2018-09-14 | 2019-02-01 | 北京航空航天大学青岛研究院 | 用于人体关节3d坐标估计的推断网络及其方法 |
CN109376571A (zh) * | 2018-08-03 | 2019-02-22 | 西安电子科技大学 | 基于变形卷积的人体姿态估计方法 |
CN109376673A (zh) * | 2018-10-31 | 2019-02-22 | 南京工业大学 | 一种基于人体姿态估计的煤矿井下人员不安全行为识别方法 |
CN109840478A (zh) * | 2019-01-04 | 2019-06-04 | 广东智媒云图科技股份有限公司 | 一种动作评估方法、装置、移动终端和可读存储介质 |
CN109948505A (zh) * | 2019-03-14 | 2019-06-28 | 郑州大学 | 一种人体三维姿态匹配算法的优化方法 |
CN111047548A (zh) * | 2020-03-12 | 2020-04-21 | 腾讯科技(深圳)有限公司 | 姿态变换数据处理方法、装置、计算机设备和存储介质 |
CN112528823A (zh) * | 2020-12-04 | 2021-03-19 | 燕山大学 | 一种基于关键帧检测和语义部件分割的条斑鲨运动行为分析方法及系统 |
CN112712019A (zh) * | 2020-12-28 | 2021-04-27 | 湖南大学 | 一种基于图卷积网络的三维人体姿态估计方法 |
CN112836824A (zh) * | 2021-03-04 | 2021-05-25 | 上海交通大学 | 单目三维人体位姿无监督学习方法、系统及介质 |
CN114529979A (zh) * | 2020-11-04 | 2022-05-24 | 财团法人资讯工业策进会 | 人体姿势辨识系统、人体姿势辨识方法以及非暂态计算机可读取储存媒体 |
WO2022127494A1 (zh) * | 2020-12-18 | 2022-06-23 | 深圳市优必选科技股份有限公司 | 位姿识别模型训练方法、装置、位姿识别方法和终端设备 |
WO2023102873A1 (en) * | 2021-12-10 | 2023-06-15 | Intel Corporation | Enhanced techniques for real-time multi-person three-dimensional pose tracking using a single camera |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102509338A (zh) * | 2011-09-20 | 2012-06-20 | 北京航空航天大学 | 一种基于轮廓骨架图的视频场景行为生成方法 |
CN104298990A (zh) * | 2014-09-15 | 2015-01-21 | 西安电子科技大学 | 一种基于骨架图的快速图形匹配与识别的方法 |
-
2017
- 2017-12-11 CN CN201711310090.4A patent/CN107886089A/zh not_active Withdrawn
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102509338A (zh) * | 2011-09-20 | 2012-06-20 | 北京航空航天大学 | 一种基于轮廓骨架图的视频场景行为生成方法 |
CN104298990A (zh) * | 2014-09-15 | 2015-01-21 | 西安电子科技大学 | 一种基于骨架图的快速图形匹配与识别的方法 |
Non-Patent Citations (1)
Title |
---|
QINGFU WAN,WEI ZHANG,XIANGYANG XUE: ""DeepSkeleton: Skeleton Map for 3D Human Pose Regression"", 《ARXIV》 * |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108710830A (zh) * | 2018-04-20 | 2018-10-26 | 浙江工商大学 | 一种结合密集连接注意力金字塔残差网络和等距限制的人体3d姿势估计方法 |
CN108710830B (zh) * | 2018-04-20 | 2020-08-28 | 浙江工商大学 | 一种结合密集连接注意力金字塔残差网络和等距限制的人体3d姿势估计方法 |
CN108717531A (zh) * | 2018-05-21 | 2018-10-30 | 西安电子科技大学 | 基于Faster R-CNN的人体姿态估计方法 |
CN108717531B (zh) * | 2018-05-21 | 2021-06-08 | 西安电子科技大学 | 基于Faster R-CNN的人体姿态估计方法 |
CN109002783A (zh) * | 2018-07-02 | 2018-12-14 | 北京工业大学 | 救援环境中的人体检测以及姿态识别方法 |
CN109087329B (zh) * | 2018-07-27 | 2021-10-15 | 中山大学 | 基于深度网络的人体三维关节点估计框架及其定位方法 |
CN109087329A (zh) * | 2018-07-27 | 2018-12-25 | 中山大学 | 基于深度网络的人体三维关节点估计框架及其定位方法 |
CN109376571A (zh) * | 2018-08-03 | 2019-02-22 | 西安电子科技大学 | 基于变形卷积的人体姿态估计方法 |
CN108960212A (zh) * | 2018-08-13 | 2018-12-07 | 电子科技大学 | 基于端到端的人体关节点检测与分类方法 |
CN109299685A (zh) * | 2018-09-14 | 2019-02-01 | 北京航空航天大学青岛研究院 | 用于人体关节3d坐标估计的推断网络及其方法 |
CN109376673A (zh) * | 2018-10-31 | 2019-02-22 | 南京工业大学 | 一种基于人体姿态估计的煤矿井下人员不安全行为识别方法 |
CN109376673B (zh) * | 2018-10-31 | 2022-02-25 | 南京工业大学 | 一种基于人体姿态估计的煤矿井下人员不安全行为识别方法 |
CN109840478A (zh) * | 2019-01-04 | 2019-06-04 | 广东智媒云图科技股份有限公司 | 一种动作评估方法、装置、移动终端和可读存储介质 |
CN109948505A (zh) * | 2019-03-14 | 2019-06-28 | 郑州大学 | 一种人体三维姿态匹配算法的优化方法 |
CN111047548A (zh) * | 2020-03-12 | 2020-04-21 | 腾讯科技(深圳)有限公司 | 姿态变换数据处理方法、装置、计算机设备和存储介质 |
CN111047548B (zh) * | 2020-03-12 | 2020-07-03 | 腾讯科技(深圳)有限公司 | 姿态变换数据处理方法、装置、计算机设备和存储介质 |
CN114529979A (zh) * | 2020-11-04 | 2022-05-24 | 财团法人资讯工业策进会 | 人体姿势辨识系统、人体姿势辨识方法以及非暂态计算机可读取储存媒体 |
CN112528823A (zh) * | 2020-12-04 | 2021-03-19 | 燕山大学 | 一种基于关键帧检测和语义部件分割的条斑鲨运动行为分析方法及系统 |
WO2022127494A1 (zh) * | 2020-12-18 | 2022-06-23 | 深圳市优必选科技股份有限公司 | 位姿识别模型训练方法、装置、位姿识别方法和终端设备 |
CN112712019A (zh) * | 2020-12-28 | 2021-04-27 | 湖南大学 | 一种基于图卷积网络的三维人体姿态估计方法 |
CN112712019B (zh) * | 2020-12-28 | 2023-08-01 | 湖南大学 | 一种基于图卷积网络的三维人体姿态估计方法 |
CN112836824A (zh) * | 2021-03-04 | 2021-05-25 | 上海交通大学 | 单目三维人体位姿无监督学习方法、系统及介质 |
WO2023102873A1 (en) * | 2021-12-10 | 2023-06-15 | Intel Corporation | Enhanced techniques for real-time multi-person three-dimensional pose tracking using a single camera |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107886089A (zh) | 一种基于骨架图回归的三维人体姿态估计的方法 | |
Pavlakos et al. | Ordinal depth supervision for 3d human pose estimation | |
Ge et al. | Parser-free virtual try-on via distilling appearance flows | |
Fieraru et al. | Three-dimensional reconstruction of human interactions | |
Kuznichov et al. | Data augmentation for leaf segmentation and counting tasks in rosette plants | |
CN110135375A (zh) | 基于全局信息整合的多人姿态估计方法 | |
CN110555434B (zh) | 一种局部对比和全局指导的立体图像视觉显著性检测方法 | |
CN109003253A (zh) | 神经网络点云生成系统 | |
Kim et al. | End-to-end detection and pose estimation of two interacting hands | |
Martínez-González et al. | Efficient convolutional neural networks for depth-based multi-person pose estimation | |
CN108573222A (zh) | 基于循环对抗生成网络的行人图像遮挡检测方法 | |
CN109800770A (zh) | 一种实时目标检测的方法、系统及装置 | |
Ghadi et al. | Syntactic model-based human body 3D reconstruction and event classification via association based features mining and deep learning | |
CN107403160A (zh) | 一种智能驾驶场景中图像检测方法、设备及其存储设备 | |
CN108389227A (zh) | 一种基于多视图深感知器框架的三维姿势估计方法 | |
Zhao et al. | Occupancy planes for single-view rgb-d human reconstruction | |
Shao et al. | An end-to-end food portion estimation framework based on shape reconstruction from monocular image | |
Ruiz-Santaquiteria et al. | Improving handgun detection through a combination of visual features and body pose-based data | |
Liang | Improved EfficientDET algorithm for basketball players’ upper limb movement trajectory recognition | |
Hepburn et al. | Enforcing perceptual consistency on generative adversarial networks by using the normalised laplacian pyramid distance | |
Yang et al. | [Retracted] Footballer Action Tracking and Intervention Using Deep Learning Algorithm | |
Khan et al. | A review of benchmark datasets and training loss functions in neural depth estimation | |
Boletsis et al. | The InVizAR project: Augmented reality visualization for non-destructive testing data from jacket platforms | |
CN110766645A (zh) | 基于人物识别与分割的目标人物复现图生成方法 | |
Deza et al. | Assessment of faster r-cnn in man-machine collaborative search |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20180406 |
|
WW01 | Invention patent application withdrawn after publication |