CN112164091A - 基于三维骨架提取的移动设备人体位姿估计方法 - Google Patents
基于三维骨架提取的移动设备人体位姿估计方法 Download PDFInfo
- Publication number
- CN112164091A CN112164091A CN202010863038.7A CN202010863038A CN112164091A CN 112164091 A CN112164091 A CN 112164091A CN 202010863038 A CN202010863038 A CN 202010863038A CN 112164091 A CN112164091 A CN 112164091A
- Authority
- CN
- China
- Prior art keywords
- joint point
- human body
- angle
- joint
- elbow
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 238000000605 extraction Methods 0.000 title claims abstract description 19
- 238000013528 artificial neural network Methods 0.000 claims abstract description 46
- 238000013507 mapping Methods 0.000 claims abstract description 14
- 210000000323 shoulder joint Anatomy 0.000 claims description 70
- 210000002310 elbow joint Anatomy 0.000 claims description 58
- 210000003127 knee Anatomy 0.000 claims description 45
- 238000012549 training Methods 0.000 claims description 40
- 238000004364 calculation method Methods 0.000 claims description 37
- 230000009471 action Effects 0.000 claims description 30
- 238000001514 detection method Methods 0.000 claims description 29
- 210000000629 knee joint Anatomy 0.000 claims description 28
- 210000003414 extremity Anatomy 0.000 claims description 25
- 210000004394 hip joint Anatomy 0.000 claims description 21
- 210000000544 articulatio talocruralis Anatomy 0.000 claims description 20
- 210000003857 wrist joint Anatomy 0.000 claims description 20
- 238000010586 diagram Methods 0.000 claims description 13
- 210000003141 lower extremity Anatomy 0.000 claims description 9
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 5
- 238000007665 sagging Methods 0.000 claims description 5
- 210000001364 upper extremity Anatomy 0.000 claims description 5
- 238000013527 convolutional neural network Methods 0.000 description 10
- 230000000694 effects Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000010276 construction Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 210000003423 ankle Anatomy 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 210000001624 hip Anatomy 0.000 description 2
- 210000001503 joint Anatomy 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013499 data model Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/06—Topological mapping of higher dimensional structures onto lower dimensional surfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了基于三维骨架提取的移动设备人体位姿估计方法,将人体视频放入轻量人体骨架识别模型中,得到2D关节点;将所获得的2D关节点通过神经网络构造的回归器,映射得到空间中的3D关节点;根据所获得的3D关节点的坐标信息计算得到被拍摄者的肢体间关节角;根据被拍摄者肢体间关节角以及3D关节点的位置信息,判定被拍摄者的位姿以及拍摄设备的拍摄机位。通过深度神经网络回归器,将轻量人体骨架识别模型得到的2D人体关节点映射到三维空间中3D人体关节点,增加了2D人体关节点几何信息的维度;基于3D人体关节点的几何关系计算肢体夹角,根据肢体间夹角以及关节点的位置关系,有效地预测出人体的位姿以及移动设备的拍摄机位。
Description
技术领域
本发明涉及基于三维骨架提取的移动设备人体位姿估计方法,属于视频图像处理技术领域。
背景技术
得益于手机行业相机以及AI协助处理器的发展,人工智能已经日益融入进人们的日常生活。当前应用在移动平台的人体位姿估计方法都是基于2D关节点进行提取,由于缺失了一个维度,往往会对人体位姿的预测产生一定的误差甚至是错误。
深度卷积神经网络将计算机视觉任务性能提升到了新的高度,深度卷积神经网络发展的趋势是为了达到更高的识别准确性。因而随着识别准确性的提高,深度卷积神经网络的结构变得更深更复杂了。但是这些网络在尺度和检测速度上往往不能满足移动设备的需求。现阶段,为了构建小型而且高效的神经网络,通常有这样两个思路:a.压缩训练模型,减小、分解或压缩预训练网络;b.直接训练小型的模型。
Mobilenet是一个高效的网络结构,它允许通过两个超参数来直接构建体积小、低延迟、更易满足嵌入式设备要求的轻量模型。Mobilenet网络架构允许模型开发人员专门选择与其资源限制匹配的小型模型,例如延迟和大小。Mobilenet注重于优化延迟同时考虑小型网络,从深度可分离卷积的角度重新构建模型。
Openpose是一种自底向上的二维人体位姿估计方法,它基于卷积神经网络以及监督学习实现二维姿态估计。Openpose可以实现人体动作、面部表情、手指运动等情景的姿态估计。适用于单人以及多人的估计,拥有较强的鲁棒性,它是世界上首个基于深度学习实现的多人二维姿态估计方法。Openpose的前身是CPM算法,在多人识别的场景下,CPM算法也可以经由heat map进行多人的识别。对比CPM算法,Openpose除了可以进行单人的估计,基于部位亲和矢量场预测,它可以更稳定适用于多人的识别,人数不会影响到检测的实际速度。
现阶段,从2D关节点获取3D关节点主要有如下几个思路。首先可以从图像中获取深度信息,或者利用图像中的阴影或纹理信息从一张单一的图像恢复深度,从而利用计算机视觉的基本理论,推断求得任意场景中的长度、面积和距离比。其次可以用自上而下的3D推理,利用场景中物体的已知三维结构,当感知到人体运动时,将其运动抽象成一组稀疏的点投影。还可以使用二维关节点的投影推断三维关节点,考虑到人体骨骼的长度,这类问题可以归结为一个二叉决策树问题,其中二叉树的每个分支可以对应到某个关节相对于其上一级关节的可能状态。此外还可以基于深度神经网络将2D关节点映射到三维空间中对应的3D关节点。
TensorFlow Lite是TensorFlow针对移动平台和嵌入式设备的轻量级解决方案,它使得移动设备的机器学习具有较低的延迟和相对较高的精确度。TensorFlow Lite还支持硬件加速Android神经网络API。目前绝大多是AI都是在云端或者依赖较高性能的GPU进行运算,但是在移动平台使用AI具有无网络延迟、响应更加及时等特性,同时它还可以保障用户的数据隐私。在日常生活中,利用TensorFlow Lite可以更加方便的进行AI的运算以及应用。
发明内容
本发明所要解决的技术问题是克服现有技术的缺陷,提供一种基于三维骨架提取的移动设备人体位姿估计方法,以解决现有技术维度缺失、计算误差大、便携性差和运算量大的缺陷。
为达到上述目的,本发明提供基于三维骨架提取的移动设备人体位姿估计方法,包括以下步骤:
输入数据采集:使用移动设备实时采集得到被拍摄者的人体视频;
2D关节点获取:将所获得的人体视频传入后台服务,将人体视频放入轻量人体骨架识别模型中得到2D人体关节点;
3D关节点估计:将所获得的2D人体关节点通过神经网络回归器映射得到三维空间中的3D人体关节点;
人体骨架获取:将所获得的3D人体关节点放回人体视频帧中对应位置,将3D人体关节点连线得到人体骨架;
肢体间角度计算:根据3D人体关节点的坐标信息以及所获得的人体骨架的数据信息,计算得到肢体间角度;
人体位姿估计:根据所获得的肢体间角度以及3D人体关节点的坐标信息,估计得到人体位姿,预测得到移动设备的拍摄机位。
优先地,采集指定动作的人体视频,对人体视频中的人体关节点进行标注,得到一组新的需要判定的位姿标定的数据集,将所获得的需要判定的位姿标定的数据集放入openpose预训练模型进行再次训练。
优先地,利用轻量人体骨架识别模型提取得到人体视频的2D人体关节点后,将所获得的2D人体关节点的几何信息输入到神经网络回归器中,映射得到3D人体关节点,估计得到3D人体关节点在空间中的大致位置。
优先地,输入数据采集包括以下步骤:使用MSCOCO公共数据集以及需要判定的位姿标定的数据集训练轻量人体骨架识别模型;
基于2D人体关节点标注的数据集以及Human3.6M公共数据集,构建2D人体关节点到3D人体关节点映射的神经网络回归器;
将神经网络回归器转换至移动设备可用的轻量人体骨架识别模型,嵌入到移动设备中。
优先地,2D关节点获取:将所获得的人体视频传入后台服务,将人体视频放入轻量人体骨架识别模型中得到2D人体关节点的位置序列。
优先地,获取轻量人体骨架识别模型包括以下步骤:
A、将MSCOCO公共数据集与需要判定的位姿标定的数据集组成轻量人体骨架识别模型的训练数据集;
B、将轻量人体骨架识别模型的训练数据集中的一张图像传入经过修改后的mobilenet网络得到第一阶段的特征图;
C、所获得的第一阶段的特征图通过卷积层得到第一阶段的部位检测图和第一阶段的亲和矢量场;
D、将所述第一阶段的部位检测图、第一阶段的亲和矢量场和得到的第二阶段的特征图输入到mobilenet网络中,通过卷积层获取得到第二阶段的部位检测图和第二阶段的亲和矢量场;
E、重复步骤C至指定的次数得到最终的部位检测图和最终的亲和矢量场;
F、根据最终的部位检测图和最终的亲和矢量场得到轻量人体骨架识别模型。
优先地,获取神经网络回归器包括以下步骤:
A、将需要判定的位姿标定的数据集与Human3.6M数据集混合,得到神经网络回归器的训练数据集;
B、对神经网络回归器的训练数据集的二维输入和三维输出归一化处理;
C、设置初始学习率为0.001,令初始学习率的指数衰减,设置批大小为64,使用Adam优化器预训练模型;
D、将2D人体关节点的坐标输入到回归器中,输出3D人体关节点;
E、重复至预先设定的次数得到神经网络回归器。
优先地,将所获得的2D人体关节点输入神经网络回归器,输出得到3D人体关节点的位置序列,所获得的3D人体关节点包含鼻子关节点、左耳关节点、右耳关节点、左眼关节点、右眼关节点、颈部关节点、左肩关节点、右肩关节点、左手肘关节点、右手肘关节点、左手腕关节点、右手腕关节点、左髋关节点、右髋关节点、左膝盖关节点、右膝盖关节点、左脚踝关节点和右脚踝关节点。
根据所获得的3D人体关节点的位置以及所获得的肢体间角度,估计被拍摄者的位姿以及移动设备的拍摄机位;
其中,基于左肩夹角、右肩夹角、左手肘夹角、右手肘夹角、颈部关节点、左肩关节点、右肩关节点、左手肘关节点、右手肘关节点、左手腕关节点和右手腕关节点,判定得到被拍摄者上肢的动作:当左肩夹角和右肩夹角为85°-95°,左手肘夹角和右手肘夹角为170°-180°,且左手肘关节点位于左肩关节点下方、右手肘关节点位于右肩关节点下方时,判定被拍摄者的手臂为自然下垂状态;当左肩夹角与左手肘夹角之和、右肩夹角与右手肘夹角之和为170°-180°,且左手肘关节点位于左肩关节点下方、右手肘关节点位于右肩关节点下方时,判定被拍摄者的手臂为双臂正平端于胸前状态;
其中,根据左膝盖夹角、右膝盖夹角、左髋关节点、右髋关节点、左膝盖关节点、右膝盖关节点、左脚踝关节点和右脚踝关节点,判定得到被拍摄者下肢的动作:当左膝盖夹角和右膝盖夹角为170°-180°,判定被拍摄者处于直立状态;当左膝盖夹角和右膝盖夹角为85°-95°,判定被拍摄者处于坐姿状态;
其中,每个动作预先设定鼻子关节点在取景框的限定区域,根据被拍摄者的鼻子关节点的坐标,判定鼻子关节点是否处于预先设定的限定区域;
其中,根据被拍摄者的左肩关节点与右肩关节点之间的连线与图像所在平面法向量的夹角,判断拍摄者的拍摄机位处于正面还是侧面:如果被拍摄者的左肩关节点与右肩的关节点之间的连线与图像所在平面法向量的夹角为90°,则判定拍摄者的拍摄机位处于正面;如果被拍摄者的左肩关节点与右肩关节点之间的连线与图像所在平面法向量的夹角小于90°,则判定拍摄者的拍摄机位处于侧面;
其中,根据左肩关节点和右肩关节点之间的连线的中点到图像所在平面的投影距离,判定被拍摄者距离摄像头的距离:如果被拍摄者距离摄像头的距离小于当前判定动作的设定阈值,则判定拍摄者离被拍摄者过远;如果被拍摄者距离摄像头的距离大于当前判定动作的设定阈值,则判定拍摄者离被拍摄者过近。
本发明所达到的有益效果:
神经网络构造的回归器将2D关节点映射到3D关节点,使用RELU层替换传统的卷积神经网络,节约了计算的成本。神经网络构造的回归器使用残差连接提高了网络的泛化性能,降低了训练时间,降低网络的错误率。神经网络构造的回归器使用批处理正则化以及dropout降低训练数据2D关节点包含的噪声对检测准确率的影响。通过最大范数对网络每一层的权值进行约束,结合批量正则化提高了网络的稳定性以及泛化效果。神经网络回归器将2D人体关节点到3D人体关节点之间的映射转化为一个回归问题,利用深度神经网络构建回归器,实现3D人体关节点的提取;
本发明通过修改的mobilenet和openpose建立轻量人体骨架识别模型,在保证准确度的同时,计算速度更快,更适合移动设备使用;通过神经网络回归器,将轻量人体骨架识别模型提取得到的2D人体关节点映射到三维空间中对应的3D人体关节点,增加了2D人体关节点几何信息的维度,提高了检测的精确度;通过3D人体关节点的几何关系计算肢体夹角,再根据肢体夹角以及关节点的位置关系,可以有效的预测出人体的位姿以及移动设备的拍摄机位。
附图说明
图1是本发明的流程图;
图2是本发明中轻量人体骨架模型网络的结构图;
图3是本发明中2D人体关节点到3D人体关节点映射的回归器的网络结构图;
图4是本发明中关节与肢体夹角标注的示意图。
具体实施方式
以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
基于三维骨架提取的移动设备人体位姿估计方法,包括以下步骤:
输入数据采集:使用移动设备实时采集得到被拍摄者的人体视频;
2D关节点获取:将所获得的人体视频传入后台服务,将人体视频放入轻量人体骨架识别模型中得到2D人体关节点;
3D关节点估计:将所获得的2D人体关节点通过神经网络回归器映射得到三维空间中的3D人体关节点;
人体骨架获取:将所获得的3D人体关节点放回人体视频帧中对应位置,将3D人体关节点连线得到人体骨架;
肢体间角度计算:根据3D人体关节点的坐标信息以及所获得的人体骨架的数据信息,计算得到肢体间角度;
人体位姿估计:根据所获得的肢体间角度以及3D人体关节点的坐标信息,估计得到人体位姿,预测得到移动设备的拍摄机位。
进一步地,采集指定动作的人体视频,对人体视频中的人体关节点进行标注,得到一组新的需要判定的位姿标定的数据集,将所获得的需要判定的位姿标定的数据集放入openpose预训练模型进行再次训练。
进一步地,利用轻量人体骨架识别模型提取得到人体视频的2D人体关节点后,将所获得的2D人体关节点的几何信息输入到神经网络回归器中,映射得到3D人体关节点,估计得到3D人体关节点在空间中的大致位置。
进一步地,输入数据采集包括以下步骤:使用MSCOCO公共数据集以及需要判定的位姿标定的数据集训练轻量人体骨架识别模型;
基于2D人体关节点标注的数据集以及Human3.6M公共数据集,构建2D人体关节点到3D人体关节点映射的神经网络回归器;
将神经网络回归器转换至移动设备可用的轻量人体骨架识别模型,嵌入到移动设备中。
进一步地,2D关节点获取:将所获得的人体视频传入后台服务,将人体视频放入轻量人体骨架识别模型中得到2D人体关节点的位置序列。
进一步地,获取轻量人体骨架识别模型包括以下步骤:
A、将MSCOCO公共数据集与需要判定的位姿标定的数据集组成轻量人体骨架识别模型的训练数据集;
B、将轻量人体骨架识别模型的训练数据集中的一张图像传入经过修改后的mobilenet网络得到第一阶段的特征图;
C、所获得的第一阶段的特征图通过卷积层得到第一阶段的部位检测图和第一阶段的亲和矢量场;
D、将所述第一阶段的部位检测图、第一阶段的亲和矢量场和得到的第二阶段的特征图输入到mobilenet网络中,通过卷积层获取得到第二阶段的部位检测图和第二阶段的亲和矢量场;
E、重复步骤C至指定的次数得到最终的部位检测图和最终的亲和矢量场;
F、根据最终的部位检测图和最终的亲和矢量场得到轻量人体骨架识别模型。
进一步地,获取神经网络回归器包括以下步骤:
A、将需要判定的位姿标定的数据集与Human3.6M数据集混合,得到神经网络回归器的训练数据集;
B、对神经网络回归器的训练数据集的二维输入和三维输出归一化处理;
C、设置初始学习率为0.001,令初始学习率的指数衰减,设置批大小为64,使用Adam优化器预训练模型;
D、将2D人体关节点的坐标输入到回归器中,输出3D人体关节点;
E、重复至预先设定的次数得到神经网络回归器。
进一步地,将所获得的2D人体关节点输入神经网络回归器,输出得到3D人体关节点的位置序列,所获得的3D人体关节点包含鼻子关节点、左耳关节点、右耳关节点、左眼关节点、右眼关节点、颈部关节点、左肩关节点、右肩关节点、左手肘关节点、右手肘关节点、左手腕关节点、右手腕关节点、左髋关节点、右髋关节点、左膝盖关节点、右膝盖关节点、左脚踝关节点和右脚踝关节点。
根据所获得的3D人体关节点的位置以及所获得的肢体间角度,估计被拍摄者的位姿以及移动设备的拍摄机位;
其中,基于左肩夹角、右肩夹角、左手肘夹角、右手肘夹角、颈部关节点、左肩关节点、右肩关节点、左手肘关节点、右手肘关节点、左手腕关节点和右手腕关节点,判定得到被拍摄者上肢的动作:当左肩夹角和右肩夹角为85°-95°,左手肘夹角和右手肘夹角为170°-180°,且左手肘关节点位于左肩关节点下方、右手肘关节点位于右肩关节点下方时,判定被拍摄者的手臂为自然下垂状态;当左肩夹角与左手肘夹角之和、右肩夹角与右手肘夹角之和为170°-180°,且左手肘关节点位于左肩关节点下方、右手肘关节点位于右肩关节点下方时,判定被拍摄者的手臂为双臂正平端于胸前状态;
其中,根据左膝盖夹角、右膝盖夹角、左髋关节点、右髋关节点、左膝盖关节点、右膝盖关节点、左脚踝关节点和右脚踝关节点,判定得到被拍摄者下肢的动作:当左膝盖夹角和右膝盖夹角为170°-180°,判定被拍摄者处于直立状态;当左膝盖夹角和右膝盖夹角为85°-95°,判定被拍摄者处于坐姿状态;
其中,每个动作预先设定鼻子关节点在取景框的限定区域,根据被拍摄者的鼻子关节点的坐标,判定鼻子关节点是否处于预先设定的限定区域;
其中,根据被拍摄者的左肩关节点与右肩关节点之间的连线与图像所在平面法向量的夹角,判断拍摄者的拍摄机位处于正面还是侧面:如果被拍摄者的左肩关节点与右肩的关节点之间的连线与图像所在平面法向量的夹角为90°,则判定拍摄者的拍摄机位处于正面;如果被拍摄者的左肩关节点与右肩关节点之间的连线与图像所在平面法向量的夹角小于90°,则判定拍摄者的拍摄机位处于侧面;
其中,根据左肩关节点和右肩关节点之间的连线的中点到图像所在平面的投影距离,判定被拍摄者距离摄像头的距离:如果被拍摄者距离摄像头的距离小于当前判定动作的设定阈值,则判定拍摄者离被拍摄者过远;如果被拍摄者距离摄像头的距离大于当前判定动作的设定阈值,则判定拍摄者离被拍摄者过近。
MSCOCO公共数据集是公共数据集,属于现有技术;Human3.6M公共数据集是公共数据集,属于现有技术;后台服务可采用现有技术中的电脑;mobilenet是一种深度神经网络结构的名称,mobilenet和Adam优化器为现有技术中的专有名词;Dropout以及RELUs是深度学习网络中的组成部分,为现有技术中的专有名词。
移动设备为手机或平板电脑等可移动的设备,通过手机的摄像头直接获取,预测的关节与位姿具有良好的实时性。后台服务可为电脑。
轻量人体骨架识别模型使用mobilenet轻量模型进行训练,所获得的数据模型识别速度较快,运算量更小,同时拥有较高的准确度,更适合移动设备使用。
神经网络构造的回归器使用了一个简单的、深度的和多层的神经网络,神经网络中包含了批处理标准化、Dropout、RELUs以及残差连接,通过一个全连接层直接应用于输入,将输入的18*2的关节点增维至1024维,在最终预测前,通过另一个全连接层,将1024维数据降维到18*3,整个回归模型有约4-5百万个可训练参数。
移动设备所使用的深度学习模型使用TensorFlowLite进行转换以及加载,体积更小,计算速度更快,更适合移动应用使用;待测的人体视频使用移动设备的摄像头采集,具有良好的实时性,同时将所采集图像通过Service传递给后台的识别线程进行处理;
首先基于COCO数据集对人体骨架模型进行预训练,得到openpose预训练模型;
然后采集指定动作的人体视频,对视频中的人体关节点进行标注,得到一组新的数据集,将所获得的数据集放入openpose预训练模型进行再次训练,使得人体骨架模型更加适合所需的应用场景;
基于mobilenet为backbone的openpose的网络结构如附图2中所示。Openpose原先的网络结构使用VGG19的前十层加上两层CNN和另外两个级联CNN分支构成。由于基于VGG作为backbone的openpose模型体积过大,对于移动设备处理速度过慢,不适用于移动设备的应用,因此使用修改的mobilenet轻量模型替换VGG19。修改的mobilenet轻量模型使用三个连续的1*1,3*3,3*3的卷积核优化openpose的7*7的卷积核,其中最后一个3*3卷积核使用了residual connection缓解网络加深造成的问题。openpose是现有技术中的一种深度学习人体位姿估计方法,为专有名词。
首先使用mobilenet轻量模型来提取图像特征F,之后将所提取的图像特征F输入到级联CNN分支的第一阶段,生成一组部位检测图和一组亲和矢量场。其中部位检测图S表明每个像素位置出现特定关节点的概率,部位检测图S会在关节点处生成一个高斯分布的概率区域,区域的中心即关节点的概率最大,接近1,以该关节点为原点,外围的点越向四周,其概率越小。亲和矢量场L为肢体的矢量场图,为的是建立部位检测图S所获得的关节点之间的连接。之后的阶段将前一阶段得到的部位检测图和亲和矢量场以及原始的图像特征F作为输入,经过有限n次的循环得到最终的部位检测图和亲和矢量场。在此过程中,为了减少操作的计算量,将部位检测图和亲和矢量场中部分的网络权值进行共享。最终得到轻量人体骨架模型。
将训练所获得的轻量人体骨架识别模型转换为移动设备可用的轻量人体骨架设备识别模型,然后将所获得的移动设备可用的轻量人体骨架识别模型嵌入移动设备的应用app中;
基于Human3.6M数据集对2D人体关节点到3D人体关节点的回归器进行预训练,得到回归器的预训练模型;
利用移动设备采集需要估计动作的人体视频,对人体视频中的人体关节点进行标注,得到新的需要判定的位姿标定的数据集,将所获人体得的需要判定的位姿标定的数据集再次放入神经网络进行训练,最终得到2D人体关节点到3D人体关节点的回归器;
构建回归器的目的是对给定的2D人体关节点,估计得到其在三维空间中的3D人体关节点。对于给定的2D人体关节点输入,以及3D人体关节点输出,构建回归器的目的是为了学习得到中的2D人体关节点到中的3D人体关节点的映射,其中可以表示为:
其中N表示姿势,L表示误差,为2D的groundtruth或者2D人体关节点的探测器,预测相对于其颈部关节的全局空间的3D位置,为深度神经网络训练所获得的2D人体关节点到3D人体关节点的映射。groundtruth为机器学习的专业术语,在机器学习的有监督学习中,数据是有标注的,以(x, t)的形式出现,其中x是输入数据,t是标注.正确的t标注是groundtruth,错误的标记则不是,为专有名词。
2D人体关节点到3D人体关节点的回归器网络结构如附图3中所示,该回归器网络结构为一个简单的、深度和多层的神经网络。回归器网络结构中拥有批处理标准化、Dropout、RELUs以及残差连接模块。首先将18 * 2的2D人体关节点输入进回归器网络结构,经过第一个全连接层的输入,将关节点升维至1024维,然后升维后的关节点输入至批量正则化、RELU以及Dropout组成的网络模块中。其中使用批处理正则化以及Dropout降低训练数据2D人体关节点包含的噪声对检测准确率的影响。由于网络中使用低维点作为输入和输出处理,使用RELU层替换传统的卷积神经网络,可以节约网络的计算成本。整个网络中包含两个由这样的批量正则化、RELU以及Dropout组成的网络模块。这两个网络模块间,使用两个残差连接对其进行包裹,这使得网络中一共有6个全连接层,提高了网络的泛化性能,降低了网络的训练时间,同时有效降低了错误率。在网络的最终输出前,再使用另一个全连接层,产生16 * 3的3D人体关节点作为网络输出。另外网络还通过最大范数对网络每一层的权值进行约束,结合批量正则化提高了网络的稳定性以及泛化效果。
回归器的输入输出都进行了归一化处理,即减去平均值然后除以标准差。回归器预测的3D人体关节点的不是3D全局坐标,而是以髋关节为原点中心的局部坐标,这与Human3.6M标准协议保持一致。为了将2D转3D的问题演变成不同相机下2D到3D的转化,关节点所在的坐标系选择为相机坐标系,同时使用相机坐标系的逆变换来旋转平移3D人体关节点的groundtruth。数据预处理方面,使用沙漏网络获得2D检测的预训练权重,使用bounding box 来预测人体中心位置,随后围绕中心裁剪成440*440像素,在沙漏网络中resize成256*256。此外还在Human3.6M数据集上微调了沙漏网络,使得2D人体关节点的坐标检测更加精确,进而减少了3D姿态估计的误差。在网络训练开始时,使用Adam训练的网络200 代,开始的学习率是0.001,随后使学习率指数递减。初始化时,网络的权值使用Kaiming初始化。最终经过有限次数的迭代,训练获得了2D人体关节点映射到3D人体关节点的回归器;
拍摄者在移动设备安装应用,应用在前台使用手机摄像头拍摄得到被拍摄者的视频序列,并实时将视频序列传入后台服务;
后台服务获取得到视频序列,将视频序列输入到轻量人体骨架识别模型中,获得2D人体关节点。然后将所获得的2D人体关节点输入回归器,输出得到3D人体关节点的位置序列,所获得的3D人体关节点包含鼻子、左耳、右耳、左眼、右眼、颈部、左肩、右肩、左肘、右肘、左腕、右腕、左髋、右髋、左膝、右膝、左踝和右踝;
根据所提取得到的3D人体关节点的位置关系以及计算所获得的肢体夹角角度,可以估计被拍摄者的位姿以及拍摄设备的拍摄机位;
其中,根据左肩夹角、右肩夹角、左手肘夹角、右手肘夹角以及相应上肢的关节点,可以判定得到被拍摄者上肢的可能动作,例如,判定双臂是否处于自然下垂状态,判定双臂是否平端于胸前。要判定双臂是否处于自然下垂状态,当左肩夹角、右肩夹角约为85°、90°和95°中的一个,左手肘夹角、右手肘夹角约为170°、175°和180°中的一个,且左手肘关节点位于左肩关节点下方、右手肘关节点位于右肩关节点下方时,可以判定被拍摄者的手臂为自然下垂状态。要判定双臂是否平端于胸前,当左肩夹角与左手肘夹角之和、右肩夹角与右手肘夹角之和约为180°,且左手肘关节点位于左肩关节点下方、右手肘关节点位于右肩关节点下方时,可以判定被拍摄者的双臂正平端于胸前;
其中,根据左膝盖夹角、右膝盖夹角,以及相应下肢的关节点,可以判定得到被拍摄者下肢的可能动作,例如,判定下肢是否直立,判定下肢是否处于坐姿。要判定下肢是否直立,当左膝盖夹角、右膝盖夹角约为170°、175°和180°中的一个,可以判定被拍摄者处于直立状态。要判定下肢是否处于坐姿,当左膝盖夹角、右膝盖夹角约为85°、90°和95°中的一个,可以判定被拍摄者处于坐姿;
其中,根据鼻子关节点的坐标,可以判定被拍摄者是否处在取景框中的预先设定的指定区域。每个动作会预先设定鼻子关节点在取景框的限定区域,根据被拍摄者鼻子的关节点在图像中的坐标在图像所在平面的投影位置,判定鼻子关节点是否处于预先设定的限定区域;
其中,根据被拍摄者的左肩关节点与右肩的关节点之间连线与图像所在平面法向量的夹角,可以判断拍摄者的拍摄机位处于正面还是侧面。如果被拍摄者的左肩关节点与右肩的关节点之间连线与图像所在平面法向量的夹角约为90°,则判定拍摄者的拍摄机位处于正面拍摄。如果被拍摄者的左肩关节点与右肩的关节点之间连线与图像所在平面法向量的夹角小于90°,则判定拍摄者的拍摄机位处于侧面拍摄;
其中,根据左肩关节点和右肩之间连线的中点到图像所在平面的投影距离,可以判定被拍摄者距离摄像头的距离。如果被拍摄者距离小于当前判定动作的设定阈值,则判定拍摄者离被拍摄者过远;如果被拍摄者距离大于当前判定动作的设定阈值;则判定拍摄者离被拍摄者过近;
当前移动应用主要应用本方法来判定被拍摄者的当前位姿以及预测拍摄者的机位,符合条件即开始指定动作视频的录制。移动应用根据当前录制动作,在界面的左边显示当前录制的动作名称。界面的中间为拍摄的取景框,取景框的左侧下方显示以时间为命名方式的当前拍摄视频的视频组名,取景框左侧中间显示动作选择的箭头按钮,取景框中间显示人像框以辅助拍摄者调节录制角度,取景框的下方中部显示辅助拍摄者的文字提示,取景框的右上方播放当前动作的辅助视频以辅助拍摄者引导被拍摄者调整身体动作。界面的右边上方按钮为查看已录制视频按钮,界面的右边中间按钮为录制按钮,界面的右边下方按钮为设置按钮。如果应用判定当前被拍摄者的动作以及拍摄者的拍摄机位不符合要求,会使用图形界面提醒拍摄者以及用语音提示被拍摄者按照拍摄动作的相应要求进行调整。符合录制条件后,应用则会允许录制相应视频。
神经网络构造的回归器将2D关节点映射到3D关节点,使用RELU层替换传统的卷积神经网络,节约了计算的成本。神经网络构造的回归器使用残差连接提高了网络的泛化性能,降低了训练时间,降低网络的错误率。神经网络构造的回归器使用批处理正则化以及dropout降低训练数据2D关节点包含的噪声对检测准确率的影响。通过最大范数对网络每一层的权值进行约束,结合批量正则化提高了网络的稳定性以及泛化效果。
当前人体位姿以及移动设备的拍摄机位,由肢体间角度的数据大小,以及相邻关节点连接的肢体的比例关系估计得到。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。
Claims (10)
1.基于三维骨架提取的移动设备人体位姿估计方法,其特征在于,包括以下步骤:
输入数据采集:使用移动设备实时采集得到被拍摄者的人体视频;
2D关节点获取:将所获得的人体视频传入后台服务,将人体视频放入轻量人体骨架识别模型中得到2D人体关节点;
3D关节点估计:将所获得的2D人体关节点通过神经网络回归器映射得到三维空间中的3D人体关节点;
人体骨架获取:将所获得的3D人体关节点放回人体视频帧中对应位置,将3D人体关节点连线得到人体骨架;
肢体间角度计算:根据3D人体关节点的坐标信息以及所获得的人体骨架的数据信息,计算得到肢体间角度;
人体位姿估计:根据所获得的肢体间角度以及3D人体关节点的坐标信息,估计得到人体位姿,预测得到移动设备的拍摄机位。
2.根据权利要求1所述的基于三维骨架提取的移动设备人体位姿估计方法,其特征在于,采集指定动作的人体视频,对人体视频中的人体关节点进行标注,得到一组新的需要判定的位姿标定的数据集,将所获得的需要判定的位姿标定的数据集放入openpose预训练模型进行再次训练。
3.根据权利要求1所述的基于三维骨架提取的移动设备人体位姿估计方法,其特征在于,利用轻量人体骨架识别模型提取得到人体视频的2D人体关节点后,将所获得的2D人体关节点的几何信息输入到神经网络回归器中,映射得到3D人体关节点,估计得到3D人体关节点在空间中的大致位置。
4.根据权利要求1所述的基于三维骨架提取的移动设备人体位姿估计方法,其特征在于,
输入数据采集包括以下步骤:使用MSCOCO公共数据集以及需要判定的位姿标定的数据集训练轻量人体骨架识别模型;
基于2D人体关节点标注的数据集以及Human3.6M公共数据集,构建2D人体关节点到3D人体关节点映射的神经网络回归器;
将神经网络回归器转换至移动设备可用的轻量人体骨架识别模型,嵌入到移动设备中。
5.根据权利要求1所述的基于三维骨架提取的移动设备人体位姿估计方法,其特征在于,2D关节点获取:将所获得的人体视频传入后台服务,将人体视频放入轻量人体骨架识别模型中得到2D人体关节点的位置序列。
6.根据权利要求1所述的基于三维骨架提取的移动设备人体位姿估计方法,其特征在于,
获取轻量人体骨架识别模型包括以下步骤:
A、将MSCOCO公共数据集与需要判定的位姿标定的数据集组成轻量人体骨架识别模型的训练数据集;
B、将轻量人体骨架识别模型的训练数据集中的一张图像传入经过修改后的mobilenet网络得到第一阶段的特征图;
C、所获得的第一阶段的特征图通过卷积层得到第一阶段的部位检测图和第一阶段的亲和矢量场;
D、将所述第一阶段的部位检测图、第一阶段的亲和矢量场和得到的第二阶段的特征图输入到mobilenet网络中,通过卷积层获取得到第二阶段的部位检测图和第二阶段的亲和矢量场;
E、重复步骤C至指定的次数得到最终的部位检测图和最终的亲和矢量场;
F、根据最终的部位检测图和最终的亲和矢量场得到轻量人体骨架识别模型。
7.根据权利要求1所述的基于三维骨架提取的移动设备人体位姿估计方法,其特征在于,
获取神经网络回归器包括以下步骤:
A、将需要判定的位姿标定的数据集与Human3.6M数据集混合,得到神经网络回归器的训练数据集;
B、对神经网络回归器的训练数据集的二维输入和三维输出归一化处理;
C、设置初始学习率为0.001,令初始学习率的指数衰减,设置批大小为64,使用Adam优化器预训练模型;
D、将2D人体关节点的坐标输入到回归器中,输出3D人体关节点;
E、重复至预先设定的次数得到神经网络回归器。
9.根据权利要求1所述的基于三维骨架提取的移动设备人体位姿估计方法,其特征在于,
将所获得的2D人体关节点输入神经网络回归器,输出得到3D人体关节点的位置序列,所获得的3D人体关节点包含鼻子关节点、左耳关节点、右耳关节点、左眼关节点、右眼关节点、颈部关节点、左肩关节点、右肩关节点、左手肘关节点、右手肘关节点、左手腕关节点、右手腕关节点、左髋关节点、右髋关节点、左膝盖关节点、右膝盖关节点、左脚踝关节点和右脚踝关节点。
10.根据权利要求1所述的基于三维骨架提取的移动设备人体位姿估计方法,其特征在于,根据所获得的3D人体关节点计算得到肢体间角度,肢体间角度包含左肩夹角、右肩夹角、左手肘夹角、右手肘夹角、左膝盖夹角、右膝盖夹角;
根据所获得的3D人体关节点的位置以及所获得的肢体间角度,估计被拍摄者的位姿以及移动设备的拍摄机位;
其中,基于左肩夹角、右肩夹角、左手肘夹角、右手肘夹角、颈部关节点、左肩关节点、右肩关节点、左手肘关节点、右手肘关节点、左手腕关节点和右手腕关节点,判定得到被拍摄者上肢的动作:当左肩夹角和右肩夹角为85°-95°,左手肘夹角和右手肘夹角为170°-180°,且左手肘关节点位于左肩关节点下方、右手肘关节点位于右肩关节点下方时,判定被拍摄者的手臂为自然下垂状态;当左肩夹角与左手肘夹角之和、右肩夹角与右手肘夹角之和均为170°-180°,且左手肘关节点位于左肩关节点下方、右手肘关节点位于右肩关节点下方时,判定被拍摄者的手臂为双臂正平端于胸前状态;
其中,根据左膝盖夹角、右膝盖夹角、左髋关节点、右髋关节点、左膝盖关节点、右膝盖关节点、左脚踝关节点和右脚踝关节点,判定得到被拍摄者下肢的动作:当左膝盖夹角和右膝盖夹角为170°-180°,判定被拍摄者处于直立状态;当左膝盖夹角和右膝盖夹角为85°-95°,判定被拍摄者处于坐姿状态;
其中,每个动作预先设定鼻子关节点在取景框的限定区域,根据被拍摄者的鼻子关节点的坐标,判定鼻子关节点是否处于预先设定的限定区域;
其中,根据被拍摄者的左肩关节点与右肩关节点之间的连线与图像所在平面法向量的夹角,判断拍摄者的拍摄机位处于正面还是侧面:如果被拍摄者的左肩关节点与右肩的关节点之间的连线与图像所在平面法向量的夹角为90°,则判定拍摄者的拍摄机位处于正面;如果被拍摄者的左肩关节点与右肩关节点之间的连线与图像所在平面法向量的夹角小于90°,则判定拍摄者的拍摄机位处于侧面;
其中,根据左肩关节点和右肩关节点之间的连线的中点到图像所在平面的投影距离,判定被拍摄者距离摄像头的距离:如果被拍摄者距离摄像头的距离小于当前判定动作的设定阈值,则判定拍摄者离被拍摄者过远;如果被拍摄者距离摄像头的距离大于当前判定动作的设定阈值,则判定拍摄者离被拍摄者过近。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010863038.7A CN112164091B (zh) | 2020-08-25 | 2020-08-25 | 基于三维骨架提取的移动设备人体位姿估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010863038.7A CN112164091B (zh) | 2020-08-25 | 2020-08-25 | 基于三维骨架提取的移动设备人体位姿估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112164091A true CN112164091A (zh) | 2021-01-01 |
CN112164091B CN112164091B (zh) | 2022-08-16 |
Family
ID=73860154
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010863038.7A Active CN112164091B (zh) | 2020-08-25 | 2020-08-25 | 基于三维骨架提取的移动设备人体位姿估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112164091B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112800892A (zh) * | 2021-01-18 | 2021-05-14 | 南京邮电大学 | 一种基于openpose的人体姿态识别方法 |
CN113158804A (zh) * | 2021-03-23 | 2021-07-23 | 清华大学 | 一种基于3d姿态的端到端交警手势识别方法和系统 |
CN113569828A (zh) * | 2021-09-27 | 2021-10-29 | 南昌嘉研科技有限公司 | 一种人体姿态识别方法、系统、存储介质及设备 |
CN113627369A (zh) * | 2021-08-16 | 2021-11-09 | 南通大学 | 一种竞拍场景下的动作识别与跟踪方法 |
TWI768852B (zh) * | 2021-04-28 | 2022-06-21 | 緯創資通股份有限公司 | 人體方向之偵測裝置及人體方向之偵測方法 |
WO2022227664A1 (zh) * | 2021-04-25 | 2022-11-03 | 达闼机器人股份有限公司 | 机器人姿态的控制方法、机器人、存储介质及计算机程序 |
JP2023108595A (ja) * | 2022-01-25 | 2023-08-04 | 台州学院 | 人間と機械の協働による組み立てシーン下での人体行動識別方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109919132A (zh) * | 2019-03-22 | 2019-06-21 | 广东省智能制造研究所 | 一种基于骨架检测的行人跌倒识别方法 |
-
2020
- 2020-08-25 CN CN202010863038.7A patent/CN112164091B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109919132A (zh) * | 2019-03-22 | 2019-06-21 | 广东省智能制造研究所 | 一种基于骨架检测的行人跌倒识别方法 |
Non-Patent Citations (1)
Title |
---|
FRANCESC MORENO-NOGUER: "3D Human Pose Estimation from a Single Image via Distance Matrix Regression", 《2017 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112800892A (zh) * | 2021-01-18 | 2021-05-14 | 南京邮电大学 | 一种基于openpose的人体姿态识别方法 |
CN112800892B (zh) * | 2021-01-18 | 2022-08-26 | 南京邮电大学 | 一种基于openpose的人体姿态识别方法 |
CN113158804A (zh) * | 2021-03-23 | 2021-07-23 | 清华大学 | 一种基于3d姿态的端到端交警手势识别方法和系统 |
WO2022227664A1 (zh) * | 2021-04-25 | 2022-11-03 | 达闼机器人股份有限公司 | 机器人姿态的控制方法、机器人、存储介质及计算机程序 |
TWI768852B (zh) * | 2021-04-28 | 2022-06-21 | 緯創資通股份有限公司 | 人體方向之偵測裝置及人體方向之偵測方法 |
JP2022170649A (ja) * | 2021-04-28 | 2022-11-10 | 緯創資通股▲ふん▼有限公司 | 人体の方向を検出する検出装置、および、人体の方向を検出する検出方法 |
JP7235826B2 (ja) | 2021-04-28 | 2023-03-08 | 緯創資通股▲ふん▼有限公司 | 人体の方向を検出する検出装置、および、人体の方向を検出する検出方法 |
US11816860B2 (en) | 2021-04-28 | 2023-11-14 | Wistron Corp. | Detection device for detecting human-body orientation and detection method for detecting human-body orientation |
CN113627369A (zh) * | 2021-08-16 | 2021-11-09 | 南通大学 | 一种竞拍场景下的动作识别与跟踪方法 |
CN113569828A (zh) * | 2021-09-27 | 2021-10-29 | 南昌嘉研科技有限公司 | 一种人体姿态识别方法、系统、存储介质及设备 |
JP2023108595A (ja) * | 2022-01-25 | 2023-08-04 | 台州学院 | 人間と機械の協働による組み立てシーン下での人体行動識別方法 |
JP7523729B2 (ja) | 2022-01-25 | 2024-07-29 | 台州学院 | 人間と機械の協働による組み立てシーン下での人体行動識別方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112164091B (zh) | 2022-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112164091B (zh) | 基于三维骨架提取的移动设备人体位姿估计方法 | |
US10679046B1 (en) | Machine learning systems and methods of estimating body shape from images | |
US10529137B1 (en) | Machine learning systems and methods for augmenting images | |
TWI779970B (zh) | 圖像處理方法、處理器、電子設備與電腦可讀存儲介質 | |
CN113496507B (zh) | 一种人体三维模型重建方法 | |
WO2021052375A1 (zh) | 目标图像生成方法、装置、服务器及存储介质 | |
WO2020103700A1 (zh) | 一种基于微表情的图像识别方法、装置以及相关设备 | |
WO2019200749A1 (zh) | 识别人脸的方法、装置、计算机设备和存储介质 | |
CN112131985B (zh) | 一种基于OpenPose改进的实时轻量人体姿态估计方法 | |
CN111598998A (zh) | 三维虚拟模型重建方法、装置、计算机设备和存储介质 | |
WO2020078119A1 (zh) | 模拟用户穿戴服装饰品的方法、装置和系统 | |
KR20180057096A (ko) | 표정 인식과 트레이닝을 수행하는 방법 및 장치 | |
WO2021063271A1 (zh) | 人体模型重建方法、重建系统及存储介质 | |
CN111680550B (zh) | 情感信息识别方法、装置、存储介质及计算机设备 | |
CN110147737B (zh) | 用于生成视频的方法、装置、设备和存储介质 | |
US11138812B1 (en) | Image processing for updating a model of an environment | |
US12020374B2 (en) | Body shape and pose estimation via volumetric regressor for raw three dimensional scan models | |
WO2022179603A1 (zh) | 一种增强现实方法及其相关设备 | |
CN114611600A (zh) | 一种基于自监督技术的滑雪运动员三维姿态估计方法 | |
CN114549765A (zh) | 三维重建方法及装置、计算机可存储介质 | |
Kang et al. | Interactive animation generation of virtual characters using single RGB-D camera | |
WO2024059374A1 (en) | User authentication based on three-dimensional face modeling using partial face images | |
CN110415322B (zh) | 虚拟对象模型的动作指令的生成方法和装置 | |
Nguyen et al. | Combined YOLOv5 and HRNet for high accuracy 2D keypoint and human pose estimation | |
AU2020436768B2 (en) | Joint rotation inferences based on inverse kinematics |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |