CN113011250A - 一种手部三维图像识别方法及系统 - Google Patents

一种手部三维图像识别方法及系统 Download PDF

Info

Publication number
CN113011250A
CN113011250A CN202110147283.2A CN202110147283A CN113011250A CN 113011250 A CN113011250 A CN 113011250A CN 202110147283 A CN202110147283 A CN 202110147283A CN 113011250 A CN113011250 A CN 113011250A
Authority
CN
China
Prior art keywords
hand
dimensional image
image
dimensional
euclidean distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110147283.2A
Other languages
English (en)
Inventor
段若愚
史明
韩钰浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Xiaopangxiong Technology Co ltd
Original Assignee
Hangzhou Xiaopangxiong Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Xiaopangxiong Technology Co ltd filed Critical Hangzhou Xiaopangxiong Technology Co ltd
Priority to CN202110147283.2A priority Critical patent/CN113011250A/zh
Publication of CN113011250A publication Critical patent/CN113011250A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4046Scaling the whole image or part thereof using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/117Biometrics derived from hands

Abstract

本发明提供一种手部三维图像识别方法及系统,其中方法包括获取手部的三维图像,还包括以下步骤:在所述三维图像中对手部关键点位置标注坐标值(x,y,z),其中关键点位置不少于N个;将所述三维图像转换为二维图像,生成所述手部关键点的采集坐标值;对所述二维图像进行处理并计算欧几里得距离;当得到的所述欧几里得距离小于距离阈值时,输出训练参数;利用所述训练参数估计需要识别的手势图像并显示手部三维图像。本发明提出的一种手部三维图像识别方法及系统,能够利用手机自带相机根据深度学习生成手部三维信息。实现实时计算手部是三维信息。

Description

一种手部三维图像识别方法及系统
技术领域
本发明涉及三维图像处理的技术领域,特别是一种手部三维图像识别方法及系统。
背景技术
现有技术利用2D相机采集图像,生成2D图像数据然后根据X-Y坐标系产生手部关键点的X、Y值,无法提供Z轴的值。现行常用的范围是识别多种常见手势,支持单手手势和双手手势,包括拳头、OK、比心、作揖、作别、祈祷、我爱你、点赞、Rock、数字等,上述这些技术运行速度慢,需要计算资源多,且无法在移动端部署。
公开号为108786773A的发明专利申请公开了《一种基于深度图像的三维手势识别方法及交互系统》,其中方法包括:使用深度传感器获取深度信息图;对获取的深度信息图利用 CNN识别出AOI,切割出待识别的手部深度信息图;将从CNN中获得的手部深度信息图传入手势识别网络进行识别,获得识别出的手部关键节点三维坐标;将手部关键节点坐标进行坐标转换,以适应交互系统的世界坐标;利用Socket通讯,将变换坐标后的手部关键节点坐标序列传送到交互系统;交互系统获取手部关键节点信息,结合用户设定的语义判断条件,利用其物理引擎展示交互结果。该方法需要借助深度相机,使用成本高。利用socket通讯,网络延迟严重,无法实时检测。
发明内容
为了解决上述的技术问题,本发明提出的一种手部三维图像识别方法及系统,能够利用手机自带相机根据深度学习生成手部三维信息。实现实时计算手部是三维信息。
本发明的第一目的是提供一种手部三维图像识别方法,包括获取手部的三维图像,还包括以下步骤:
步骤1:在所述三维图像中对手部关键点位置标注坐标值(x,y,z),其中关键点位置不少于N个,其中,N≥21;
将所述三维图像转换为二维图像,生成所述手部关键点的采集坐标值;
对所述二维图像进行处理并计算欧几里得距离;
当得到的所述欧几里得距离小于距离阈值时,输出训练参数;
利用所述训练参数估计需要识别的手势图像并显示手部三维图像。
优选的是,所述采集坐标值为(xc,yc,zc),zc为深度值坐标,即以手腕关键点建立的深度值。
在上述任一方案中优选的是,所述对所述二维图像进行处理并计算欧几里得距离步骤包括以下子步骤:
将所述二维图像进行压缩,对压缩后的图像进行归一化操作;
使用深度卷积神经网络进行特征提取生成特征图,随机初始化所述训练参数;
使用平均池化层对所述特征图进行池化操作;
利用对平均池化层生成值进行回归计算,生成每一个关键点的回归坐标值(xh,yh,zh);计算回归坐标值(xh,yh,zh)与所述采集坐标值为(xc,yc,zc)的欧几里得距离ρ。
在上述任一方案中优选的是,所述欧几里得距离ρ的计算公式为
Figure BDA0002930713850000021
在上述任一方案中优选的是,所述输出训练参数的步骤还包括当所述欧几里得距离ρ大于所述距离阈值时,将所述训练参数减去缩小阈值,重复所述对所述二维图像进行处理并计算欧几里得距离步骤,直到所述欧几里得距离ρ小于等于所述距离阈值。
在上述任一方案中优选的是,所述利用所述训练参数估计需要识别的手势图像并显示手部三维图像步骤包括以下子步骤:
对待识别手势图像进行归一化操作,生成归一化图像;
对所述归一化图像使用所述训练参数进行特征提取生成特征图;
使用平均池化层对所述特征图进行池化操作,生成池化特征图;
对所述池化特征图进行回归计算,生成所述待识别手势图像的手部关键点坐标值(xd,yd, zd);
集合N个手部关键点坐标,对所述N个手部关键点进行渲染,显示手部三维图像。
在上述任一方案中优选的是,所述三维图像为使用3D相机或深度相机获取的手部3D 图像。
本发明的第二目的是提供一种手部三维图像识别系统,包括用于获取手部的三维图像的获取模块,还包括以下模块:
训练模块:用于使用深度卷积神经网络进行训练,生成训练参数;
测试模块:用于使用所述训练参数对待识别手势图像进行处理,生成手部三维位置信息;
显示模块:用于集合N个手部关键点坐标,对所述N个手部关键点进行渲染,显示手部三维图像,其中,N≥21;
所述系统按照如权利要求1的方法进行手部三维图像识别。
优选的是,所述三维图像为使用3D相机或深度相机获取的手部3D图像。
在上述任一方案中优选的是,所述训练模块的训练方法包括以下步骤:
将所述二维图像进行压缩,对压缩后的图像进行归一化操作;
使用深度卷积神经网络进行特征提取生成特征图,随机初始化所述训练参数;
使用平均池化层对所述特征图进行池化操作;
利用对平均池化层生成值进行回归计算,生成每一个关键点的回归坐标值(xh,yh,zh);计算回归坐标值(xh,yh,zh)与所述采集坐标值为(xc,yc,zc)的欧几里得距离ρ。
在上述任一方案中优选的是,所述采集坐标值为(xc,yc,zc),zc为深度值坐标,即以手腕关键点建立的深度值。
在上述任一方案中优选的是,所述欧几里得距离ρ的计算公式为
Figure BDA0002930713850000031
在上述任一方案中优选的是,所述训练模块还用于判定所述欧几里得距离ρ是否大于所述距离阈值,当所述欧几里得距离ρ大于所述距离阈值时,将所述训练参数减去缩小阈值;当所述欧几里得距离ρ小于等于所述距离阈值时,停止训练。
在上述任一方案中优选的是,所述测试模块的工作方法包括以下步骤:
对待识别手势图像进行归一化操作,生成归一化图像;
对所述归一化图像使用所述训练参数进行特征提取生成特征图;
使用平均池化层对所述特征图进行池化操作,生成池化特征图;
对所述池化特征图进行回归计算,生成所述待识别手势图像的手部关键点坐标值(xd,yd, zd);
集合N个手部关键点坐标,对所述N个手部关键点进行渲染,显示手部三维图像。
本发明提出了一种手部三维图像识别方法及系统,通过关键点的x、y、z三个轴值的结合,使得3D虚拟物体得以在空间中更灵活得呈现,同时带来更真实的视觉效果。
附图说明
图1为按照本发明的手部三维图像识别方法的一优选实施例的流程图。
图2为按照本发明的手部三维图像识别方法的二维图像处理方法的一实施例的流程图
图3为按照本发明的手部三维图像识别方法的估计方法的一实施例的流程图
图4为按照本发明的手部三维图像识别系统的一优选实施例的模块图。
图5为按照本发明的手部三维图像识别方法的另一优选实施例的流程图。
图6为按照本发明的手部三维图像识别方法的关键点获取的一实施例的示意图。
具体实施方式
下面结合附图和具体的实施例对本发明做进一步的阐述。
实施例一
如图1所示,执行步骤100,获取手部的三维图像。
执行步骤110,在所述三维图像中对手部关键点位置标注坐标值(x,y,z),其中关键点位置不少于N个,其中,N≥21。
执行步骤120,将所述三维图像转换为二维图像,生成所述手部关键点的采集坐标值。采集坐标值为(xc,yc,zc),zc为深度值坐标,即以手腕关键点建立的深度值。
执行步骤130,对所述二维图像进行处理,计算欧几里得距离。如图2所示,执行步骤131,将所述二维图像进行压缩,对压缩后的图像进行归一化操作。执行步骤132,使用深度卷积神经网络进行特征提取生成特征图,随机初始化所述训练参数。执行步骤133,使用平均池化层对所述特征图进行池化操作。执行步骤134,利用对平均池化层生成值进行回归计算,生成每一个关键点的回归坐标值(xh,yh,zh)。执行步骤135,计算回归坐标值(xh,yh,zh)与所述采集坐标值为(xc,yc,zc)的欧几里得距离ρ。欧几里得距离ρ的计算公式为
Figure BDA0002930713850000041
执行步骤140,判断得到的所述欧几里得距离是否小于距离阈值。当所述欧几里得距离ρ大于所述距离阈值时,顺序执行步骤145和步骤130,将所述训练参数减去缩小阈值,重新计算欧几里得距离。当所述欧几里得距离ρ小于等于所述距离阈值时,执行步骤150,输出训练参数。
执行步骤160,利用所述训练参数估计需要识别的手势图像,显示手部三维图像。如图3所示,执行步骤161,对待识别手势图像进行归一化操作,生成归一化图像。执行步骤162,对所述归一化图像使用所述训练参数进行特征提取生成特征图。执行步骤163,使用平均池化层对特征图进行池化操作,生成池化特征图。执行步骤164,对所述池化特征图进行回归计算,生成所述待识别手势图像的手部关键点坐标值(xd,yd,zd)。执行步骤 165,集合所述N个手部关键点坐标,对所述N个手部关键点进行渲染,显示手部三维图像,在本实施例中,N=21。
实施例二
如图4所示,一种手部三维图像识别系统,包括获取模块200、训练模块210、测试模块220和显示模块230。
获取模块200:用于获取手部的三维图像。三维图像为使用3D相机或深度相机获取的手部3D图像。
训练模块210:用于使用深度卷积神经网络进行训练,生成训练参数。训练模块210的训练方法包括以下步骤:
步骤31:将所述二维图像进行压缩,对压缩后的图像进行归一化操作;
步骤32:使用深度卷积神经网络进行特征提取生成特征图,随机初始化所述训练参数;
步骤33:使用平均池化层对所述特征图进行池化操作;
步骤34:利用对平均池化层生成值进行回归计算,生成每一个关键点的回归坐标值(xh, yh,zh);
步骤34:计算回归坐标值(xh,yh,zh)与所述采集坐标值为(xc,yc,zc)的欧几里得距离ρ。欧几里得距离ρ的计算公式为
Figure BDA0002930713850000042
训练模块210还用于判定所述欧几里得距离ρ是否大于所述距离阈值,当所述欧几里得距离ρ大于所述距离阈值时,将所述训练参数减去缩小阈值;当所述欧几里得距离ρ小于等于所述距离阈值时,停止训练。
测试模块220:用于使用所述训练参数对待识别手势图像进行处理,生成手部三维位置信息。测试模块220的工作方法包括以下步骤:
步骤51:对待识别手势图像进行归一化操作,生成归一化图像;
步骤52:对所述归一化图像使用所述训练参数进行特征提取生成特征图;
步骤53:使用平均池化层对特征图进行池化操作,生成池化特征图;
步骤54:对所述池化特征图进行回归计算,生成所述待识别手势图像的手部关键点坐标值 (xd,yd,zd);
步骤55:集合N个手部关键点坐标,对N个手部关键点进行渲染,显示手部三维图像,在本实施例中,N=21。
显示模块230:用于集合N个手部关键点坐标,对所有手部关键点进行渲染,显示手部三维图像。
实施例三
本发明首先采用少量标注的人手部关键点图像数据集,训练类似于人体姿态关键点所使用的CPM-Convolutional Pose Machines网络,以得到手部关键点的粗略估计,采用了多个HD高清摄像头从不同的视角对人手部进行拍摄。
然后,将拍摄图像送入手部关键点检测器,初步得到许多粗略的关键点检测结果。一旦有了同一手部的不同视角的关键点,则构建关键点测量(Keypoint triangulation),以得到关键点的3D位置。关键点的3D位置被从3D重新投影到每一幅不同视角的2D图片,并采用2D图像和关键点,进一步训练网络,以鲁棒的预测手部关键点位置。这对于关键点难以预测的图片而言是尤其重要的。采用这种方式,通过少量几次迭代,即可得到较为准确的手部关键点检测器。
本发明通过手部Z轴的检测和追踪,可以实现手部与3D虚拟物体的交互。
如本发明的技术方案如下:
1、利用深度相机获取手部3D图像,然后以左上角为坐标原点根据3D图像中手的位置对手21个关键点标注X、Y、Z值,将3D图像转换成2D图像,X,Y值不变,Z值变为以手腕关键点建立的深度值,生成21个关键点的X、Y、深度值坐标。
2、将批量采集3D转2D图像压缩到256*256的尺寸,对压缩后的图像进行归一化操作,然后使用MobileNet深度卷积神经网络的进行特征提取生成特征图,然后使用平均池化层对特征图进行池化操作,利用对平均池化层生成值进行回归计算X、Y、深度值,然后使用
Figure BDA0002930713850000051
对回归计算的X、Y、深度值与采集数据得到的X、 Y、深度值计算欧几里得距离。本方法消耗的计算资源少,运行速度快。
3、如果计算得到的欧几里得距离大于0.1,则把深度卷积神经网络的初始化参数减去 0.01,不断的重复步骤3,直到欧几里得距离小于0.1则停止训练。
4、对需要识别的手势图像进行归一化操作,然后使用训练得到的MobileNet深度卷积神经网络的参数进行特征提取生成特征图,然后使用平均池化层对特征图进行池化操作,利用对平均池化层生成值进行回归计算X、Y、深度值,得到的结果即为手部关键点X、Y、深度信息。
实施例四
如图5所示,使用相机获取手部2D图像。
对手部2D图像进行视频流解码转换,生成数字图像。
对数字图像中的手部进行检测,截取图像中手部位置图像。
将数字图像与检测到的手部图像进行结合,截取手部相片。
对截取的图像进行手部关键点检测。
结合截取钱图像,对手部关键点对应位置转换。
对转换后的手部关键点位置渲染显示。
实施例五
如图6所示,外围的矩形框是整个收的轮廓区域,1代表手部边框,2代表手掌边框,后面跟的数字是置信度如0.95(取值范围为0-1),3表示受不得21个关键点,每个点表示一个手部关键点位置。
为了更好地理解本发明,以上结合本发明的具体实施例做了详细描述,但并非是对本发明的限制。凡是依据本发明的技术实质对以上实施例所做的任何简单修改,均仍属于本发明技术方案的范围。本说明书中每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似的部分相互参见即可。对于系统实施例而言,由于其与方法实施例基本对应,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。

Claims (10)

1.一种手部三维图像识别方法,包括获取手部的三维图像,其特征在于,还包括以下步骤:
在所述三维图像中对手部关键点位置标注坐标值(x,y,z),其中关键点位置不少于N个,其中,N≥21;
将所述三维图像转换为二维图像,生成所述手部关键点的采集坐标值;
对所述二维图像进行处理并计算欧几里得距离;
当得到的所述欧几里得距离小于距离阈值时,输出训练参数;
利用所述训练参数估计需要识别的手势图像并显示手部三维图像。
2.如权利要求1所述的手部三维图像识别方法,其特征在于,所述采集坐标值为(xc,yc,zc),zc为深度值坐标,即以手腕关键点建立的深度值。
3.如权利要求2所述的手部三维图像识别方法,其特征在于,所述对所述二维图像进行处理并计算欧几里得距离步骤包括以下子步骤:
将所述二维图像进行压缩,对压缩后的图像进行归一化操作;
使用深度卷积神经网络进行特征提取生成特征图,随机初始化所述训练参数;
使用平均池化层对所述特征图进行池化操作;
利用对平均池化层生成值进行回归计算,生成每一个关键点的回归坐标值(xh,yh,zh);
计算回归坐标值(xh,yh,zh)与所述采集坐标值为(xc,yc,zc)的欧几里得距离ρ。
4.如权利要求3所述的手部三维图像识别方法,其特征在于,所述欧几里得距离ρ的计算公式为
Figure FDA0002930713840000011
5.如权利要求4所述的手部三维图像识别方法,其特征在于,所述输出训练参数的步骤还包括当所述欧几里得距离ρ大于所述距离阈值时,将所述训练参数减去缩小阈值,重复所述对所述二维图像进行处理并计算欧几里得距离步骤,直到所述欧几里得距离ρ小于等于所述距离阈值。
6.如权利要求5所述的手部三维图像识别方法,其特征在于,所述利用所述训练参数估计需要识别的手势图像并显示手部三维图像步骤包括以下子步骤:
对待识别手势图像进行归一化操作,生成归一化图像;
对所述归一化图像使用所述训练参数进行特征提取生成特征图;
使用平均池化层对所述特征图进行池化操作,生成池化特征图;
对所述池化特征图进行回归计算,生成所述待识别手势图像的手部关键点坐标值(xd,yd,zd);
集合N个手部关键点坐标,对所述N个手部关键点进行渲染,显示手部三维图像。
7.如权利要求6所述的手部三维图像识别方法,其特征在于,所述三维图像为使用3D相机或深度相机获取的手部3D图像。
8.一种手部三维图像识别系统,包括用于获取手部的三维图像的获取模块,其特征在于,还包括以下模块:
训练模块:用于使用深度卷积神经网络进行训练,生成训练参数;
测试模块:用于使用所述训练参数对待识别手势图像进行处理,生成手部三维位置信息;
显示模块:用于集合N个手部关键点坐标,对所述N个手部关键点进行渲染,显示手部三维图像,其中,N≥21;
所述系统按照如权利要求1的方法进行手部三维图像识别。
9.如权利要求6所述的手部三维图像识别系统,其特征在于,所述三维图像为使用3D相机或深度相机获取的手部3D图像。
10.如权利要求6所述的手部三维图像识别系统,其特征在于,所述训练模块的训练方法包括以下步骤:
将所述二维图像进行压缩,对压缩后的图像进行归一化操作;
使用深度卷积神经网络进行特征提取生成特征图,随机初始化所述训练参数;
使用平均池化层对所述特征图进行池化操作;
利用对平均池化层生成值进行回归计算,生成每一个关键点的回归坐标值(xh,yh,zh);
计算回归坐标值(xh,yh,zh)与所述采集坐标值为(xc,yc,zc)的欧几里得距离ρ。
CN202110147283.2A 2021-02-03 2021-02-03 一种手部三维图像识别方法及系统 Pending CN113011250A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110147283.2A CN113011250A (zh) 2021-02-03 2021-02-03 一种手部三维图像识别方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110147283.2A CN113011250A (zh) 2021-02-03 2021-02-03 一种手部三维图像识别方法及系统

Publications (1)

Publication Number Publication Date
CN113011250A true CN113011250A (zh) 2021-06-22

Family

ID=76384957

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110147283.2A Pending CN113011250A (zh) 2021-02-03 2021-02-03 一种手部三维图像识别方法及系统

Country Status (1)

Country Link
CN (1) CN113011250A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113807323A (zh) * 2021-11-01 2021-12-17 北京大学 基于图像识别的手功能精准评估系统及方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113807323A (zh) * 2021-11-01 2021-12-17 北京大学 基于图像识别的手功能精准评估系统及方法
CN113807323B (zh) * 2021-11-01 2022-12-09 北京大学 基于图像识别的手功能精准评估系统及方法

Similar Documents

Publication Publication Date Title
CN108875633B (zh) 表情检测与表情驱动方法、装置和系统及存储介质
CN110998659B (zh) 图像处理系统、图像处理方法、及程序
CN109684925B (zh) 一种基于深度图像的人脸活体检测方法及设备
US8269722B2 (en) Gesture recognition system and method thereof
CN110458895B (zh) 图像坐标系的转换方法、装置、设备及存储介质
EP2843621A1 (en) Human pose calculation from optical flow data
WO2020134818A1 (zh) 图像处理方法及相关产品
CN110544301A (zh) 一种三维人体动作重建系统、方法和动作训练系统
CN111062263B (zh) 手部姿态估计的方法、设备、计算机设备和存储介质
CN108958469B (zh) 一种基于增强现实的在虚拟世界增加超链接的方法
CN112287866A (zh) 一种基于人体关键点的人体动作识别方法及装置
CN110866977B (zh) 增强现实处理方法及装置、系统、存储介质和电子设备
CN107832736B (zh) 实时人体动作的识别方法和实时人体动作的识别装置
CN111080776B (zh) 人体动作三维数据采集和复现的处理方法及系统
CN112287867B (zh) 一种多摄像头的人体动作识别方法及装置
US10229508B2 (en) Dynamic particle filter parameterization
WO2023168957A1 (zh) 姿态确定方法、装置、电子设备、存储介质及程序
CN104067295B (zh) 姿势识别方法、用于该方法的装置和计算机程序
CN107209556A (zh) 用于对捕获对象相对于交互平面的交互的深度图像进行处理的系统及方法
CN113362467B (zh) 基于点云预处理和ShuffleNet的移动端三维位姿估计方法
CN113011250A (zh) 一种手部三维图像识别方法及系统
CN113158974A (zh) 姿态估计方法、装置、计算机设备和存储介质
CN108426566B (zh) 一种基于多摄像机的移动机器人定位方法
Tiwari et al. Deep learning approach for generating 2D pose estimation from video for motion capture animation
Srinivasan et al. Skin colour segmentation based 2d and 3d human pose modelling using discrete wavelet transform

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination