CN114299604A - 一种基于二维图像的手骨骼捕捉、手势判别方法 - Google Patents
一种基于二维图像的手骨骼捕捉、手势判别方法 Download PDFInfo
- Publication number
- CN114299604A CN114299604A CN202111396081.8A CN202111396081A CN114299604A CN 114299604 A CN114299604 A CN 114299604A CN 202111396081 A CN202111396081 A CN 202111396081A CN 114299604 A CN114299604 A CN 114299604A
- Authority
- CN
- China
- Prior art keywords
- hand
- dimensional image
- data
- skeleton
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000001514 detection method Methods 0.000 claims abstract description 57
- 238000012549 training Methods 0.000 claims abstract description 27
- 238000012937 correction Methods 0.000 claims abstract description 13
- 238000002372 labelling Methods 0.000 claims description 17
- 210000002411 hand bone Anatomy 0.000 claims description 14
- 238000004422 calculation algorithm Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 10
- 238000013135 deep learning Methods 0.000 claims description 10
- 238000012360 testing method Methods 0.000 claims description 9
- 230000000694 effects Effects 0.000 claims description 8
- 230000006870 function Effects 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 7
- 230000000644 propagated effect Effects 0.000 claims description 4
- 230000008569 process Effects 0.000 description 3
- 241001133760 Acoelorraphe Species 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000012850 discrimination method Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000003631 expected effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种基于二维图像的手骨骼捕捉、手势判别方法,包括:1、采集包含手部信息的二维图像,从二维图像中得到数据标签;2、构建手部检测网络结构,并训练生成手部检测模型;3、构建关键点定位网络结构,并训练生成关键点定位模型;4、实时获取视频流;5、将4中带手部信息的二维图像输入2中的模型,得到手的位置、正反面类别及角度信息;6、使用5得到的手的位置信息,截取视频流中手部位的二维图像,并根据5的手的角度信息对手部位的二维图像进行旋转矫正;7、将6的结果输入3中的模型,得到手骨骼关键点位置信息;8、根据7的结果,计算手骨骼关键点中的边缘点,结合5的结果,确定不同手势的判别规则,对手势进行判别。
Description
技术领域
本发明涉及计算机视觉技术领域,具体涉及一种基于二维图像的手骨骼捕捉、手势判别方法。
背景技术
手势判别的目的是通过数学算法来判别人类手势,可以协助人与机器进行通信,并且无需任何机械设备即可自然交互。目前手势判别方法主要有以下三种:
(1)利用机器设备,通过有线技术将计算机系统与用户相互连接,直接检测手部各关节的角度和空间位置。例如,数据手套通过多个传感器将用户手的位置、手指的方向等信息传送到计算机系统中。数据手套虽可提供良好的检测效果,但将其应用在常用领域则价格昂贵。
(2)光学标记方法,通过红外线可将人手位置和手指的变化传送到动作捕捉系统的屏幕上,该方法虽可提供良好的效果,但仍需较为复杂的设备。
(3)基于视觉的手势识别方式摆脱了复杂设备的限制,视觉手势识别是指对视频采集设备拍摄到的包含手势的图像序列,通过计算机视觉技术进行处理,进而对手势加以识别。当前准确度较高的方法主要基于深度神经网络,现有的基于视觉的手势判别方法计算量大,无法应用于普通PC机或单片机上。
发明内容
有鉴于此,本发明提供了一种基于二维图像的手骨骼捕捉、手势判别方法,融合了深度学习、凸包算法等技术方法,能够实现手势判别成本低、计算量小、精度高、通用性强等优势,从而便于推广应用。
本发明的技术方案为:一种基于二维图像的手骨骼捕捉、手势判别方法,包括以下步骤:
步骤一、采集包含手部信息的二维图像作为数据集,并对二维图像中的手部信息进行标注,得到数据标签;然后对数据标签进行数据处理,并从中随机选取50%的数据作为训练数据集,剩余50%的数据作为测试数据集;
步骤二、基于深度学习方法,构建手部检测网络结构,并训练数据,生成手部检测模型;
步骤三、基于深度学习方法,构建关键点定位网络结构,并训练数据,生成关键点定位模型;
步骤四、实时获取视频流作为数据输入;
步骤五、将步骤四中获取的视频流中带手部信息的二维图像输入步骤二中的手部检测模型中,进行前向计算,得到手的位置、正反面类别及角度信息;
步骤六、使用步骤五得到的手的位置信息,截取视频流中手部位的二维图像,并根据步骤五得到的手的角度信息对手部位的二维图像进行旋转矫正;
步骤七、将步骤六得到的旋转矫正后的二维图像输入步骤三中的关键点定位模型,进行前向计算,得到手骨骼关键点位置信息,并获得手骨骼轮廓;
步骤八、根据步骤七得到的手骨骼关键点位置信息,使用凸包算法计算手骨骼关键点中的边缘点,结合步骤五取得的手部位置、正反面类别及角度信息,确定不同手势的判别规则,对应该判别规则直接对手势进行判别。
优选地,所述步骤二中,训练数据时,从手部检测网络结构的输入端输入步骤一所采集的二维图像,输出端会得到一个手部轮廓的预测结果,与数据标签相比较得到一个误差,将这个误差在手部检测模型的每一层迭代中反向传播,直至训练到手部检测模型收敛或达到预设效果,测试数据集的检测结果达到95%以上的准确率,停止训练,生成符合预设要求的手部检测模型。
优选地,所述步骤二中构建的手部检测网络结构是一种基于SSD目标检测网络改进后的目标检测网络结构,通过增加损失函数的方法,构建带角度的手部检测网络结构。
优选地,所述步骤三中,训练数据时,从关键点定位网络结构的输入端输入步骤二中数据处理后的二维图像,输出端会得到一个手部轮廓的预测结果,与数据标签相比较得到一个误差,将这个误差在关键点定位模型中的每一层迭代中反向传播,直至关键点定位模型收敛或达到预设效果,测试数据集的检测结果与数据标签的欧式距离小于0.003,停止训练,生成符合预设要求的关键点定位模型。
优选地,所述步骤三中,关键点定位网络结构是一种回归模型,采用欧式损失回归手骨骼21个关键点的坐标。
优选地,所述步骤四中,使用可见光摄像头,并通过RTSP实时获取视频流;或者直接读取本地视频获取视频流。
优选地,所述步骤八中,判别规则设定时以手骨骼关键点中的边缘点为主,以手部位置、正反面类别及角度信息作为辅助判定依据。
优选地,所述步骤一中,对二维图像中的手部信息进行标注分为两种类型,一种用于手部检测,一种用于手骨骼关键点定位;其中,手部检测的标注工具使用矩形框作为标注工具,将二维图像中的手部信息标注出来,手部信息包括手的最小外接旋转矩形的四点坐标、手的平面旋转角度以及手的正反面类别标签;手骨骼关键点定位捕捉的标注工具的标注方式为点标注,依次定义21个手骨骼关键点,其中任意两点不重叠,标注信息包括21个手骨骼关键点的序号及其坐标。
优选地,所述步骤一中,所述步骤三中,在训练手骨骼关键点定位网络结构之前,对数据进行矫正处理,其具体方法为:根据手的最小外接旋转矩形的四点坐标将二维图像中手的部位提取出来,进行旋转矫正,矫正后得到仅包含手部分的矩形图像;其中,需同时对手骨骼关键点的坐标进行相应变换。
有益效果:
1、本发明的方法基于深度学习方法,构建手部检测网络结构和关键点定位网络结构,并训练数据,在训练过程中,从输入端输入数据到输出端会得到一个预测结果,与真实结果相比较会得到一个误差,这个误差会在模型中的每一层传递(反向传播),每一层的迭代都会根据这个误差来做调整,直到模型收敛或达到预期的效果才结束,这是端到端的,能够实现手势判别成本低、计算量小、精度高、通用性强等优势,可用于实时手势指挥系统及各类办公应用场景,解决了传统手势识别方法成本高、计算量大、精度不准、通用性不强等问题,从而便于推广应用。
2、本发明可使用可见光摄像头在普通PC机上实现手骨骼捕捉、手势判别功能,相较于SVM算法、随机森林和深度学习等机器学习方法计算量极小,且精度较高。
附图说明
图1为本发明的手骨骼捕捉、手势判别方法流程示意图。
图2为本发明中手骨骼关键点示意图。
具体实施方式
下面结合附图并举实施例,对本发明进行详细描述。
本实施例提供了一种基于二维图像的手骨骼捕捉、手势判别方法,融合了深度学习、凸包算法等技术方法,能够实现手势判别成本低、计算量小、精度高、通用性强等优势,从而便于推广应用。
如图1所示,该手骨骼捕捉、手势判别方法包括以下步骤:
步骤一、数据准备;
采集包含完整手部信息的清晰二维图像作为数据集,并对二维图像中的手部信息进行标注,得到数据标签;然后对数据标签进行数据处理;最后,从处理后的数据中随机选取50%的数据作为训练数据集,剩余50%的数据作为测试数据集;
步骤二、基于深度学习方法,构建适用于手部检测的网络结构(简称手部检测网络结构),并训练数据,生成手部检测模型;
在训练数据的过程中,从手部检测网络结构的输入端输入步骤一所采集的二维图像,输出端会得到一个手部轮廓的预测结果,与数据标签相比较可以得到一个误差,这个误差会在手部检测模型中的每一层迭代中传递(反向传播),即每一层的参数都会根据这个误差来做调整;直至训练到手部检测模型收敛或达到预设效果,测试数据集的检测结果达到95%以上的准确率,停止训练,生成最优的手部检测模型;
此处使用的手部检测网络结构是一种基于SSD目标检测网络改进后的目标检测网络结构,通过增加损失函数的方法,构建带角度的手部检测网络结构;其中,SSD目标检测网络的算法相较于Fast-RCNN、Faster-RCNN、YOLO等算法,均衡了速度、精度等优势,可以快速准确地进行手部检测及分类;
步骤三、基于深度学习方法,构建适用于手骨骼关键点定位的网络结构(简称关键点定位网络结构),并训练数据,生成关键点定位模型;
在训练过程中,从关键点定位网络结构的输入端输入步骤二中数据处理后的二维图像,输出端会得到一个手部轮廓的预测结果,与数据标签相比较会得到一个误差,这个误差会在关键点定位模型中的每一层迭代中传递(反向传播),即每一层的参数都会根据这个误差来做调整;直至关键点定位模型收敛或达到预设效果,测试数据集的检测结果与数据标签的欧式距离小于0.003,停止训练,生成最优关键点定位模型;
此处使用的关键点定位网络结构是一种回归模型,采用欧式损失回归手骨骼21个关键点的坐标(其中,手骨骼关键点示意图如图2所示,每个手指上取四个均匀分布的关键点,且分布沿每根手指的方向连成一条线,手掌根部中间位置处取一个关键点,五个手指根部的关键点均与手掌根部的关键点连接);为了尽可能缩小计算量,采用ResNet(残差网络)作为骨架网络,采用欧式损失作为损失函数回归手骨骼的21个特征点的坐标;
步骤四、实时获取视频流作为数据输入;
本实施例可使用可见光摄像头,并通过RTSP(实时流控制协议)获取可见光摄像头传输的实时视频流;也可以直接读取本地视频;
步骤五、手部检测;
将步骤四获取的视频流中带手部信息的二维图像输入手部检测模型中,进行前向计算,得到手的位置、正反面类别及角度信息;
步骤六、手部图像获取并矫正;
使用步骤五得到的手的位置信息,截取视频流中手部位的二维图像,并根据步骤五得到的手的角度信息对手部位的二维图像进行旋转矫正;
步骤七、手骨骼关键点定位;
将步骤六得到的旋转矫正后的二维图像输入关键点定位模型,进行前向计算,得到手骨骼关键点位置信息,并获得手骨骼轮廓;
步骤八、手势判别;
根据步骤七得到的手骨骼关键点位置信息,使用凸包算法计算手骨骼关键点中的边缘点,结合步骤五取得的手部位置、正反面类别及角度信息,设置不同手势的判别规则,对应该判别规则直接对手势进行判别;
此处,根据以上这些不同手势的特征可以适应性规定多种手势判别规则,判别规则主要依据关键点中的边缘点进行设定,以手部位置、正反面类别及角度信息作为辅助判定依据。
本实施例中,手部检测网络结构和关键点定位网络结构均是卷积神经网络,手部检测模型和关键点定位模型均为卷积神经网络模型。
本实施例中,步骤一中对二维图像中的手部信息进行标注分为两种类型,一种用于手部检测,一种用于手骨骼关键点定位;其中,手部检测的标注工具使用矩形框作为标注工具,将二维图像中的手部信息标注出来,手部信息包括手的最小外接旋转矩形的四点坐标、手的平面旋转角度以及手的类别标签(标签分为正面和反面两种类别);手骨骼关键点定位捕捉的标注工具的标注方式为点标注,依次定义21个手骨骼关键点,其中任意两点不重叠,标注信息包括21个手骨骼关键点的序号及其坐标。
本实施例中,步骤三中,在训练手骨骼关键点定位网络结构之前,需要对数据进行矫正处理,其具体方法为:根据手的最小外接旋转矩形的四点坐标将二维图像中手的部位提取出来,进行旋转矫正,矫正后得到仅包含手部分的矩形图像;需要注意的是,应同时对手骨骼关键点的坐标进行相应变换,确保这些手骨骼关键点在新的图像中可以正确标记。
本实施例中,对SSD目标检测网络的改进方式主要包括:缩减主干网络用于减少计算量提高运算速度,可适用于普通的PC机;增加网络的计算功能,通过增加损失函数的方式,在原始SSD目标检测网络的算法预测目标位置及类别的基础上,增加估算目标平面内旋转角度功能,通过该角度将手部二维图像旋转矫正用于手骨骼关键点定位,可有效提高手骨骼关键点定位精度。
综上所述,以上仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种基于二维图像的手骨骼捕捉、手势判别方法,其特征在于,包括以下步骤:
步骤一、采集包含手部信息的二维图像作为数据集,并对二维图像中的手部信息进行标注,得到数据标签;然后对数据标签进行数据处理,并从中随机选取50%的数据作为训练数据集,剩余50%的数据作为测试数据集;
步骤二、基于深度学习方法,构建手部检测网络结构,并训练数据,生成手部检测模型;
步骤三、基于深度学习方法,构建关键点定位网络结构,并训练数据,生成关键点定位模型;
步骤四、实时获取视频流作为数据输入;
步骤五、将步骤四中获取的视频流中带手部信息的二维图像输入步骤二中的手部检测模型中,进行前向计算,得到手的位置、正反面类别及角度信息;
步骤六、使用步骤五得到的手的位置信息,截取视频流中手部位的二维图像,并根据步骤五得到的手的角度信息对手部位的二维图像进行旋转矫正;
步骤七、将步骤六得到的旋转矫正后的二维图像输入步骤三中的关键点定位模型,进行前向计算,得到手骨骼关键点位置信息,并获得手骨骼轮廓;
步骤八、根据步骤七得到的手骨骼关键点位置信息,使用凸包算法计算手骨骼关键点中的边缘点,结合步骤五取得的手部位置、正反面类别及角度信息,确定不同手势的判别规则,对应该判别规则直接对手势进行判别。
2.如权利要求1所述的基于二维图像的手骨骼捕捉、手势判别方法,其特征在于,所述步骤二中,训练数据时,从手部检测网络结构的输入端输入步骤一所采集的二维图像,输出端会得到一个手部轮廓的预测结果,与数据标签相比较得到一个误差,将这个误差在手部检测模型的每一层迭代中反向传播,直至训练到手部检测模型收敛或达到预设效果,测试数据集的检测结果达到95%以上的准确率,停止训练,生成符合预设要求的手部检测模型。
3.如权利要求1所述的基于二维图像的手骨骼捕捉、手势判别方法,其特征在于,所述步骤二中构建的手部检测网络结构是一种基于SSD目标检测网络改进后的目标检测网络结构,通过增加损失函数的方法,构建带角度的手部检测网络结构。
4.如权利要求1所述的基于二维图像的手骨骼捕捉、手势判别方法,其特征在于,所述步骤三中,训练数据时,从关键点定位网络结构的输入端输入步骤二中数据处理后的二维图像,输出端会得到一个手部轮廓的预测结果,与数据标签相比较得到一个误差,将这个误差在关键点定位模型中的每一层迭代中反向传播,直至关键点定位模型收敛或达到预设效果,测试数据集的检测结果与数据标签的欧式距离小于0.003,停止训练,生成符合预设要求的关键点定位模型。
5.如权利要求1所述的基于二维图像的手骨骼捕捉、手势判别方法,其特征在于,所述步骤三中,关键点定位网络结构是一种回归模型,采用欧式损失回归手骨骼21个关键点的坐标。
6.如权利要求1所述的基于二维图像的手骨骼捕捉、手势判别方法,其特征在于,所述步骤四中,使用可见光摄像头,并通过RTSP实时获取视频流;或者直接读取本地视频获取视频流。
7.如权利要求1所述的基于二维图像的手骨骼捕捉、手势判别方法,其特征在于,所述步骤八中,判别规则设定时以手骨骼关键点中的边缘点为主,以手部位置、正反面类别及角度信息作为辅助判定依据。
8.如权利要求1-7中任意一项所述的基于二维图像的手骨骼捕捉、手势判别方法,其特征在于,所述步骤一中,对二维图像中的手部信息进行标注分为两种类型,一种用于手部检测,一种用于手骨骼关键点定位;其中,手部检测的标注工具使用矩形框作为标注工具,将二维图像中的手部信息标注出来,手部信息包括手的最小外接旋转矩形的四点坐标、手的平面旋转角度以及手的正反面类别标签;手骨骼关键点定位捕捉的标注工具的标注方式为点标注,依次定义21个手骨骼关键点,其中任意两点不重叠,标注信息包括21个手骨骼关键点的序号及其坐标。
9.如权利要求8所述的基于二维图像的手骨骼捕捉、手势判别方法,其特征在于,所述步骤一中,所述步骤三中,在训练手骨骼关键点定位网络结构之前,对数据进行矫正处理,其具体方法为:根据手的最小外接旋转矩形的四点坐标将二维图像中手的部位提取出来,进行旋转矫正,矫正后得到仅包含手部分的矩形图像;其中,需同时对手骨骼关键点的坐标进行相应变换。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111396081.8A CN114299604A (zh) | 2021-11-23 | 2021-11-23 | 一种基于二维图像的手骨骼捕捉、手势判别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111396081.8A CN114299604A (zh) | 2021-11-23 | 2021-11-23 | 一种基于二维图像的手骨骼捕捉、手势判别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114299604A true CN114299604A (zh) | 2022-04-08 |
Family
ID=80965900
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111396081.8A Pending CN114299604A (zh) | 2021-11-23 | 2021-11-23 | 一种基于二维图像的手骨骼捕捉、手势判别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114299604A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114638921A (zh) * | 2022-05-19 | 2022-06-17 | 深圳元象信息科技有限公司 | 动作捕捉方法、终端设备及存储介质 |
WO2023226578A1 (zh) * | 2022-05-27 | 2023-11-30 | 腾讯科技(深圳)有限公司 | 手掌轮廓提取方法、控制指令生成方法和装置 |
CN117420917A (zh) * | 2023-12-19 | 2024-01-19 | 烟台大学 | 基于手部骨架的虚拟现实控制方法、系统、设备及介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103399637A (zh) * | 2013-07-31 | 2013-11-20 | 西北师范大学 | 基于kinect人体骨骼跟踪控制的智能机器人人机交互方法 |
WO2018120964A1 (zh) * | 2016-12-30 | 2018-07-05 | 山东大学 | 一种基于深度信息和骨骼信息的姿势矫正方法 |
CN110084161A (zh) * | 2019-04-17 | 2019-08-02 | 中山大学 | 一种人体骨骼关键点的快速检测方法及系统 |
CN111696140A (zh) * | 2020-05-09 | 2020-09-22 | 青岛小鸟看看科技有限公司 | 基于单目的三维手势追踪方法 |
-
2021
- 2021-11-23 CN CN202111396081.8A patent/CN114299604A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103399637A (zh) * | 2013-07-31 | 2013-11-20 | 西北师范大学 | 基于kinect人体骨骼跟踪控制的智能机器人人机交互方法 |
WO2018120964A1 (zh) * | 2016-12-30 | 2018-07-05 | 山东大学 | 一种基于深度信息和骨骼信息的姿势矫正方法 |
CN110084161A (zh) * | 2019-04-17 | 2019-08-02 | 中山大学 | 一种人体骨骼关键点的快速检测方法及系统 |
CN111696140A (zh) * | 2020-05-09 | 2020-09-22 | 青岛小鸟看看科技有限公司 | 基于单目的三维手势追踪方法 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114638921A (zh) * | 2022-05-19 | 2022-06-17 | 深圳元象信息科技有限公司 | 动作捕捉方法、终端设备及存储介质 |
CN114638921B (zh) * | 2022-05-19 | 2022-09-27 | 深圳元象信息科技有限公司 | 动作捕捉方法、终端设备及存储介质 |
WO2023226578A1 (zh) * | 2022-05-27 | 2023-11-30 | 腾讯科技(深圳)有限公司 | 手掌轮廓提取方法、控制指令生成方法和装置 |
CN117420917A (zh) * | 2023-12-19 | 2024-01-19 | 烟台大学 | 基于手部骨架的虚拟现实控制方法、系统、设备及介质 |
CN117420917B (zh) * | 2023-12-19 | 2024-03-08 | 烟台大学 | 基于手部骨架的虚拟现实控制方法、系统、设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108334814B (zh) | 一种ar系统手势识别方法 | |
CN114299604A (zh) | 一种基于二维图像的手骨骼捕捉、手势判别方法 | |
CN108399367B (zh) | 手部动作识别方法、装置、计算机设备及可读存储介质 | |
CN107813310B (zh) | 一种基于双目视觉多手势机器人控制方法 | |
CN105809144B (zh) | 一种采用动作切分的手势识别系统和方法 | |
CN109308459B (zh) | 基于手指注意力模型和关键点拓扑模型的手势估计方法 | |
CN110210426B (zh) | 基于注意力机制从单幅彩色图像进行手部姿态估计的方法 | |
CN104821010A (zh) | 基于双目视觉的人手三维信息实时提取方法及系统 | |
CN111414837A (zh) | 手势识别方法、装置、计算机设备及存储介质 | |
CN104616002A (zh) | 用于年龄段判断的面部识别设备 | |
WO2022174594A1 (zh) | 基于多相机的裸手追踪显示方法、装置及系统 | |
TW202016696A (zh) | 基於手勢識別產生互動式虛擬用戶界面的方法及相關裝置 | |
CN110555408A (zh) | 一种基于自适应映射关系的单摄像头实时三维人体姿态检测方法 | |
WO2017116879A1 (en) | Recognition of hand poses by classification using discrete values | |
CN114529639A (zh) | 一种生成虚拟形象动画的方法、装置、设备及存储介质 | |
CN114519881A (zh) | 人脸位姿估计方法、装置、电子设备及存储介质 | |
KR20230080938A (ko) | 컨볼루션 블록 어텐션 모듈을 이용한 동작 인식 및 분류 방법 및 장치 | |
CN107220588A (zh) | 一种基于级联深度神经网络的实时手势追踪方法 | |
Adhikari et al. | A Novel Machine Learning-Based Hand Gesture Recognition Using HCI on IoT Assisted Cloud Platform. | |
CN111651038A (zh) | 基于ToF的手势识别控制方法及其控制系统 | |
CN113894779B (zh) | 一种应用于机器人交互的多模态数据处理方法 | |
KR101868520B1 (ko) | 손 제스처 인식 방법 및 그 장치 | |
Stark et al. | Video based gesture recognition for human computer interaction | |
CN113989942A (zh) | 手势识别方法和装置 | |
Bellarbi et al. | Hand gesture recognition using contour based method for tabletop surfaces |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |