CN109857244B - 一种手势识别方法、装置、终端设备、存储介质及vr眼镜 - Google Patents
一种手势识别方法、装置、终端设备、存储介质及vr眼镜 Download PDFInfo
- Publication number
- CN109857244B CN109857244B CN201711236212.XA CN201711236212A CN109857244B CN 109857244 B CN109857244 B CN 109857244B CN 201711236212 A CN201711236212 A CN 201711236212A CN 109857244 B CN109857244 B CN 109857244B
- Authority
- CN
- China
- Prior art keywords
- spherical
- image
- skin color
- gesture
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 61
- 239000011521 glass Substances 0.000 title claims abstract description 37
- 238000004891 communication Methods 0.000 claims description 42
- 238000006243 chemical reaction Methods 0.000 claims description 11
- 238000001514 detection method Methods 0.000 claims description 9
- 238000013528 artificial neural network Methods 0.000 claims description 7
- 238000012216 screening Methods 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 3
- 230000004044 response Effects 0.000 claims description 3
- 230000000007 visual effect Effects 0.000 abstract description 14
- 238000005516 engineering process Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 6
- 230000003993 interaction Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 3
- 239000013307 optical fiber Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 238000007789 sealing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
本发明实施例公开了一种手势识别方法、装置、终端设备、存储介质及VR眼镜。所述方法包括:获取通过球面镜采集的球面图像;将所述球面图像转换为平面图像;根据所述平面图像对用户手势进行识别,获取所述用户手势的识别结果。可以在更大的可视范围内对用户手势进行识别,从而可以提高手势识别的准确率。
Description
技术领域
本发明实施例涉及虚拟现实VR技术领域,尤其涉及一种手势识别方法、装置、终端设备、存储介质及VR眼镜。
背景技术
虚拟现实(Virtual Reality,VR)交互技术是一门新兴的综合信息技术,使用以计算机技术为核心的现代高科技,生成逼真的视觉、听觉、触觉一体化的特定范围的虚拟环境,用户借助必要的设备以自己的方式与虚拟环境中的对象进行交互作用、互相影响,从而产生与亲临等同真实环境的感受和体验。它融合了数字图像处理、多媒体技术、计算机图形学、传感器技术等多方面信息技术。它通过计算机图形学构成三维数字模型,在视觉上给用户一种立体的虚拟环境。
目前,已经有虚拟现实眼镜,能够将智能手机、平板电脑登带有显示屏幕的终端放入到虚拟现实眼镜观看3D视频,玩虚拟现实游戏,看虚拟旅游景区,这种非常好的沉浸式体验使得虚拟现实眼镜被越来越多的消费者所喜欢。随着虚拟现实技术的不断发展,虚拟现实头戴显示器设备得到了极大的应用,虚拟现实头戴显示器设备简称VR设备或VR头显,利用VR设备将用户对外界的视觉封闭,引导用户产生一种身在虚拟环境中的感觉,能够提供给用户立体真实的视觉效果。
在不增加硬件开销的前提下,虚拟现实的交互方法通常包括以下两种:凝视VR交互和手势VR交互。其中,凝视VR交互是指用户可以通过视线对虚拟现实眼镜的显示界面上显示的内容进行控制。手势VR交互是指用户可以通过在手势对虚拟现实眼镜的显示界面上显示的内容进行控制。手势VR交互需要终端设备对用户手势进行识别,然而在现有的手势识别方法中,需要用户把手放在手机背摄像头正前方才可以识别手势,可视范围太小,识别结果不准确。
发明内容
有鉴于此,本发明实施例提供一种手势识别方法、装置、终端设备、存储介质及VR眼镜,可以在更大的可视范围内对用户手势进行识别,从而可以提高手势识别的准确率。
第一方面,本发明实施例提供了一种手势识别方法,所述方法包括:
获取通过球面镜采集的球面图像;
将所述球面图像转换为平面图像;
根据所述平面图像对用户手势进行识别,获取所述用户手势的识别结果。
第二方面,本发明实施例还提供了一种手势识别装置,所述装置包括:获取模块、转换模块识别模块;其中,
所述获取模块,用于获取通过球面镜采集的球面图像;
所述转换模块,用于将所述球面图像转换为平面图像;
所述识别模块,用于根据所述平面图像对用户手势进行识别,获取所述用户手势的识别结果。
第三方面,本发明实施例还提供了一种终端设备,所述终端设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如本发明任一实施例所述的手势识别方法。
第四方面,本发明实施例还提供了一种存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明任一实施例所述的手势识别方法。
第五方面,本发明实施例还提供了一种VR眼镜,包括:眼镜主体和盖板;
其中,所述眼镜主体和所述盖板固定连接,且所述眼镜主体和所述盖板之间形成收容终端设备的收容空间;所述盖板朝向外部的一侧设置有球面镜;所述球面镜的位置与所述终端设备的摄像头的位置对应设置,所述球面镜用于供所述终端设备的摄像头透过所述球面镜进行球面图像采集。
本发明实施例提出了一种手势识别方法、装置、终端设备及存储介质,先获取通过球面镜采集的球面图像,然后将球面图像转换为平面图像,再根据平面图像对用户手势进行识别,获取用户手势的识别结果。也就是说,在本发明实施例提出的技术方案中,可以获取通过球面镜采集的用户手势的球面图像。而现有的手势识别方法,只能获取通过平面镜采集的用户手势的平面图像。因此,和现有技术相比,本发明实施例提出的手势识别方法、装置、终端设备、存储介质及VR眼镜,可以在更大的可视范围内对用户手势进行识别,从而可以提高手势识别的准确率;并且,本发明实施例的技术方案实现简单方便、便于普及,适用范围更广。
附图说明
图1是本发明实施例一提供的手势识别方法的流程图;
图2为本发明实施例二提供的手势识别方法的流程图;
图3为本发明实施例三提供的手势识别方法的流程图;
图4为本发明实施例四提供的手势识别装置的结构示意图;
图5为本发明实施例五提供的终端设备的结构示意图;
图6为本发明实施例六提供的VR眼镜的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部内容。
实施例一
图1为本发明实施例一提供的手势识别方法的流程图。本实施例提供的手势识别方法可适用于终端设备对用户手势进行识别,该方法可以由手势识别装置来执行,该装置可以由软件和/或硬件的方式实现,该装置可以集成在任何具有网络通信功能的智能设备中。如图1所示,手势识别方法可以包括:
S101、获取通过球面镜采集的球面图像。
在本发明的具体实施例中,终端设备可以获取通过球面镜采集的球面图像;其中,所述球面图像可以是一个球面图像,也可以是多个球面图像。具体地,当用户手势在终端设备的可视范围内移动时,终端设备可以获取通过球面镜采集的球面图像。在本发明的具体实施例中,VR眼镜可以包括:眼镜主体和盖板;其中,所述眼镜主体和所述盖板固定连接,且所述眼镜主体和所述盖板之间形成收容终端设备的收容空间;所述盖板朝向外部的一侧设置有球面镜;所述球面镜的位置与所述终端设备的摄像头的位置对应设置,所述球面镜用于供所述终端设备的摄像头透过所述球面镜进行球面图像采集。例如,假设用户手势从位置点A移动到位置点B,终端设备可以获取用户手势从位置点A移动到位置点B的过程中的N个球面图像,分别为:球面图像1、球面图像2、…、球面图像N。具体地,终端设备可以通过终端设备的平面摄像头,透过罩设在平面摄像头外侧的球面镜进行图像采集,以获取球面图像。现有VR眼镜的盖板朝向外部的一侧设置的透镜为平面镜,本发明实施例将盖板朝向外部的一侧设置的透镜由平面镜改为球面镜,这样当把终端设备放入到VR眼镜后,通过球面镜可以把终端设备的可视角度从原来的60度扩大至120度甚至更大,这样就可以大幅度地扩大终端设备的可视范围。这样带来的问题是现有的手势识别方法只针对平面图像进行手势识别,无法针对球面图像进行手势识别,因此,本发明实施例提出了一种手势识别的改进方法。
S102、将球面图像转换为平面图像。
在本发明的具体实施例中,终端设备在获取到通过球面镜采集的球面图像之后,终端设备可以将球面图像转换为平面图像。当终端设备获取到的球面图像为一个球面图像时,终端设备可以将该球面图像转换为对应的平面图像;当终端设备获取到的球面图像为多个球面图像时,终端设备可以将球面图像转换为平面图像。具体地,在本发明的具体实施例中,终端设备可以先在球面图像中获取各个像素点的球面坐标;然后根据球面镜的折射率将各个像素点的球面坐标转换为各个像素点的平面坐标;最后根据各个像素点的平面坐标将球面图像转换为平面图像。具体地,各个像素点在球面图像中的球面坐标和各个像素点在平面图像中的平面坐标的关系可以表示为:
其中,
sinαx-sin(αx-βx)=lx;sinαx=nsinβx;
sinαy-sin(αy-βy)=ly;sinαy=nsinβy;其中,(lx,ly)是各像素点在球面图像中的球面坐标,坐标系原点为球面图像的中心;(x,y)是各像素点在平面图像中的平面坐标,n是镜头折射率。
S103、根据平面图像对用户手势进行识别,获取用户手势的识别结果。
在本发明的具体实施例中,终端设备在将球面图像转换为平面图像之后,终端设备可以根据平面图像对用户手势进行识别,获取用户手势的识别结果。较佳地,终端设备在将球面图像转换为平面图像之前,终端设备可以对球面图像进行肤色检测,确定肤色区域;然后终端设备再对肤色区域进行连通区域检测,将肤色区域划分为M个肤色连通区域;其中,M为大于等于1的自然数。具体地,终端设备可以通过神经网络将平面图像中的M个肤色连通区域进行分类,获取M个肤色连通区域对应的分类结果;然后终端设备可以根据M个肤色连通区域对应的分类结果在全部肤色连通区域中筛选出目标肤色连通区域;最后根据目标肤色连通区域对用户手势进行识别。具体地,终端设备可以通过卷积神经网络CNN将平面图像中的M个肤色连通区域进行分类,也可以通过深度神经网络DNN将平面图像中的M个肤色连通区域进行分类。例如,假设终端设备检测到平面图像中包括两个肤色连通区域,分别为:手势连通区域和橡皮连通区域,终端设备可以通过CNN或者DNN将当前平面图像中的手势连通区域和橡皮连通区域分别划分到手势类别和橡皮类别中,手势连通区域和橡皮连通区域对应的分类结果分别为手势类别和橡皮类别。终端设备可以根据手势连通区域对应的手势类别和橡皮连通区域对应的橡皮类别筛选出手势连通区域作为目标肤色连通区域;然后终端设备可以根据目标肤色连通区域对用户手势进行识别。
本发明实施例提出的手势识别方法,先获取通过球面镜采集的球面图像,然后将球面图像转换为平面图像,再根据平面图像对用户手势进行识别,获取用户手势的识别结果。也就是说,在本发明实施例提出的技术方案中,可以获取通过球面镜采集的用户手势的球面图像。而现有的手势识别方法,只能获取通过平面镜采集的用户手势的平面图像。因此,和现有技术相比,本发明实施例提出的手势识别方法,可以在更大的可视范围内对用户手势进行识别,从而可以提高手势识别的准确率;并且,本发明实施例的技术方案实现简单方便、便于普及,适用范围更广。
实施例二
图2为本发明实施例二提供的手势识别方法的流程图。如图2所示,手势识别方法可以包括:
S201、获取通过球面镜采集的球面图像。
在本发明的具体实施例中,终端设备可以获取通过球面镜采集的球面图像;其中,所述球面图像可以是一个球面图像,也可以是多个球面图像。具体地,当用户手势在终端设备的可视范围内移动时,终端设备可以获取通过球面镜采集的球面图像。例如,假设用户手势从位置点A移动到位置点B,终端设备可以获取用户手势从位置点A移动到位置点B的过程中的N个球面图像,分别为:球面图像1、球面图像2、…、球面图像N。具体地,终端设备可以通过终端设备的平面摄像头,透过罩设在平面摄像头外侧的球面镜进行图像采集,以获取球面图像。
S202、在球面图像中分别获取各个像素点的球面坐标。
在本发明的具体实施例中,终端设备在获取到球面图像之后,终端设备可以在球面图像中分别获取各个像素点的球面坐标;其中,各个像素点在球面图像中的球面坐标可以表示为(lx,ly)。
S203、根据球面镜的折射率将各个像素点的球面坐标转换为各个像素点的平面坐标。
在本发明的具体实施例中,终端设备在球面图像中获取到各个像素点的球面坐标之后,终端设备可以根据球面镜的折射率将各个像素点的球面坐标转换为各个像素点的平面坐标;具体地,各个像素点在球面图像中的球面坐标和各个像素点在平面图像中的平面坐标的关系可以表示为:
其中,
sinαx-sin(αx-βx)=lx;sinαx=nsinβx;
sinαy-sin(αy-βy)=ly;sinαy=nsinβy;其中,(lx,ly)是各像素点在球面图像中的球面坐标,坐标系原点为球面图像的中心;(x,y)是各像素点在平面图像中的平面坐标,n是镜头折射率。
S204、根据各个像素点的平面坐标将球面图像转换为平面图像。
在本发明的具体实施例中,终端设备在将各个像素点的球面坐标转换为各个像素点的平面坐标之后,终端设备可以根据各个像素点的平面坐标将球面图像转换为平面图像。
S205、根据平面图像对用户手势进行识别,获取用户手势的识别结果。
在本发明的具体实施例中,终端设备在将球面图像转换为平面图像之后,终端设备可以根据平面图像对用户手势进行识别,获取用户手势的识别结果。较佳地,在本发明的具体实施例中,终端设备在获取到用户手势的识别结果之后,终端设备还可以将用户手势的识别结果,生成终端设备的控制指令或对终端设备的外接设备的控制指令;执行控制指令对应的响应操作。较佳地,在本发明的具体实施例中,终端设备可以根据前一帧平面图像中的用户手势识别结果,确定前一帧平面图像中的用户手势属性,其中,所述属性包括所在区域和/或手势形状;然后根据前一帧平面图像中的用户手势属性,对当前帧平面图像进行用户手势识别,获取用户手势的识别结果。
根据上述的描述可知,通过上述的操作S201~S205,终端设备在获取到通过球面镜采集的球面图像之后,终端设备可以先在球面图像中获取各个像素点的球面坐标;然后根据球面镜的折射率将各个像素点的球面坐标转换为各个像素点的平面坐标;再根据各个像素点的平面坐标将球面图像转换为平面图像;最后根据平面图像对用户手势进行识别,获取用户手势的识别结果。也就是说,在本发明实施例提出的技术方案中,可以获取通过球面镜采集的用户手势的球面图像。而现有的手势识别方法,只能获取通过平面镜采集的用户手势的平面图像。因此,和现有技术相比,本发明实施例提出的手势识别方法,可以在更大的可视范围内对用户手势进行识别,从而可以提高手势识别的准确率。
实施例三
图3为本发明实施例三提供的手势识别方法的流程图,本实施例在上述实施例的基础上对用户手势识别的方法进行了优化,如图3所示,手势识别方法可以包括:
S301、获取通过球面镜采集的球面图像。
在本发明的具体实施例中,终端设备可以获取通过球面镜采集的球面图像;其中,所述球面图像可以是一个球面图像,也可以是多个球面图像。具体地,当用户手势在终端设备的可视范围内移动时,终端设备可以获取通过球面镜采集的球面图像。例如,假设用户手势从位置点A移动到位置点B,终端设备可以获取用户手势从位置点A移动到位置点B的过程中的N个球面图像,分别为:球面图像1、球面图像2、…、球面图像N。具体地,终端设备可以通过终端设备的平面摄像头,透过罩设在平面摄像头外侧的球面镜进行图像采集,以获取球面图像。
S302、对球面图像进行肤色检测,确定肤色区域。
在本发明的具体实施例中,终端设备在获取到球面图像之后,终端可以对球面图像进行肤色检测,确定肤色区域。具体地,终端设备可以判断各像素点的RGB值是否在预先设置的肤色范围内,当各像素点的RGB值在预先设置的肤色范围内时,将该像素点确定为肤色区域内的像素点;当各像素点的RGB值不在预先设置的肤色范围内时,将该像素点确定为肤色区域外的像素点。
S303、对肤色区域进行连通区域检测,将肤色区域划分为M个肤色连通区域。
在本发明的具体实施例中,终端设备在对球面图像进行肤色检测之后,还可以对肤色区域进行连通区域检测,将肤色区域划分为M个肤色连通区域,分别为:肤色连通区域1、肤色连通区域2、…、肤色连通区域M;其中,M为大于等于1的自然数。
S304、在球面图像中分别获取各个像素点的球面坐标。
在本发明的具体实施例中,终端设备在获取到球面图像之后,终端设备可以在球面图像中分别获取各个像素点的球面坐标;其中,各个像素点在球面图像中的球面坐标可以表示为(lx,ly)。
S305、根据球面镜的折射率将各个像素点的球面坐标转换为各个像素点的平面坐标。
在本发明的具体实施例中,终端设备在球面图像中获取到各个像素点的球面坐标之后,终端设备可以根据球面镜的折射率将各个像素点的球面坐标转换为各个像素点的平面坐标;具体地,各个像素点在球面图像中的球面坐标和各个像素点在平面图像中的平面坐标的关系可以表示为:
其中,
sinαx-sin(αx-βx)=lx;sinαx=nsinβx;
sinαy-sin(αy-βy)=ly;sinαy=nsinβy;其中,(lx,ly)是各像素点在球面图像中的球面坐标,坐标系原点为球面图像的中心;(x,y)是各像素点在平面图像中的平面坐标,n是镜头折射率。
S306、根据各个像素点的平面坐标将球面图像转换为平面图像。
在本发明的具体实施例中,终端设备在将各个像素点的球面坐标转换为各个像素点的平面坐标之后,终端设备可以根据各个像素点的平面坐标将球面图像转换为平面图像。
S307、通过神经网络将平面图像中的M个肤色连通区域进行分类,获取M个肤色连通区域对应的分类结果。
在本发明的具体实施例中,终端设备可以通过卷积神经网络CNN将平面图像中的M个肤色连通区域进行分类,也可以通过深度神经网络DNN将平面图像中的M个肤色连通区域进行分类。例如,假设终端设备检测到平面图像中包括两个肤色连通区域,分别为:手势连通区域和橡皮连通区域,终端设备可以通过CNN或者DNN将当前平面图像中的手势连通区域和橡皮连通区域分别划分到手势类别和橡皮类别中,手势连通区域和橡皮连通区域对应的分类结果分别为手势类别和橡皮类别。
S308、根据M个肤色连通区域对应的分类结果在全部肤色连通区域中筛选出目标肤色连通区域。
在本发明的具体实施例中,终端设备可以根据手势连通区域对应的手势类别和橡皮连通区域对应的橡皮类别筛选出手势连通区域作为目标肤色连通区域;然后终端设备可以根据目标肤色连通区域对用户手势进行识别。
S309、根据目标肤色连通区域对用户手势进行识别。
在本发明的具体实施例中,终端设备可以在目标肤色连通区域中计算图像中心距离图像边缘的距离;然后根据图像中心距离图像边缘的距离识别用户手势。较佳地,在本发明的具体实施例中,终端设备在获取到用户手势的识别结果之后,终端设备还可以将用户手势的识别结果,生成终端设备的控制指令或对终端设备的外接设备的控制指令;执行控制指令对应的响应操作。较佳地,在本发明的具体实施例中,终端设备可以根据前一帧平面图像中的用户手势识别结果,确定前一帧平面图像中的用户手势属性,其中,所述属性包括所在区域和/或手势形状;然后根据前一帧平面图像中的用户手势属性,对当前帧平面图像进行用户手势识别,获取用户手势的识别结果。
本发明实施例提出的手势识别方法,先获取通过球面镜采集的球面图像,然后将球面图像转换为平面图像,再根据平面图像对用户手势进行识别,获取用户手势的识别结果。也就是说,在本发明实施例提出的技术方案中,可以获取通过球面镜采集的用户手势的球面图像。而现有的手势识别方法,只能获取通过平面镜采集的用户手势的平面图像。因此,和现有技术相比,本发明实施例提出的手势识别方法,可以在更大的可视范围内对用户手势进行识别,从而可以提高手势识别的准确率;并且,本发明实施例的技术方案实现简单方便、便于普及,适用范围更广。
实施例四
图4为本发明实施例四提供的手势识别装置的结构示意图。如图4所示,本发明实施例所述的手势识别装置包括:获取模块401、转换模块402和识别模块403;其中,
所述获取模块401,用于获取通过球面镜采集的球面图像;
所述转换模块402,用于将所述球面图像转换为平面图像;
所述识别模块403,用于根据所述平面图像对用户手势进行识别,获取所述用户手势的识别结果。
可选的,所述获取模块401,具体用于通过终端设备的平面摄像头,透过罩设在所述平面摄像头外侧的球面镜进行图像采集,以获取所述球面图像。
可选的,所述装置还包括:检测模块404,用于对所述球面图像进行肤色检测,确定肤色区域;对所述肤色区域进行连通区域检测,将所述肤色区域划分为M个肤色连通区域;其中,M为大于等于1的自然数。
可选的,所述识别模块403包括:分类单元4031、筛选单元4032和识别单元4033;其中,
所述分类单元4031,用于通过神经网络将所述平面图像中的M个肤色连通区域进行分类,获取M个肤色连通区域对应的分类结果;
所述筛选单元4032,用于根据M个肤色连通区域对应的分类结果在全部肤色连通区域中筛选出目标肤色连通区域;
所示识别单元4033,用于根据所述目标肤色连通区域对所述用户手势进行识别。
可选的,所述转换模块402包括:获取单元4021和转换单元4022;其中,
所述获取单元4021,用于在所述球面图像中分别获取各个像素点的球面坐标;
所述转换单元4022,用于根据所述球面镜的折射率将各个像素点的球面坐标转换为各个像素点的平面坐标;根据各个像素点的平面坐标将所述球面图像转换为所述平面图像。
上述手势识别装置可执行本发明任意实施例所提供的手势识别方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本发明任意实施例提供的手势识别方法。
实施例五
图5是本发明实施例五提供的终端设备的结构示意图。图5示出了适于用来实现本发明实施方式的示例性终端设备的框图。图5显示的终端设备12仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图5所示,终端设备12以通用计算设备的形式表现。终端设备12的组件可以包括但不限于:一个或者多个处理器或者处理单元16,系统存储器28,连接不同系统组件(包括系统存储器28和处理单元16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
终端设备12典型地包括多种计算机系统可读介质。这些介质可以是任何能够被终端设备12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器28可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)30和/或高速缓存存储器32。终端设备12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统34可以用于读写不可移动的、非易失性磁介质(图5未显示,通常称为“硬盘驱动器”)。尽管图5中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如存储器28中,这样的程序模块42包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本发明所描述的实施例中的功能和/或方法。
终端设备12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该终端设备12交互的设备通信,和/或与使得该终端设备12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,终端设备12还可以通过网络适配器20与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器20通过总线18与终端设备12的其它模块通信。应当明白,尽管图中未示出,可以结合终端设备12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理单元16通过运行存储在系统存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现本发明实施例所提供的手势识别方法。
实施例六
本发明实施例七提供了一种计算机存储介质。
本发明实施例的计算机可读存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如”C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
图6为本发明实施例六提供的VR眼镜的结构示意图。如图6所示,包括:眼镜主体和盖板;
其中,所述眼镜主体和所述盖板固定连接,且所述眼镜主体和所述盖板之间形成收容终端设备的收容空间;所述盖板朝向外部的一侧设置有球面镜;所述球面镜的位置与所述终端设备的摄像头的位置对应设置,所述球面镜用于供所述终端设备的摄像头透过所述球面镜进行球面图像采集。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (10)
1.一种手势识别方法,应用于终端设备,其特征在于,所述方法包括:
通过终端设备的平面摄像头,透过罩设在所述平面摄像头外侧的球面镜进行图像采集,以获取球面图像;其中,所述球面镜为VR眼镜的眼镜主体,所述眼镜主体和盖板之间形成容纳所述终端设备的收容空间;
在所述球面图像中分别获取各个像素点的球面坐标;其中,所述球面图像为终端设备在用户手势移动过程中获取的多个球面图像;
根据所述球面镜的折射率将各个像素点的球面坐标转换为各个像素点的平面坐标;
根据各个像素点的平面坐标将所述球面图像转换为平面图像;
根据所述平面图像对所述用户手势进行识别,包括:
根据前一帧平面图像中的用户手势识别结果,确定前一帧平面图像中的用户手势属性,其中,所述属性包括所在区域和/或手势形状;
根据前一帧平面图像中的用户手势属性,对当前帧平面图像进行用户手势识别,获取所述用户手势的识别结果。
2.根据权利要求1所述的方法,其特征在于,将所述球面图像转换为平面图像之前,所述方法还包括:
对所述球面图像进行肤色检测,确定肤色区域;
对所述肤色区域进行连通区域检测,将所述肤色区域划分为M个肤色连通区域;其中,M为大于等于1的自然数。
3.根据权利要求2所述的方法,其特征在于,所述根据所述平面图像对所述用户手势进行识别,包括:
通过神经网络将所述平面图像中的M个肤色连通区域进行分类,获取M个肤色连通区域对应的分类结果;
根据M个肤色连通区域对应的分类结果在全部肤色连通区域中筛选出目标肤色连通区域;
根据所述目标肤色连通区域对所述用户手势进行识别。
4.根据权利要求1所述的方法,其特征在于,在所述获取所述用户手势的识别结果之后,所述方法还包括:
将所述用户手势的识别结果,生成所述终端设备的控制指令或对所述终端设备的外接设备的控制指令;
执行所述控制指令对应的响应操作。
5.一种手势识别装置,其特征在于,所述装置包括:获取模块、转换模块和识别模块;其中,
所述获取模块,具体用于通过终端设备的平面摄像头,透过罩设在所述平面摄像头外侧的球面镜进行图像采集,以获取球面图像;其中,所述球面镜为VR眼镜的眼镜主体,所述眼镜主体和盖板之间形成容纳所述终端设备的收容空间;所述球面镜的位置与所述终端设备的摄像头的位置对应设置;
所述转换模块包括:获取单元和转换单元;其中,
所述获取单元,用于在所述球面图像中分别获取各个像素点的球面坐标;其中,所述球面图像为终端设备在用户手势移动过程中获取的多个球面图像;
所述转换单元,用于根据所述球面镜的折射率将各个像素点的球面坐标转换为各个像素点的平面坐标;根据各个像素点的平面坐标将所述球面图像转换为平面图像;
所述识别模块,用于根据前一帧平面图像中的用户手势识别结果,确定前一帧平面图像中的用户手势属性,其中,所述属性包括所在区域和/或手势形状;根据前一帧平面图像中的用户手势属性,对当前帧平面图像进行用户手势识别,获取所述用户手势的识别结果。
6.根据权利要求5所述的装置,其特征在于,所述装置还包括:检测模块,用于对所述球面图像进行肤色检测,确定肤色区域;对所述肤色区域进行连通区域检测,将所述肤色区域划分为M个肤色连通区域;其中,M为大于等于1的自然数。
7.根据权利要求6所述的装置,其特征在于,所述识别模块包括:分类单元、筛选单元和识别单元;其中,
所述分类单元,用于通过神经网络将所述平面图像中的M个肤色连通区域进行分类,获取M个肤色连通区域对应的分类结果;
所述筛选单元,用于根据M个肤色连通区域对应的分类结果在全部肤色连通区域中筛选出目标肤色连通区域;
所示识别单元,用于根据所述目标肤色连通区域对所述用户手势进行识别。
8.一种终端设备,其特征在于,所述终端设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-4中任一所述的手势识别方法。
9.一种存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-4中任一所述的手势识别方法。
10.一种虚拟现实VR眼镜,其特征在于,包括:眼镜主体和盖板;
其中,所述眼镜主体和所述盖板固定连接,且所述眼镜主体和所述盖板之间形成收容终端设备的收容空间;所述盖板朝向外部的一侧设置有球面镜;所述球面镜的位置与所述终端设备的摄像头的位置对应设置,所述球面镜用于供所述终端设备的摄像头透过所述球面镜进行球面图像采集,所述虚拟现实VR眼镜应用时实现如权利要求1-4中任一所述的手势识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711236212.XA CN109857244B (zh) | 2017-11-30 | 2017-11-30 | 一种手势识别方法、装置、终端设备、存储介质及vr眼镜 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711236212.XA CN109857244B (zh) | 2017-11-30 | 2017-11-30 | 一种手势识别方法、装置、终端设备、存储介质及vr眼镜 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109857244A CN109857244A (zh) | 2019-06-07 |
CN109857244B true CN109857244B (zh) | 2023-09-01 |
Family
ID=66887974
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711236212.XA Active CN109857244B (zh) | 2017-11-30 | 2017-11-30 | 一种手势识别方法、装置、终端设备、存储介质及vr眼镜 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109857244B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111766949B (zh) * | 2020-07-16 | 2021-08-03 | 腾讯科技(深圳)有限公司 | 三维图像显示设备、显示方法、电子设备以及存储介质 |
CN112351325B (zh) * | 2020-11-06 | 2023-07-25 | 惠州视维新技术有限公司 | 基于手势的显示终端控制方法、终端和可读存储介质 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11326753A (ja) * | 1998-05-07 | 1999-11-26 | Nikon Corp | 結像光学系 |
CN101813993A (zh) * | 2010-03-22 | 2010-08-25 | 上海复翔信息科技有限公司 | 一种曲面显示系统以及手势识别和定位方法 |
CN104216509A (zh) * | 2013-06-03 | 2014-12-17 | 联想(北京)有限公司 | 一种电子设备及信息处理方法 |
CN105590486A (zh) * | 2014-10-21 | 2016-05-18 | 黄小曼 | 一种基于机器视觉的座台式点读机及相关系统装置与方法 |
WO2016101861A1 (zh) * | 2014-12-26 | 2016-06-30 | 成都理想境界科技有限公司 | 头戴式显示装置 |
CN105893925A (zh) * | 2015-12-01 | 2016-08-24 | 乐视致新电子科技(天津)有限公司 | 基于肤色的人手检测方法及装置 |
CN106357966A (zh) * | 2016-11-01 | 2017-01-25 | 乐视控股(北京)有限公司 | 全景图像拍摄装置及全景图像获取方法 |
WO2017034313A1 (ko) * | 2015-08-27 | 2017-03-02 | 한국생산기술연구원 | 암레스트 인터페이스 시스템 |
CN106845335A (zh) * | 2016-11-29 | 2017-06-13 | 歌尔科技有限公司 | 用于虚拟现实设备的手势识别方法、装置及虚拟现实设备 |
CN106886759A (zh) * | 2017-01-22 | 2017-06-23 | 西安科技大学 | 一种应用于大型卡车的去盲区安全驾驶系统及方法 |
CN106915303A (zh) * | 2017-01-22 | 2017-07-04 | 西安科技大学 | 基于深度数据和鱼眼图像的汽车a柱盲区透视方法 |
WO2017161778A1 (zh) * | 2016-03-25 | 2017-09-28 | 乐视控股(北京)有限公司 | 手掌的掌心位置定位、手势识别方法、装置及智能终端 |
CN107332977A (zh) * | 2017-06-07 | 2017-11-07 | 安徽华米信息科技有限公司 | 增强现实的方法及增强现实设备 |
CN107357424A (zh) * | 2017-06-29 | 2017-11-17 | 联想(北京)有限公司 | 一种手势操作的识别方法、设备及计算机可读存储介质 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2905645B1 (en) * | 2012-10-05 | 2018-03-07 | University of Hyogo | Holographic microscope and holographic image generation method |
US10444160B2 (en) * | 2014-09-18 | 2019-10-15 | Zhejiang University | Surface defects evaluation system and method for spherical optical components |
US9930752B2 (en) * | 2015-11-10 | 2018-03-27 | General Electric Company | Image sensor controlled lighting fixture |
US20170140215A1 (en) * | 2015-11-18 | 2017-05-18 | Le Holdings (Beijing) Co., Ltd. | Gesture recognition method and virtual reality display output device |
-
2017
- 2017-11-30 CN CN201711236212.XA patent/CN109857244B/zh active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11326753A (ja) * | 1998-05-07 | 1999-11-26 | Nikon Corp | 結像光学系 |
CN101813993A (zh) * | 2010-03-22 | 2010-08-25 | 上海复翔信息科技有限公司 | 一种曲面显示系统以及手势识别和定位方法 |
CN104216509A (zh) * | 2013-06-03 | 2014-12-17 | 联想(北京)有限公司 | 一种电子设备及信息处理方法 |
CN105590486A (zh) * | 2014-10-21 | 2016-05-18 | 黄小曼 | 一种基于机器视觉的座台式点读机及相关系统装置与方法 |
WO2016101861A1 (zh) * | 2014-12-26 | 2016-06-30 | 成都理想境界科技有限公司 | 头戴式显示装置 |
WO2017034313A1 (ko) * | 2015-08-27 | 2017-03-02 | 한국생산기술연구원 | 암레스트 인터페이스 시스템 |
CN105893925A (zh) * | 2015-12-01 | 2016-08-24 | 乐视致新电子科技(天津)有限公司 | 基于肤色的人手检测方法及装置 |
WO2017161778A1 (zh) * | 2016-03-25 | 2017-09-28 | 乐视控股(北京)有限公司 | 手掌的掌心位置定位、手势识别方法、装置及智能终端 |
CN106357966A (zh) * | 2016-11-01 | 2017-01-25 | 乐视控股(北京)有限公司 | 全景图像拍摄装置及全景图像获取方法 |
CN106845335A (zh) * | 2016-11-29 | 2017-06-13 | 歌尔科技有限公司 | 用于虚拟现实设备的手势识别方法、装置及虚拟现实设备 |
CN106886759A (zh) * | 2017-01-22 | 2017-06-23 | 西安科技大学 | 一种应用于大型卡车的去盲区安全驾驶系统及方法 |
CN106915303A (zh) * | 2017-01-22 | 2017-07-04 | 西安科技大学 | 基于深度数据和鱼眼图像的汽车a柱盲区透视方法 |
CN107332977A (zh) * | 2017-06-07 | 2017-11-07 | 安徽华米信息科技有限公司 | 增强现实的方法及增强现实设备 |
CN107357424A (zh) * | 2017-06-29 | 2017-11-17 | 联想(北京)有限公司 | 一种手势操作的识别方法、设备及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN109857244A (zh) | 2019-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109635621B (zh) | 用于第一人称视角中基于深度学习识别手势的系统和方法 | |
WO2021139408A1 (zh) | 显示特效的方法、装置、存储介质及电子设备 | |
US11947729B2 (en) | Gesture recognition method and device, gesture control method and device and virtual reality apparatus | |
WO2021004247A1 (zh) | 视频封面生成方法、装置及电子设备 | |
US12079940B2 (en) | Multi-endpoint mixed-reality meetings | |
WO2021213067A1 (zh) | 物品显示方法、装置、设备及存储介质 | |
EP4006847A1 (en) | Virtual object processing method and apparatus, and storage medium and electronic device | |
CN109219955A (zh) | 视频按入 | |
CN109313812A (zh) | 具有上下文增强的共享体验 | |
US11922721B2 (en) | Information display method, device and storage medium for superimposing material on image | |
WO2023197648A1 (zh) | 截图处理方法及装置、电子设备和计算机可读介质 | |
CN114049674A (zh) | 一种三维人脸重建方法、装置及存储介质 | |
CN109857244B (zh) | 一种手势识别方法、装置、终端设备、存储介质及vr眼镜 | |
CN110069996A (zh) | 头部动作识别方法、装置和电子设备 | |
CN109461203B (zh) | 手势三维图像生成方法、装置、计算机设备及存储介质 | |
US20220353069A1 (en) | Generating a secure random number by determining a change in parameters of digital content in subsequent frames via graphics processing circuitry | |
WO2022188145A1 (zh) | 显示设备与终端设备的交互方法、存储介质及电子设备 | |
CN107730566A (zh) | 一种生成表情的方法、装置、移动终端及存储介质 | |
CN111488768B (zh) | 人脸图像的风格转换方法、装置、电子设备及存储介质 | |
CN114694257A (zh) | 多人实时三维动作识别评估方法、装置、设备及介质 | |
CN110263743B (zh) | 用于识别图像的方法和装置 | |
CN109460511B (zh) | 一种获取用户画像的方法、装置、电子设备及存储介质 | |
CN112817441A (zh) | 一种按键与人眼识别结合的方法和装置 | |
CN109919121B (zh) | 一种人体模型的投影方法、装置、电子设备及存储介质 | |
CN117289804B (zh) | 虚拟数字人面部表情管理方法、装置、电子设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |