CN103399629B - 获取手势屏幕显示坐标的方法和装置 - Google Patents
获取手势屏幕显示坐标的方法和装置 Download PDFInfo
- Publication number
- CN103399629B CN103399629B CN201310270093.5A CN201310270093A CN103399629B CN 103399629 B CN103399629 B CN 103399629B CN 201310270093 A CN201310270093 A CN 201310270093A CN 103399629 B CN103399629 B CN 103399629B
- Authority
- CN
- China
- Prior art keywords
- depth layer
- gesture
- depth
- coordinate
- yardstick
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Abstract
本发明提供一种获取手势屏幕显示坐标的方法和装置。将空间深度划分为一个以上深度层,建立各个所述深度层对应的坐标映射表,所述坐标映射表记录对应的所述深度层的拍摄视频坐标与屏幕显示坐标的对应关系;根据手势的拍摄视频坐标,以及所述手势对应的深度层的坐标映射表,确定所述手势对应的屏幕显示坐标。采用本发明提供的获取手势屏幕显示坐标的方法和装置,能够提高手势识别的正确率。
Description
技术领域
本发明涉及通信技术,尤其涉及一种获取手势屏幕显示坐标的方法和装置。
背景技术
基于摄像头的手势识别技术应用于手机、电视等多种终端设备的控制操作,在人机交互领域具有重要作用。
目前采用的获取手势屏幕显示坐标的方法为:通过摄像头拍摄用户的手势的视频,然后将拍摄视频坐标与屏幕显示坐标直接映射,获得该手势对应的屏幕显示坐标。例如,将拍摄视频分辨率记为Xv×Yv,将显示屏分辨率记为Xd×Yd,如果摄像头拍摄到的手指在拍摄视频坐标上的坐标为(xv,yv),则该手指在显示屏上对应的屏幕显示坐标为(xd,yd),其中,xd=xv*Xd/Xv,yd=yv*Yd/Yv。
由于手势操作在空间上有一定的深度范围,采用上述现有的获取手势屏幕显示坐标的方法,手势识别的正确率低。
发明内容
本发明的第一个方面是提供一种获取手势屏幕显示坐标的方法,用以解决现有技术中的缺陷,提高手势识别的正确率。
本发明的另一个方面是提供一种获取手势屏幕显示坐标的装置,用以解决现有技术中的缺陷,提高手势识别的正确率。
本发明的第一个方面是提供一种获取手势屏幕显示坐标的方法,包括:
将空间深度划分为一个以上深度层,建立各个所述深度层对应的坐标映射表,所述坐标映射表记录对应的所述深度层的拍摄视频坐标与屏幕显示坐标的对应关系;
根据手势的拍摄视频坐标,以及所述手势对应的深度层的坐标映射表,确定所述手势对应的屏幕显示坐标。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述将空间深度划分为一个以上深度层,建立各个所述深度层对应的坐标映射表包括:
拍照获取预设区域的拍摄视频坐标,所述拍摄视频坐标包括:深度坐标项和平面坐标项;
根据所述深度坐标项将空间深度划分为所述一个以上深度层;
计算各个所述深度层的一个以上尺度的映射平面;
计算各个所述深度层的各个尺度坐标映射表。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述根据所述深度坐标项将空间深度划分为所述一个以上深度层包括:以平面面积等于屏幕尺寸的深度层作为第0深度层;
所述计算各个所述深度层的一个以上尺度的映射平面包括:根据Wkn=SnWRk/R0和Hkn=SnHRk/R0计算第k深度层第n个尺度的映射平面,其中,k表示深度层序号,n表示尺度序号,Wkn表示第k深度层的平面宽度,Hkn表示第k深度层的平面高度,W表示第0深度层的平面宽度,H表示第0深度层的平面高度,S表示尺度因子,Rk表示特征物体在第k深度层的长度,R0表示所述特征物体在第0深度层的长度。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述根据手势的拍摄视频坐标,以及所述手势对应的深度层的坐标映射表,确定所述手势对应的屏幕显示坐标包括:
根据所述手势中所述特征物体的大小,确定所述手势所在的深度层;
根据所述手势的操作位置,确定所述手势对应的尺度;
根据所述手势所在的深度层的所述手势对应的尺度的坐标映射表,获得所述手势的拍摄视频坐标对应的屏幕显示坐标。
本发明的另一个方面是提供一种获取手势屏幕显示坐标的装置,包括:
深度层单元,用于将空间深度划分为一个以上深度层,建立各个所述深度层对应的坐标映射表,所述坐标映射表记录对应的所述深度层的拍摄视频坐标与屏幕显示坐标的对应关系;
屏幕显示坐标单元,用于根据手势的拍摄视频坐标,以及所述手势对应的深度层的坐标映射表,确定所述手势对应的屏幕显示坐标。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述深度层单元包括:
拍照子单元,用于拍照获取预设区域的拍摄视频坐标,所述拍摄视频坐标包括:深度坐标项和平面坐标项;
深度层划分子单元,用于根据所述深度坐标项将空间深度划分为所述一个以上深度层;
尺度计算子单元,用于计算各个所述深度层的一个以上尺度的映射平面;
坐标映射子单元,用于计算各个所述深度层的各个尺度坐标映射表。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述深度层划分子单元具体用于以平面面积等于屏幕尺寸的深度层作为第0深度层;
所述尺度计算子单元具体用于根据Wkn=SnWRk/R0和Hkn=SnHRk/R0计算第k深度层第n个尺度的映射平面,其中,k表示深度层序号,n表示尺度序号,Wkn表示第k深度层的平面宽度,Hkn表示第k深度层的平面高度,W表示第0深度层的平面宽度,H表示第0深度层的平面高度,S表示尺度因子,Rk表示特征物体在第k深度层的长度,R0表示所述特征物体在第0深度层的长度。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述屏幕显示坐标单元包括:
深度层确定子单元,用于根据所述手势中所述特征物体的大小,确定所述手势所在的深度层;
尺度确定子单元,用于根据所述手势的操作位置,确定所述手势对应的尺度;
屏幕显示坐标确定子单元,用于根据所述手势所在的深度层的所述手势对应的尺度的坐标映射表,获得所述手势的拍摄视频坐标对应的屏幕显示坐标。
本发明的又一个方面是提供一种获取手势屏幕显示坐标的装置,包括:
第一处理器,用于将空间深度划分为一个以上深度层,建立各个所述深度层对应的坐标映射表,所述坐标映射表记录对应的所述深度层的拍摄视频坐标与屏幕显示坐标的对应关系;
第二处理器,用于根据手势的拍摄视频坐标,以及所述手势对应的深度层的坐标映射表,确定所述手势对应的屏幕显示坐标;
摄像头,用于对所述空间深度和所述手势进行拍照;
总线,用于连接所述第一处理器、所述第二处理器和所述摄像头,所述第一处理器、所述第二处理器和所述摄像头通过所述总线进行数据交互。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,
所述第一处理器具体用于通过拍照获取预设区域的拍摄视频坐标,所述拍摄视频坐标包括:深度坐标项和平面坐标项,根据所述深度坐标项将空间深度划分为所述一个以上深度层,计算各个所述深度层的一个以上尺度的映射平面,计算各个所述深度层的各个尺度坐标映射表。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,
所述第一处理器具体用于以平面面积等于屏幕尺寸的深度层作为第0深度层,根据Wkn=SnWRk/R0和Hkn=SnHRk/R0计算第k深度层第n个尺度的映射平面,其中,k表示深度层序号,n表示尺度序号,Wkn表示第k深度层的平面宽度,Hkn表示第k深度层的平面高度,W表示第0深度层的平面宽度,H表示第0深度层的平面高度,S表示尺度因子,Rk表示特征物体在第k深度层的长度,R0表示所述特征物体在第0深度层的长度。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,
所述第二处理器具体用于根据所述手势中所述特征物体的大小,确定所述手势所在的深度层,根据所述手势的操作位置,确定所述手势对应的尺度,根据所述手势所在的深度层的所述手势对应的尺度的坐标映射表,获得所述手势的拍摄视频坐标对应的屏幕显示坐标。
由上述发明内容可见,对空间深度进行分层,对不同深度层建立不同的坐标映射表,在手势识别时,根据手势的拍摄视频坐标以及该手势对应的深度层的坐标映射表,确定该手势在屏幕上对应的屏幕显示坐标,从而对于近远距离都可实现准确的手势识别与坐标定位,提高了手势识别的准确性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例一的获取手势屏幕显示坐标的方法的流程图;
图2为本发明实施例二的获取手势屏幕显示坐标的方法的流程图;
图3为本发明实施例三的获取手势屏幕显示坐标的装置的结构示意图;
图4为本发明实施例四的获取手势屏幕显示坐标的装置的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1为本发明实施例一的获取手势屏幕显示坐标的方法的流程图。如图1所述,该方法包括以下过程。
步骤101:建立一个以上深度层的坐标映射表。
在本步骤中,所述坐标映射表记录所述深度层的拍摄视频坐标与屏幕显示坐标的对应关系。
步骤102:根据手势的拍摄视频坐标,以及所述手势对应的深度层的坐标映射表,确定所述手势对应的屏幕显示坐标。
在本发明实施例一中,对空间深度进行分层,对不同深度层建立不同的坐标映射表,在手势识别时,根据手势的拍摄视频坐标以及该手势对应的深度层的坐标映射表,确定该手势在屏幕上对应的屏幕显示坐标,从而对于近远距离都可实现准确的手势识别与坐标定位,提高了手势识别的准确性。
图2为本发明实施例二的获取手势屏幕显示坐标的方法的流程图。如图2所示,该方法包括以下过程。
首先,建立一个以上深度层的坐标映射表。该过程可以在手势识别初始化阶段检测到手的位置之后执行,以该位置作为参考计算出用户操作的空间并划分为多个深度层。具体地,该过程可以包括以下步骤201至步骤204。
步骤201:拍照获取预设区域的拍摄视频坐标。
在本步骤中,所述拍摄视频坐标包括:深度坐标项和平面坐标项。具体地,在智能手机等需要进行手势识别的移动终端中,设置可获取深度信息的手势识别系统,通过视频采集获取手势图像,为了获得精度可靠的深度信息,可以采用带红外滤片的单摄像头与两个红外光源LED进行视频采集,该摄像头的分辨率为640x480,最大帧率为60fps,对图像进行降噪、颜色、背景处理、光强等预处理,提高图像质量,通过特征提取获取预设区域的三维坐标(x,y,z),其中,x坐标和y坐标为平面坐标项,x坐标和y坐标组成的平面平行于屏幕,x为屏幕宽度方向的坐标,y为屏幕高度方向的坐标,z为深度坐标项,z坐标垂直于x坐标和y坐标组成平面,其中,根据预设区域的空间由远及近或由近及远的形态变化及亮度变化等方法,获得上述深度信息。
步骤202:根据所述深度坐标项将空间深度划分为所述一个以上深度层。
在本步骤中,以平面面积等于屏幕尺寸的深度层作为第0深度层,按照预设的精度要求,根据所述深度坐标项,将空间深度划分为所述一个以上深度层。其中,以平面面积等于屏幕尺寸的深度层作为第0深度层。
步骤203:计算各个所述深度层的一个以上尺度的映射平面。
在本步骤中,根据Wkn=SnWRk/R0和Hkn=SnHRk/R0计算第k深度层第n个尺度的映射平面。其中,k表示深度层序号,n表示尺度序号,Wkn表示第k深度层的平面宽度,Hkn表示第k深度层的平面高度,W表示第0深度层的平面宽度,H表示第0深度层的平面高度,S表示尺度因子,Rk表示特征物体在第k深度层的长度,R0表示所述特征物体在第0深度层的长度。其中,特征物体具体可以为手指指尖,R0表示指尖直径。
具体地,参考第0深度层的信息,计算每个深度层的映射平面。以视频坐标的中心为中心点,建立不同尺度的映射平面,例如,第0深度层的映射平面为H,W,第0深度层的信息为pw=W/R0,ph=H/R0,则第k深度层的映射平面为Hk0=phRk,Wk0=pwRk,则第k深度层的第n个尺度的映射平面为Hkn=SnHk0=SnphRk=SnHRk/R0,Wkn=SnWk0=SnpwRk=SnWRk/R0。其中,k和s的大小可以根据精度要求以及摄像头的分辨率灵活设置。例如,如果在手势中涉及到的手势对深度的使用较为简单,像单击、双击或推拉,则对深度的分层k可选择较小值,反之,k可选择较大值,以实现更高的精度;尺度s的选择要参考摄像头分辨率的大小,对具有高分辨率的摄像头,s选较小值,可得到较高的精度,反之,s需选择较大值,才能保证精度。
步骤204:计算各个所述深度层的各个尺度坐标映射表。
在本步骤中,将各个深度层的各个尺度的平面映射到屏幕对应的平面,计算各个所述深度层的各个尺度坐标映射表,所述坐标映射表记录相应深度层的相应尺度的拍摄视频坐标与屏幕显示坐标的对应关系,其中的拍摄视频坐标具体为平面坐标项。在本发明实施例中,对计算各个所述深度层的各个尺度坐标映射表的具体方法不做限制,任何能够实现两个平面内的坐标相互映射的计算方法均可适用。例如,可以采用最近邻域插值(简称nearest)方法、或billinear双线性插值(简称bilinear)方法、或三次插值(简称cubic)方法、或双三次插值(简称bicubic)方法计算各个所述深度层的各个尺度坐标映射表。以T[k][n]表示第k深度层的第n个尺度的坐标映射表。
然后,根据手势的拍摄视频坐标,以及所述手势对应的深度层的坐标映射表,确定所述手势对应的屏幕显示坐标,具体地,该过程可以包括以下步骤205至步骤207。
步骤205:根据所述手势中所述特征物体的大小,确定所述手势所在的深度层。
在本步骤中,根据对特征物体的检验结果,采用深度信息获取技术,确定所述手势所在的深度层。其中,该特征物体可以是用户的手或者手指指尖,确定用户的手或指尖所处的深度层,以该深度层作为所述手势所在的深度层。该特征物体的大小具体可以用该特征物体的长度、宽度等指标衡量。在本发明实施例中,仅以通过长度衡量特征物体的大小为例予以说明,在其它实现方式中,也可以采用宽度等其它衡量特征物体大小的指标。例如,所述手指中指尖直径为R,第0深度层的指尖直径为R0,根据则R/R0的值确定指尖所处的深度层。
步骤206:根据所述手势的操作位置,确定所述手势对应的尺度。
在本步骤中,根据检测到的所述手势的操作位置确定所述手势对应的尺度。具体地,在进入手势操作模式初始化时,根据检测到的手势的操作中心点位置(xv0,yv0),计算用户手势的操作空间及尺度。
步骤207:根据所述手势所在的深度层的所述手势对应的尺度的坐标映射表,获得所述手势的拍摄视频坐标对应的屏幕显示坐标。
在本步骤中,通过查询坐标映射表,获得所述手势的拍摄视频坐标对应的屏幕显示坐标。具体地,利用查表法,快速计算屏幕显示坐标,例如,在视频中,操作空间中任意一点(xv,yv),经过查表法进行坐标映射,该点的屏幕显示坐标,即该点在显示屏上产生控制指令的坐标为:
(xd,yd)=T[k0][n0](xv+Xv/2-xv0,yv+Yv/2-yv0)
其中,(xd,yd)为屏幕显示坐标,T[k0][n0]为所述手势所在的深度层的所述手势对应的尺度的坐标映射表,(XV,Yv)为拍摄视频的分辨率。
采用上述步骤,能够获知在拍摄视频坐标中手势的任意一点对应的屏幕显示坐标,从而能够根据手势的屏幕显示坐标,对手势进行分割,确定手势的开始与结束,识别出手势,输出相应的信息或命令。
在本发明实施例二中,以显示屏的物理尺寸为参考,对空间深度进行分层,对不同深度层建立不同的坐标映射表,从而对于近远距离都可实现准确的手势识别与坐标定位,提高了手势识别的准确性。并且,极大地丰富手势的多样性,让手势信息的传递在空间上得到充分的利用,满足更多的应用需求。在手势识别初始化阶段,检测到手的位置后,以该位置为参考,计算出用户的操作空间,这样能够对不同用户的使用习惯有较好的自适应性,给用户提供一种更加自由、开放的交互方式。利用查表的方法,结合用户操作空间,实现视频坐标和屏幕显示坐标间的快速映射,运算复杂度低,实时性高,能够实现高帧率的手势识别,手势识别帧率能够大于60帧/秒。
图3为本发明实施例三的获取手势屏幕显示坐标的装置的结构示意图。如图3所示,该装置包括:深度层单元31和屏幕显示坐标单元32。
其中,深度层单元31用于将空间深度划分为一个以上深度层,建立各个所述深度层对应的坐标映射表,所述坐标映射表记录对应的所述深度层的拍摄视频坐标与屏幕显示坐标的对应关系。
屏幕显示坐标单元32用于根据手势的拍摄视频坐标,以及所述手势对应的深度层的坐标映射表,确定所述手势对应的屏幕显示坐标。
在上述技术方案的基础上,进一步地,所述深度层单元31包括:拍照子单元311、深度层划分子单元312、尺度计算子单元313、坐标映射子单元314。
其中,拍照子单元311,用于拍照获取预设区域的拍摄视频坐标,所述拍摄视频坐标包括:深度坐标项和平面坐标项;深度层划分子单元312,用于根据所述深度坐标项将空间深度划分为所述一个以上深度层;尺度计算子单元313,用于计算各个所述深度层的一个以上尺度的映射平面;坐标映射子单元314,用于计算各个所述深度层的各个尺度坐标映射表。
在上述技术方案的基础上,进一步地,所述深度层划分子单元312具体用于以平面面积等于屏幕尺寸的深度层作为第0深度层;所述尺度计算子单元313具体用于根据Wkn=SnWRk/R0和Hkn=SnHRk/R0计算第k深度层第n个尺度的映射平面,其中,k表示深度层序号,n表示尺度序号,Wkn表示第k深度层的平面宽度,Hkn表示第k深度层的平面高度,W表示第0深度层的平面宽度,H表示第0深度层的平面高度,S表示尺度因子,Rk表示特征物体在第k深度层的长度,R0表示所述特征物体在第0深度层的长度。
在上述技术方案的基础上,进一步地,所述屏幕显示坐标单元32包括:深度层确定子单元321、尺度确定子单元322和屏幕显示坐标确定子单元323。
其中,深度层确定子单元321,用于根据所述手势中所述特征物体的大小,确定所述手势所在的深度层;尺度确定子单元322,用于根据所述手势的操作位置,确定所述手势对应的尺度;屏幕显示坐标确定子单元323,用于根据所述手势所在的深度层的所述手势对应的尺度的坐标映射表,获得所述手势的拍摄视频坐标对应的屏幕显示坐标。
本发明实施例三的获取手势屏幕显示坐标的装置可以用于执行本发明实施例一或本发明实施例二所述的获取手势屏幕显示坐标的方法,其具体实现过程和技术效果可以参照本发明实施例一或本发明实施例二,此处不再赘述。
图4为本发明实施例四的获取手势屏幕显示坐标的装置的结构示意图。如图4所示,该装置至少包括:第一处理器41、第二处理器42、摄像头43和总线40。
其中,第一处理器41用于将空间深度划分为一个以上深度层,建立各个所述深度层对应的坐标映射表,所述坐标映射表记录对应的所述深度层的拍摄视频坐标与屏幕显示坐标的对应关系。
第二处理器42用于根据手势的拍摄视频坐标,以及所述手势对应的深度层的坐标映射表,确定所述手势对应的屏幕显示坐标。
摄像头43用于对所述空间深度和所述手势进行拍照。
总线40用于连接所述第一处理器41、所述第二处理器42和所述摄像头43,所述第一处理器41、所述第二处理器42和所述摄像头43通过所述总线40进行数据交互。
在上述技术方案的基础上,进一步地,所述第一处理器41具体用于通过拍照获取预设区域的拍摄视频坐标,所述拍摄视频坐标包括:深度坐标项和平面坐标项,根据所述深度坐标项将空间深度划分为所述一个以上深度层,计算各个所述深度层的一个以上尺度的映射平面,计算各个所述深度层的各个尺度坐标映射表。
在上述技术方案的基础上,进一步地,所述第一处理器41具体用于以平面面积等于屏幕尺寸的深度层作为第0深度层,根据Wkn=SnWRk/R0和Hkn=SnHRk/R0计算第k深度层第n个尺度的映射平面,其中,k表示深度层序号,n表示尺度序号,Wkn表示第k深度层的平面宽度,Hkn表示第k深度层的平面高度,W表示第0深度层的平面宽度,H表示第0深度层的平面高度,S表示尺度因子,Rk表示特征物体在第k深度层的长度,R0表示所述特征物体在第0深度层的长度。
在上述技术方案的基础上,进一步地,所述第二处理器42具体用于根据所述手势中所述特征物体的大小,确定所述手势所在的深度层,根据所述手势的操作位置,确定所述手势对应的尺度,根据所述手势所在的深度层的所述手势对应的尺度的坐标映射表,获得所述手势的拍摄视频坐标对应的屏幕显示坐标。
本发明实施例四的获取手势屏幕显示坐标的装置可以用于执行本发明实施例一或本发明实施例二所述的获取手势屏幕显示坐标的方法,其具体实现过程和技术效果可以参照本发明实施例一或本发明实施例二,此处不再赘述。
需要说明的是:对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
本领域普通技术人员可以理解:实现上述各方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成。前述的程序可以存储于一计算机可读取存储介质中。该程序在执行时,执行包括上述各方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (9)
1.一种获取手势屏幕显示坐标的方法,其特征在于,包括:
将空间深度划分为一个以上深度层,建立各个所述深度层对应的坐标映射表,所述坐标映射表记录对应的所述深度层的拍摄视频坐标与屏幕显示坐标的对应关系;
根据手势的拍摄视频坐标,以及所述手势对应的深度层的坐标映射表,确定所述手势对应的屏幕显示坐标;
其中,所述将空间深度划分为一个以上深度层,建立各个所述深度层对应的坐标映射表包括:
拍照获取预设区域的拍摄视频坐标,所述拍摄视频坐标包括:深度坐标项和平面坐标项;
根据所述深度坐标项将空间深度划分为所述一个以上深度层;
计算各个所述深度层的一个以上尺度的映射平面,每个所述映射平面的尺度对应一种映射平面的高度和宽度的组合;
计算各个所述深度层的各个尺度坐标映射表。
2.根据权利要求1所述的方法,其特征在于,
所述根据所述深度坐标项将空间深度划分为所述一个以上深度层包括:以平面面积等于屏幕尺寸的深度层作为第0深度层;
所述计算各个所述深度层的一个以上尺度的映射平面包括:根据Wkn=SnWRk/R0和Hkn=SnHRk/R0计算第k深度层第n个尺度的映射平面,其中,k表示深度层序号,n表示尺度序号,Wkn表示第k深度层的平面宽度,Hkn表示第k深度层的平面高度,W表示第0深度层的平面宽度,H表示第0深度层的平面高度,Sn表示第n个尺度的映射平面对应的尺度因子,Rk表示拍摄出来的特征物体在第k深度层的长度,R0表示拍摄出来的所述特征物体在第0深度层的长度,所述尺度因子S的大小取决于摄像头分辨率的大小。
3.根据权利要求2所述的方法,其特征在于,所述根据手势的拍摄视频坐标,以及所述手势对应的深度层的坐标映射表,确定所述手势对应的屏幕显示坐标包括:
根据所述手势中所述特征物体的大小,确定所述手势所在的深度层;
根据所述手势的操作位置,确定所述手势对应的映射平面的尺度;
根据所述手势所在的深度层的所述手势对应的映射平面的尺度的坐标映射表,获得所述手势的拍摄视频坐标对应的屏幕显示坐标。
4.一种获取手势屏幕显示坐标的装置,其特征在于,包括:
深度层单元,用于将空间深度划分为一个以上深度层,建立各个所述深度层对应的坐标映射表,所述坐标映射表记录对应的所述深度层的拍摄视频坐标与屏幕显示坐标的对应关系;
屏幕显示坐标单元,用于根据手势的拍摄视频坐标,以及所述手势对应的深度层的坐标映射表,确定所述手势对应的屏幕显示坐标;
其中,所述深度层单元包括:
拍照子单元,用于拍照获取预设区域的拍摄视频坐标,所述拍摄视频坐标包括:深度坐标项和平面坐标项;
深度层划分子单元,用于根据所述深度坐标项将空间深度划分为所述一个以上深度层;
尺度计算子单元,用于计算各个所述深度层的一个以上尺度的映射平面,每个所述映射平面的尺度对应一种映射平面的高度和宽度的组合;
坐标映射子单元,用于计算各个所述深度层的各个尺度坐标映射表。
5.根据权利要求4所述的装置,其特征在于,
所述深度层划分子单元具体用于以平面面积等于屏幕尺寸的深度层作为第0深度层;
所述尺度计算子单元具体用于根据Wkn=SnWRk/R0和Hkn=SnHRk/R0计算第k深度层第n个尺度的映射平面,其中,k表示深度层序号,n表示尺度序号,Wkn表示第k深度层的平面宽度,Hkn表示第k深度层的平面高度,W表示第0深度层的平面宽度,H表示第0深度层的平面高度,Sn表示第n个尺度的映射平面对应的尺度因子,Rk表示拍摄出来的特征物体在第k深度层的长度,R0表示拍摄出来的所述特征物体在第0深度层的长度,所述尺度因子S的大小取决于摄像头分辨率的大小。
6.根据权利要求5所述的装置,其特征在于,所述屏幕显示坐标单元包括:
深度层确定子单元,用于根据所述手势中所述特征物体的大小,确定所述手势所在的深度层;
尺度确定子单元,用于根据所述手势的操作位置,确定所述手势对应的映射平面的尺度;
屏幕显示坐标确定子单元,用于根据所述手势所在的深度层的所述手势对应的映射平面的尺度的坐标映射表,获得所述手势的拍摄视频坐标对应的屏幕显示坐标。
7.一种获取手势屏幕显示坐标的装置,其特征在于,包括:
第一处理器,用于将空间深度划分为一个以上深度层,建立各个所述深度层对应的坐标映射表,所述坐标映射表记录对应的所述深度层的拍摄视频坐标与屏幕显示坐标的对应关系;
第二处理器,用于根据手势的拍摄视频坐标,以及所述手势对应的深度层的坐标映射表,确定所述手势对应的屏幕显示坐标;
摄像头,用于对所述空间深度和所述手势进行拍照;
总线,用于连接所述第一处理器、所述第二处理器和所述摄像头,所述第一处理器、所述第二处理器和所述摄像头通过所述总线进行数据交互;
其中,所述第一处理器具体用于通过拍照获取预设区域的拍摄视频坐标,所述拍摄视频坐标包括:深度坐标项和平面坐标项,根据所述深度坐标项将空间深度划分为所述一个以上深度层,计算各个所述深度层的一个以上尺度的映射平面,每个所述映射平面的尺度对应一种映射平面的高度和宽度的组合,计算各个所述深度层的各个尺度坐标映射表。
8.根据权利要求7所述的装置,其特征在于,
所述第一处理器具体用于以平面面积等于屏幕尺寸的深度层作为第0深度层,根据Wkn=SnWRk/R0和Hkn=SnHRk/R0计算第k深度层第n个尺度的映射平面,其中,k表示深度层序号,n表示尺度序号,Wkn表示第k深度层的平面宽度,Hkn表示第k深度层的平面高度,W表示第0深度层的平面宽度,H表示第0深度层的平面高度,Sn表示第n个尺度的映射平面对应的尺度因子,Rk表示拍摄出来的特征物体在第k深度层的长度,R0表示拍摄出来的所述特征物体在第0深度层的长度,所述尺度因子S的大小取决于摄像头分辨率的大小。
9.根据权利要求8所述的装置,其特征在于,
所述第二处理器具体用于根据所述手势中所述特征物体的大小,确定所述手势所在的深度层,根据所述手势的操作位置,确定所述手势对应的映射平面的尺度,根据所述手势所在的深度层的所述手势对应的映射平面的尺度的坐标映射表,获得所述手势的拍摄视频坐标对应的屏幕显示坐标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310270093.5A CN103399629B (zh) | 2013-06-29 | 2013-06-29 | 获取手势屏幕显示坐标的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310270093.5A CN103399629B (zh) | 2013-06-29 | 2013-06-29 | 获取手势屏幕显示坐标的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103399629A CN103399629A (zh) | 2013-11-20 |
CN103399629B true CN103399629B (zh) | 2017-09-19 |
Family
ID=49563269
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310270093.5A Active CN103399629B (zh) | 2013-06-29 | 2013-06-29 | 获取手势屏幕显示坐标的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103399629B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103686284B (zh) * | 2013-12-16 | 2017-12-12 | 深圳Tcl新技术有限公司 | 基于手势识别的遥控方法及系统 |
CN104914985A (zh) * | 2014-03-13 | 2015-09-16 | 扬智科技股份有限公司 | 手势控制方法及系统与视频流处理装置 |
WO2016115872A1 (zh) * | 2015-01-21 | 2016-07-28 | 成都理想境界科技有限公司 | 双目ar头戴显示设备及其信息显示方法 |
WO2017197549A1 (zh) * | 2016-05-16 | 2017-11-23 | 深圳维盛半导体科技有限公司 | 一种dpi自动调节的鼠标及方法 |
CN106919928A (zh) * | 2017-03-08 | 2017-07-04 | 京东方科技集团股份有限公司 | 手势识别系统、方法及显示设备 |
CN107463261B (zh) * | 2017-08-11 | 2021-01-15 | 北京铂石空间科技有限公司 | 立体交互系统及方法 |
CN111176540A (zh) * | 2019-11-27 | 2020-05-19 | 云知声智能科技股份有限公司 | 字符提取方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102012778A (zh) * | 2009-09-04 | 2011-04-13 | 索尼公司 | 显示控制设备、显示控制方法以及显示控制程序 |
CN102221880A (zh) * | 2011-05-19 | 2011-10-19 | 北京新岸线网络技术有限公司 | 3d图形界面的显示方法及系统 |
CN102469333A (zh) * | 2010-11-11 | 2012-05-23 | 索尼公司 | 信息处理设备、立体显示方法和程序 |
EP2538305A2 (en) * | 2011-06-23 | 2012-12-26 | Omek Interactive, Ltd. | System and method for close-range movement tracking |
CN103017730A (zh) * | 2012-11-30 | 2013-04-03 | 中兴通讯股份有限公司 | 一种单摄像头测距的方法和系统 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10242255B2 (en) * | 2002-02-15 | 2019-03-26 | Microsoft Technology Licensing, Llc | Gesture recognition system using depth perceptive sensors |
US7663689B2 (en) * | 2004-01-16 | 2010-02-16 | Sony Computer Entertainment Inc. | Method and apparatus for optimizing capture device settings through depth information |
US8560972B2 (en) * | 2004-08-10 | 2013-10-15 | Microsoft Corporation | Surface UI for gesture-based interaction |
US8199106B2 (en) * | 2007-12-20 | 2012-06-12 | University Of Central Florida Research Foundation, Inc. | Systems and methods of camera-based fingertip tracking |
US20100064213A1 (en) * | 2008-09-10 | 2010-03-11 | Zhou Ye | Operation device for a graphical user interface |
US9417700B2 (en) * | 2009-05-21 | 2016-08-16 | Edge3 Technologies | Gesture recognition systems and related methods |
US8970669B2 (en) * | 2009-09-30 | 2015-03-03 | Rovi Guides, Inc. | Systems and methods for generating a three-dimensional media guidance application |
EP2395413B1 (en) * | 2010-06-09 | 2018-10-03 | The Boeing Company | Gesture-based human machine interface |
KR20120015165A (ko) * | 2010-08-11 | 2012-02-21 | 엘지전자 주식회사 | 영상의 깊이감 조절 방법 및 이를 이용하는 이동 단말기 |
US20120257035A1 (en) * | 2011-04-08 | 2012-10-11 | Sony Computer Entertainment Inc. | Systems and methods for providing feedback by tracking user gaze and gestures |
KR101747892B1 (ko) * | 2011-06-02 | 2017-06-16 | 한국전자통신연구원 | 제스처 인식 기반 사용자 상호 작용 방법 및 이를 위한 장치 |
US8830302B2 (en) * | 2011-08-24 | 2014-09-09 | Lg Electronics Inc. | Gesture-based user interface method and apparatus |
CN102426480A (zh) * | 2011-11-03 | 2012-04-25 | 康佳集团股份有限公司 | 一种人机交互系统及其实时手势跟踪处理方法 |
CN103063193A (zh) * | 2012-11-30 | 2013-04-24 | 青岛海信电器股份有限公司 | 一种利用摄像头测距的方法、装置及电视机 |
-
2013
- 2013-06-29 CN CN201310270093.5A patent/CN103399629B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102012778A (zh) * | 2009-09-04 | 2011-04-13 | 索尼公司 | 显示控制设备、显示控制方法以及显示控制程序 |
CN102469333A (zh) * | 2010-11-11 | 2012-05-23 | 索尼公司 | 信息处理设备、立体显示方法和程序 |
CN102221880A (zh) * | 2011-05-19 | 2011-10-19 | 北京新岸线网络技术有限公司 | 3d图形界面的显示方法及系统 |
EP2538305A2 (en) * | 2011-06-23 | 2012-12-26 | Omek Interactive, Ltd. | System and method for close-range movement tracking |
CN103017730A (zh) * | 2012-11-30 | 2013-04-03 | 中兴通讯股份有限公司 | 一种单摄像头测距的方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN103399629A (zh) | 2013-11-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103399629B (zh) | 获取手势屏幕显示坐标的方法和装置 | |
US10600169B2 (en) | Image processing system and image processing method | |
CN106705837A (zh) | 一种基于手势的物体测量方法及装置 | |
CN108304075B (zh) | 一种在增强现实设备进行人机交互的方法与设备 | |
US9256986B2 (en) | Automated guidance when taking a photograph, using virtual objects overlaid on an image | |
CN105074617B (zh) | 三维用户界面装置和三维操作处理方法 | |
JP4768196B2 (ja) | 3次元モデリングを行うことなく画像処理によってターゲットを指し示す装置及びその方法 | |
KR100953931B1 (ko) | 혼합현실 구현 시스템 및 그 방법 | |
TWI701941B (zh) | 圖像處理方法及裝置、電子設備及儲存介質 | |
CN108257177B (zh) | 基于空间标识的定位系统与方法 | |
CN108303994A (zh) | 面向无人机的群控交互方法 | |
CN110569849B (zh) | 一种基于ar眼镜的多仪表同时识别及空间定位方法及系统 | |
EP3283938A1 (en) | Gesture interface | |
CN106125994B (zh) | 坐标匹配方法及使用该坐标匹配方法的操控方法和终端 | |
CN109949900B (zh) | 三维脉波的显示方法、装置、计算机设备及存储介质 | |
CN109313821A (zh) | 三维对象扫描反馈 | |
KR100971667B1 (ko) | 증강 책을 통한 실감 콘텐츠를 제공하는 방법 및 장치 | |
CN110162258A (zh) | 个性化场景图像的处理方法及装置 | |
CN109743505A (zh) | 基于激光测距的视频拍摄方法、装置及电子设备 | |
CN106980378A (zh) | 虚拟显示方法和系统 | |
CN110084797A (zh) | 平面检测方法、装置、电子设备和存储介质 | |
CN114385015B (zh) | 虚拟对象的控制方法及电子设备 | |
CN108430032A (zh) | 一种实现vr/ar设备位置共享的方法及设备 | |
CN108932055B (zh) | 一种增强现实内容的方法和设备 | |
CN114387679A (zh) | 基于递归卷积神经网络实现视线估计与注意力分析的系统及其方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |