CN102650906B - 一种用户界面的控制方法及装置 - Google Patents

一种用户界面的控制方法及装置 Download PDF

Info

Publication number
CN102650906B
CN102650906B CN201210098842.6A CN201210098842A CN102650906B CN 102650906 B CN102650906 B CN 102650906B CN 201210098842 A CN201210098842 A CN 201210098842A CN 102650906 B CN102650906 B CN 102650906B
Authority
CN
China
Prior art keywords
hand
user interface
user
dimensional
palm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201210098842.6A
Other languages
English (en)
Other versions
CN102650906A (zh
Inventor
王晓晖
赵健章
于洋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Skyworth Digital Technology Co Ltd
Shenzhen Skyworth Software Co Ltd
Original Assignee
Shenzhen Skyworth Digital Technology Co Ltd
Shenzhen Skyworth Software Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Skyworth Digital Technology Co Ltd, Shenzhen Skyworth Software Co Ltd filed Critical Shenzhen Skyworth Digital Technology Co Ltd
Priority to CN201210098842.6A priority Critical patent/CN102650906B/zh
Publication of CN102650906A publication Critical patent/CN102650906A/zh
Priority to PCT/CN2012/086000 priority patent/WO2013149475A1/zh
Application granted granted Critical
Publication of CN102650906B publication Critical patent/CN102650906B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Abstract

本发明实施例公开了一种用户界面的控制方法,包括:采集用户手部的三维空间信息;根据采集的三维空间信息,在用户界面上构建出与用户手部动作一致的三维虚拟手;检测三维虚拟手对用户界面的操作,并根据检测到的操作,执行相应的功能。本发明实施例还公开了一种用户界面的控制装置。采用本发明,可以让用户灵活和方便的控制用户界面,提高用户体验。

Description

一种用户界面的控制方法及装置
技术领域
本发明涉及通信领域,尤其涉及一种用户界面的控制方法及装置。
背景技术
随着科技的发展,人们在人性化和智能化上对多媒体设备要求越来越高,越来越多的多媒体设备置有手势控制功能,手势控制功能使用户仅仅通过手势动作便能对多媒体设备下达控制指令。目前,手势控制装置大体分为两类:一类是采用摄像头来识别手势动作,该类装置需要识别手的投影是否符合特定形状(每一种特定形状对应一种指令);另一类是采用需要用户佩戴的传感器来识别手势动作。这两类装置的共性是代表控制命令的手势固定且单一,并且需要用户熟记各种手势所对应的控制指令,当指令过多时,很容易让人混淆,使得用户体验不佳。
发明内容
本发明实施例所要解决的技术问题在于,提供一种用户界面的控制方法及装置。可以让用户灵活和方便的控制用户界面,提高用户体验。
为了解决上述技术问题,本发明实施例提供了一种用户界面的控制方法,包括:
采集用户手部的三维空间信息;
根据所述采集的三维空间信息,在用户界面上构建出与用户手部动作一致的三维虚拟手;
检测所述三维虚拟手对所述用户界面的操作,并根据所述检测到的操作,执行相应的功能,其中,将所述三维虚拟手针对用户界面的操作的动作特征与数据库中预存的动作特征进行匹配,生成针对用户界面的控制命令,以对用户界面执行相应的功能。
其中,所述采集用户手部动作的三维空间信息包括:
周期性获取用户的手心面上的点在参考坐标系中的空间坐标。
其中,所述根据所述采集的三维空间信息,在用户界面上构建出与用户手部动作一致的三维虚拟手包括:
根据用户手心面上的点的三维空间坐标的变化,构建出与用户手心面动作一致的虚拟手心面;
根据所述与用户手心面动作一致的虚拟手心面,构建出与用户手背面动作一致的虚拟手背面。
其中,所述三维虚拟手对用户界面的操作包括:旋转所述用户界面的操作、拖拽所述用户界面的操作、缩小所述用户界面的操作和放大所述用户界面的操作中的至少一项。
其中,所述用户界面还包括:至少一个三维式的功能选项;
所述三维虚拟手对用户界面的操作还包括:用于请求执行所述功能选项所对应的功能的操作。
相应地,本发明实施例还提供了一种用户界面的控制装置,包括:
采集模块,用于采集用户手部的三维空间信息;
三维虚拟手构建模块,用于根据所述采集的三维空间信息,在用户界面上构建出与用户手部动作一致的三维虚拟手;
处理模块,用于检测所述三维虚拟手对所述用户界面的操作,并根据所述检测到的操作,执行相应的功能,其中,将所述三维虚拟手针对用户界面的操作的动作特征与数据库中预存的动作特征进行匹配,生成针对用户界面的控制命令,以对用户界面执行相应的功能。
其中,所述采集模块包括:
坐标获取单元,用于周期性获取用户的手心面上的点在参考坐标系中的空间坐标。
其中,所述三维虚拟手构建模块包括:
手心面构建单元,用于根据用户手心面上的点的三维空间坐标的变化,构建出与用户手心面动作一致的虚拟手心面;
手背面构建单元,用于根据所述与用户手心面动作一致的虚拟手心面,构建出与用户手背面动作一致的虚拟手背面。
其中,所述三维虚拟手对用户界面的操作包括:旋转所述用户界面的操作、拖拽所述用户界面的操作、缩小所述用户界面的操作和放大所述用户界面的操作中的至少一项。
其中,所述用户界面还包括:至少一个三维式的功能选项;
所述三维虚拟手对用户界面的操作还包括:用于请求执行所述功能选项所对应的功能的操作。
实施本发明实施例,具有如下有益效果:
本发明的实施例通过在用户界面上构建出与用户手部动作一致的三维虚拟手,使得用户可以通过用户界面中的三维虚拟手直接控制用户界面,操作方法简单且灵活,由于用户通过三维虚拟手操作控制用户界面,因此可以同时提高用户触觉和视觉的真实度,大大提高了用户体验。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明的用户界面的控制方法的第一实施例的流程示意图;
图2是本发明的用户界面的控制方法的第二实施例的流程示意图;
图3是本发明的用户界面的控制装置的实施例的结构示意图;
图4是图3所示的采集模块的实施例的结构示意图;
图5是图3所示的三维虚拟手构建模块的实施例的结构示意图;
图6是本发明的双目立体视觉的基本原理图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参照图1,是本发明的用户界面控制方法的第一实施例的流程示意图。所述方法包括:
步骤S11,采集用户手部的三维空间信息。
用户手部的三维空间信息可以是用户手心面或手背面的三维空间信息,也可以是整只手的三维空间信息。为了减少数据处理量,可以只获取用户手心面的三维空间信息。
三维空间信息可以通过三维超声仪、三维摄像机、或者包含激光分光扫描器与两个摄像机的三维采集装置来获取。
其中,包含激光分光扫描器与两个摄像机的三维采集装置是基于双目立体视觉技术的。双目立体视觉方法就是利用两个摄像机模拟人眼双眼处理景物的方式,从两个视点观察同一场景,获得不同视角下的两个图像,然后通过计算图像对应点间的位置偏差,便能推断出场景中目标物体或目标点的三维空间信息。
具体地,激光分光扫描器包括:分光镜和红激光管。激光分光扫描器用于标定用户手部上的需要采集三维空间信息的点。
分光镜可以将红激光管产生的红激光束分散成多条平行于X轴方向的光线和多条平行于Y轴方向的光线,并且通常情况下,这些光线是肉眼不可见的。这些光线互相交织,形成在三维空间上有序排列的光线交点(这些光线交织点不止排布在XY平面上,在整个三维空间均有排布)。当用户的手部进入该光线交织区域时,位于用户手心面上的光线交织点即为需要采集三维空间信息的点。
双目立体视觉的基本原理如图6所示。图中分别以下标l和r标注左、右摄像机的相应参数。位于用户手心面上某一光线交织点A(X,Y,Z)在左右摄像机的成像面Cl和Cr上的像点分别为al(ul,vl)和ar(ur,vr)。这两个像点是A点的像,称为“共轭点”。分别作出这两个共轭像点与各自相机的光心Ol和Or的连线,即投影线alOl和arOr,它们的交点即为A点。在Ol、Or、al、ar四点已确定的前提下,通过计算便能得到A点在现实空间的三维坐标。
步骤S12,根据采集的三维空间信息,在用户界面上构建出与用户手部动作一致的三维虚拟手。
为了更好的提高用户的视觉体验,用户界面可以设计成为虚拟三维式的。应该注意的是,三维虚拟手在虚拟三维式的用户界面中动作幅度与用户手部动作幅度一致或是等比例缩放。
用户手部的三维空间信息可以是用户手心面和/或手背面上的点在预设的参考坐标系中的三维空间坐标。
在构建三维虚拟手时,可以根据获取的手心面和/或手背面上的点的三维空间坐标,在三维的用户界面中构建出与用户手部具有相同或等比例缩放的位置坐标的三维虚拟手,值得注意的是,构建出的三维虚拟手与用户手部形状、大小相同或是其的等比例缩放。
为了能够获取用户手部的动作信息,步骤S11中的三维空间信息的采集过程是周期性的,并且这个周期的时长很短,例如可以每0.01秒采集一次用户手心面和/或手背面的上点的三维空间坐标。根据多次采集的三维空间坐标,在用户界面中重复性构建出三维虚拟手,由于三维虚拟手的构建周期很短,这就使得用户在用户界面中看到的三维虚拟手的画面就是连续的,且三维虚拟手的动作与用户手部动作完全一致。
步骤S13,检测三维虚拟手对用户界面的操作,并根据检测到的操作,执行相应的功能。
通常三维虚拟手对用户界面的操作包括:旋转用户界面的操作、拖拽用户界面的操作、缩小用户界面的操作和放大用户界面的操作等。
此外,用户界面还包括:至少一个三维式的功能选项。相应地,三维虚拟手对用户界面的操作还包括:旋转三维式功能选项的操作、拖拽三维式功能选项的操作、缩小三维式功能选项的操作和放大三维式功能选项的操作、以及用于请求执行功能选项所对应的功能的操作。其中,三维式的功能选项可以是三维立体图形,每个三维立体图形可以对应一个或多个功能选项。用于请求执行功能选项所对应的功能的操作包括:拖拽、点击、按等。
通常情况下,用户通过三维虚拟手对用户界面的各种操作都会有其特有的动作特征,通过提取三维虚拟手的当前操作的动作特征信息,并将其与数据库中预存的动作特征(数据库中每一动作特征都会对应一控制命令)进行匹配,从而确定用户对用户界面下达的控制命令。
在检测三维虚拟手对用户界面的操作时,可以定期性将获取的手心面和/或手背面上的点的三维空间坐标进行抽样对比(例如每隔0.05秒将当前采集的三维空间坐标和前0.05秒采集的三维空间坐标进行比较),从而确定用户手部的动作趋势,再根据确定的用户手部动作趋势,来提取三维虚拟手的当前操作的动作特征信息。
例如,用户在旋转用户界面时,其特有的动作特征通常会是:手掌心抬起,五指指尖绕着手掌心转动。其相应的动作特征信息可以从周期性采集的三维空间坐标的来提取,通过将不同时间获取的用户手心面和/或手背面的三维空间坐标进行分析和对比,可以判定用户手部的动作趋势,进而确定用户期望旋转用户界面的方向及弧度。
用户在拖拽用户界面时,其特有的动作特征通常会是:一根或几根手指做按住状或捏住状沿某一方向直线运动,同样得可以根据周期性采集的三维空间坐标来获取用户手指的移动方向和移动距离,进而依此来确定用户期望拖拽用户界面的方向及拖拽距离。
用户在缩小用户界面时,其特有的动作特征通常会是:掌心抬起,五指指尖收拢,同样得可以根据周期性采集的三维空间坐标来获取用户手指的收拢幅度,进而依此来确定用户期望缩小用户界面的幅度。
用户在放大用户界面时,其特有的动作特征通常会是:掌心抬起,五指指尖向外张开,同样得可以根据周期性采集的三维空间坐标来获取用户手指的张开幅度,进而依此来确定用户期望放大用户界面的幅度。
当用户需要对用户界面中的某一三维式功能选项做出操作时,通常情况下,用户会通过手部动作将用户界面中的三维虚拟手放在或靠近该三维式功能选项所在的位置。由此,当用户通过手部动作将用户界面中的三维虚拟手移放在或者靠近三维式功能选项所在的位置时,则认为用户期望的是对该三维式功能选项进行操作。
用户旋转、拖拽、放大、缩小三维式功能选项的操作与用户旋转、拖拽、放大、缩小用户界面的操作大致相同,不同之处只在于动作幅度的大小,可以根据动作幅度的大小来区分是对整个用户界面或只是某一三维式功能选项的操作。例如,用户在旋转用户界面时,通常五指张开的幅度较大,而用户在旋转用户界面中的某一三维式功能选项时,通常五指张开的幅度较小,同样的通过分析手部的三维空间坐标便能准确获取用户五指张开的幅度,如此可以将该幅度值与预设的幅度值进行比较,大于预设幅度值时,则认为用户期望的是旋转整个用户界面;小于预设幅度值时,则认为用户期望的是旋转三维式功能选项。
通常用户在请求执行三维式功能选项所对应的功能的操作包括:点击、按等。当用户期望执行某一三维式功能选项所对应的功能时,通常会通过移动手部将用户界面中的三维虚拟手置于或靠近该三维式功能选项所在的位置,依此,便可以确定用户期望是对该三维式选项进行操作。当用户做出点击动作时,其特有的动作特征通常会是:食指或中指抬起再放下,而手掌心和其它手指固定不动,由此,根据该操作其特有的动作特征,便可以确定用户期望执行该三维式功能选项所对应的功能。
本发明的实施例通过在用户界面上构建出与用户手部动作一致的三维虚拟手,使得用户可以通过用户界面中的三维虚拟手直接控制用户界面,用户不需要牵记特定的手势,也不需要佩戴传感器。并且由于用户通过三维虚拟手操作控制用户界面,因此可以同时提高用户视觉和触觉的真实度,提高用户体验度。
请参照图2,是本发明的用户界面控制方法的第二实施例的流程示意图。所述方法包括:
步骤S21,判断所需采集三维空间信息的物体的形状是否符合手型,如果判断结果为是则进入步骤S23,如果判断结果为否则进入步骤S22。
步骤S22,停止采集该物体的三维空间信息,并在用户界面上作出相应的提示。
步骤S23,周期性获取用户的手心面上的点在参考坐标系中的空间坐标。
三维空间坐标可以通过三维超声仪、三维摄像机、或者包含激光分光扫描器与两个摄像机的三维采集装置来获取。
其中,包含激光分光扫描器与两个摄像机的三维采集装置是基于双目立体视觉技术的。双目立体视觉方法就是利用两个摄像机模拟人眼双眼处理景物的方式,从两个视点观察同一场景,获得不同视角下的两个图像,然后通过计算图像对应点间的位置偏差,便能推断出场景中目标物体或目标点的三维空间信息。
具体地,激光分光扫描器包括:分光镜和红激光管。激光分光扫描器用于标定用户手部上的需要采集三维空间信息的点。
分光镜可以将红激光管产生的红激光束分散成多条平行于X轴方向的光线和多条平行于Y轴方向的光线,并且通常情况下,这些光线是肉眼不可见的。这些光线互相交织,形成在三维空间上有序排列的光线交点(这些光线交织点不止排布在XY平面上,在整个三维空间均有排布)。当用户的手部进入该光线交织区域时,位于用户手心面上的光线交织点即为需要采集三维空间信息的点。
双目立体视觉的基本原理如图6所示。图中分别以下标l和r标注左、右摄像机的相应参数。位于用户手心面上某一光线交织点A(X,Y,Z)在左右摄像机的成像面Cl和Cr上的像点分别为al(ul,vl)和ar(ur,vr)。这两个像点是A点的像,称为“共轭点”。分别作出这两个共轭像点与各自摄像机的光心Ol和Or的连线,即投影线alOl和arOr,它们的交点即为A点。因此在Ol、Or、al、ar四点已确定的前提下,通过计算便能得到A点在现实空间的三维坐标。
步骤S24,根据用户手心面上的点的三维空间坐标的变化,构建出与用户手心面动作一致的虚拟手心面;根据与用户手心面动作一致的虚拟手心面,构建出与用户手背面动作一致的虚拟手背面。
步骤S25,检测三维虚拟手对用户界面的操作,并根据检测到的操作,执行相应的功能。
通常三维虚拟手对用户界面的操作包括:旋转用户界面的操作、拖拽用户界面的操作、缩小用户界面的操作和放大用户界面的操作等。
此外,用户界面还包括:至少一个三维式的功能选项。相应地,三维虚拟手对用户界面的操作还包括:旋转三维式功能选项的操作、拖拽三维式功能选项的操作、缩小三维式功能选项的操作和放大三维式功能选项的操作、以及用于请求执行功能选项所对应的功能的操作。其中,三维式的功能选项可以是三维立体图形,每个三维立体图形可以对应一个或多个功能选项。用于请求执行功能选项所对应的功能的操作包括:拖拽、点击、按等。
通常情况下,用户通过三维虚拟手对用户界面的各种操作都会有其特有的动作特征,通过提取三维虚拟手的当前操作的动作特征信息,并将其与数据库中预存的动作特征(数据库中每一动作特征都会对应一控制命令)进行匹配,从而确定用户对用户界面下达的控制命令。
在检测三维虚拟手对用户界面的操作时,可以定期性将获取的手心面和/或手背面上的点的三维空间坐标进行抽样对比(例如每隔0.05秒将当前采集的三维空间坐标和前0.05秒采集的三维空间坐标进行比较),从而确定用户手部的动作趋势,再根据确定的用户手部动作趋势,来提取三维虚拟手的当前操作的动作特征信息。
发明的实施例通过在用户界面上构建出与用户手部动作一致的三维虚拟手,使得用户可以通过用户界面中的三维虚拟手直接控制用户界面,用户不需要牵记特定的手势,也不需要佩戴传感器。并且由于用户通过三维虚拟手操作控制用户界面,因此可以同时提高用户视觉和触觉的真实度,提高用户体验度。图1至图2对用户界面的控制方法的实施例进行了详细阐述后,下面将继续结合附图,对相应于上述方法流程的装置进行说明。
请参照图3,是本发明的用户界面的控制装置的实施例的结构示意图。所述控制装置100包括:
采集模块110,用于采集用户手部的三维空间信息。
其中,采集模块110的功能可以由三维超声仪、三维摄像机、或者包含激光分光扫描器与摄像机的三维采集装置来实现。
三维虚拟手构建模块120,用于根据采集的三维空间信息,在用户界面上构建出与用户手部动作一致的三维虚拟手。
为了更好的提高用户的视觉体验,用户界面可以设计成为虚拟三维式的。应该注意的是,三维虚拟手在虚拟三维式的用户界面中动作幅度与用户手部动作幅度一致或是等比例缩放。
用户手部的三维空间信息可以是用户手心面和/或手背面上的点在预设的参考坐标系中的三维空间坐标。
在构建三维虚拟手时,可以根据获取的手心面和/或手背面上的点的三维空间坐标,在三维的用户界面中构建出与用户手部具有相同或等比例缩放的位置坐标的三维虚拟手,值得注意的是,构建出的三维虚拟手与用户手部形状、大小相同或是其的等比例缩放。
为了能够获取用户手部的动作信息,三维空间信息的采集过程是周期性的,并且这个周期的时长很短,例如可以每0.01秒采集一次用户手心面和/或手背面的上点的三维空间坐标。根据多次采集的三维空间坐标,在用户界面中重复性构建出三维虚拟手,由于三维虚拟手的构建周期很短,这就使得用户在用户界面中看到的三维虚拟手的画面就是连续的,且三维虚拟手的动作与用户手部动作完全一致。
处理模块130,用于检测三维虚拟手对用户界面的操作,并根据检测到的操作,执行相应的功能。
通常三维虚拟手对用户界面的操作包括:旋转用户界面的操作、拖拽用户界面的操作、缩小用户界面的操作和放大用户界面的操作等。
此外,用户界面还包括:至少一个三维式的功能选项。相应地,三维虚拟手对用户界面的操作还包括:旋转三维式功能选项的操作、拖拽三维式功能选项的操作、缩小三维式功能选项的操作和放大三维式功能选项的操作、以及用于请求执行功能选项所对应的功能的操作。其中,三维式的功能选项可以是三维立体图形,每个三维立体图形可以对应一个或多个功能选项。用于请求执行功能选项所对应的功能的操作包括:拖拽、点击、按等。
通常情况下,用户通过三维虚拟手对用户界面的各种操作都会有其特有的动作特征,通过提取三维虚拟手的当前操作的动作特征信息,并将其与数据库中预存的动作特征(数据库中每一动作特征都会对应一控制命令)进行匹配,从而确定用户对用户界面下达的控制命令。
在检测三维虚拟手对用户界面的操作时,可以定期性将获取的手心面和/或手背面上的点的三维空间坐标进行抽样对比(例如每隔0.05秒将当前采集的三维空间坐标和前0.05秒采集的三维空间坐标进行比较),从而确定用户手部的动作趋势,再根据确定的用户手部动作趋势,来提取三维虚拟手的当前操作的动作特征信息。
例如,用户在旋转用户界面时,其特有的动作特征通常会是:手掌心抬起,五指指尖绕着手掌心转动。其相应的动作特征信息可以从周期性采集的三维空间坐标的来提取,通过将不同时间获取的用户手心面和/或手背面的三维空间坐标进行分析和对比,可以判定用户手部的动作趋势,进而确定用户期望旋转用户界面的方向及弧度。
用户在拖拽用户界面时,其特有的动作特征通常会是:一根或几根手指做按住状或捏住状沿某一方向直线运动,同样得可以根据周期性采集的三维空间坐标来获取用户手指的移动方向和移动距离,进而依此来确定用户期望拖拽用户界面的方向及拖拽距离。
用户在缩小用户界面时,其特有的动作特征通常会是:掌心抬起,五指指尖收拢,同样得可以根据周期性采集的三维空间坐标来获取用户手指的收拢幅度,进而依此来确定用户期望缩小用户界面的幅度。
用户在放大用户界面时,其特有的动作特征通常会是:掌心抬起,五指指尖向外张开,同样得可以根据周期性采集的三维空间坐标来获取用户手指的张开幅度,进而依此来确定用户期望放大用户界面的幅度。
当用户需要对用户界面中的某一三维式功能选项做出操作时,通常情况下,用户会通过手部动作将用户界面中的三维虚拟手放在或靠近该三维式功能选项所在的位置。由此,当用户通过手部动作将用户界面中的三维虚拟手移放在或者靠近三维式功能选项所在的位置时,则认为用户期望的是对该三维式功能选项进行操作。
用户旋转、拖拽、放大、缩小三维式功能选项的操作与用户旋转、拖拽、放大、缩小用户界面的操作大致相同,不同之处只在于动作幅度的大小,可以根据动作幅度的大小来区分是对整个用户界面或只是某一三维式功能选项的操作。例如,用户在旋转用户界面时,通常五指张开的幅度较大,而用户在旋转用户界面中的某一三维式功能选项时,通常五指张开的幅度较小,同样的通过分析手部的三维空间坐标便能准确获取用户五指张开的幅度,如此可以将该幅度值与预设的幅度值进行比较,大于预设幅度值时,则认为用户期望的是旋转整个用户界面;小于预设幅度值时,则认为用户期望的是旋转三维式功能选项。
通常用户在请求执行三维式功能选项所对应的功能的操作包括:点击、按等。当用户期望执行某一三维式功能选项所对应的功能时,通常会通过移动手部将用户界面中的三维虚拟手置于或靠近该三维式功能选项所在的位置,依此,便可以确定用户期望是对该三维式选项进行操作。当用户做出点击动作时,其特有的动作特征通常会是:食指或中指抬起再放下,而手掌心和其它手指固定不动,由此,根据该操作其特有的动作特征,便可以确定用户期望执行该三维式功能选项所对应的功能。
发明的实施例通过在用户界面上构建出与用户手部动作一致的三维虚拟手,使得用户可以通过用户界面中的三维虚拟手直接控制用户界面,用户不需要牵记特定的手势,也不需要佩戴传感器。并且由于用户通过三维虚拟手操作控制用户界面,因此可以同时提高用户视觉和触觉的真实度,提高用户体验度。请参照图4,是图3所示的采集模块的实施例的结构示意图。所述三维手型采集模块110包括:
判断单元111,用于判断所需采集三维空间信息的物体的形状是否符合手型,如果符合手型,则采集用户手部动作的三维空间信息;如不符合手型,则在用户界面中作出相应的提示。
坐标获取单元112,用于周期性获取用户的手心面上的点在参考坐标系中的空间坐标。
其中,坐标获取单元112可以由三维超声仪、三维摄像机、或者包含激光分光扫描器与两个摄像机的三维采集装置来实现。
其中,包含激光分光扫描器与两个摄像机的三维采集装置是基于双目立体视觉技术的。双目立体视觉方法就是利用两个摄像机模拟人眼双眼处理景物的方式,从两个视点观察同一场景,获得不同视角下的两个图像,然后通过计算图像对应点间的位置偏差,便能推断出场景中目标物体或目标点的三维空间信息。
用户手部的三维空间信息可以是用户手心面或手背面的三维空间信息,也可以是整只手的三维空间信息。为了减少数据处理量,可以只获取用户手心面的三维空间信息。
具体地,激光分光扫描器包括:分光镜和红激光管。激光分光扫描器用于标定用户手部上的需要采集三维空间信息的点。
分光镜可以将红激光管产生的红激光束分散成多条平行于X轴方向的光线和多条平行于Y轴方向的光线,并且通常情况下,这些光线是肉眼不可见的。这些光线互相交织,形成在三维空间上有序排列的光线交点(这些光线交织点不止排布在XY平面上,在整个三维空间均有排布)。当用户的手部进入该光线交织区域时,位于用户手心面上的光线交织点即为需要采集三维空间信息的点。
双目立体视觉的基本原理如图6所示。图中分别以下标l和r标注左、右摄像机的相应参数。位于用户手心面上某一光线交织点A(X,Y,Z)在左右摄像机的成像面Cl和Cr上的像点分别为al(ul,vl)和ar(ur,vr)。这两个像点是A点的像,称为“共轭点”。分别作出这两个共轭像点与各自摄像机的光心Ol和Or的连线,即投影线alOl和arOr,它们的交点即为A点。因此在Ol、Or、al、ar四点已确定的前提下,通过计算便能得到A点在现实空间的三维坐标。
请参照图5,是图3所示的三维虚拟手构建模块的实施例的结构示意图。所述三维虚拟手构建模块120包括:
手心面构建单元121,用于根据用户手心面上的点的三维空间坐标的变化,构建出与用户手心面动作一致的虚拟手心面;
手背面构建单元122,用于根据与用户手心面动作一致的虚拟手心面,构建出与用户手背面动作一致的虚拟手背面。
由于三维手型采集模块只是获取手心面上部分点的空间坐标,在构建虚拟手心面时,手心面构建单元121会根据用户手心面上已获取的点的空间坐标来模拟重现手心面上其它点的坐标,从而得到完整的手心面。
本发明在上述实施例中所提及的旋转、拖拽、缩小、放大、点击等操作都只是作为举例说明,在本发明的实施例中,还可以包括其它界面操作。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random Access Memory,RAM)等。
以上所揭露的仅为本发明一种较佳实施例而已,当然不能以此来限定本发明之权利范围,本领域普通技术人员可以理解实现上述实施例的全部或部分流程,并依本发明权利要求所作的等同变化,仍属于发明所涵盖的范围。

Claims (10)

1.一种用户界面控制方法,其特征在于,包括:
采集用户手部的三维空间信息;
根据所述采集的三维空间信息,在用户界面上构建出与用户手部动作一致的三维虚拟手;
检测所述三维虚拟手对所述用户界面的操作,并根据所述检测到的操作,执行相应的功能,其中,将所述三维虚拟手针对用户界面的操作的动作特征与数据库中预存的动作特征进行匹配,生成针对用户界面的控制命令,以对用户界面执行相应的功能;
在检测所述三维虚拟手对所述用户界面的操作时,定期将获取的手心面和/或手背面上的点的三维空间坐标进行抽样对比,从而确定用户手部的动作趋势,根据所述动作趋势提取所述三维虚拟手当前操作的所述动作特征。
2.如权利要求1所述的方法,其特征在于,所述采集用户手部动作的三维空间信息包括:
周期性获取用户的手心面上的点在参考坐标系中的空间坐标。
3.如权利要求2所述方法,其特征在于,所述根据所述采集的三维空间信息,在用户界面上构建出与用户手部动作一致的三维虚拟手包括:
根据用户手心面上的点的三维空间坐标的变化,构建出与用户手心面动作一致的虚拟手心面;
根据所述与用户手心面动作一致的虚拟手心面,构建出与用户手背面动作一致的虚拟手背面。
4.如权利要求1所述的方法,其特征在于,所述三维虚拟手对用户界面的操作包括:旋转所述用户界面的操作、拖拽所述用户界面的操作、缩小所述用户界面的操作和放大所述用户界面的操作中的至少一项。
5.如权利要求4所述的方法,其特征在于,所述用户界面还包括:至少一个三维式的功能选项;
所述三维虚拟手对用户界面的操作还包括:用于请求执行所述功能选项所对应的功能的操作。
6.一种用户界面的操作控制装置,其特征在于,包括:
采集模块,用于采集用户手部的三维空间信息;
三维虚拟手构建模块,用于根据所述采集的三维空间信息,在用户界面上构建出与用户手部动作一致的三维虚拟手;
处理模块,用于检测所述三维虚拟手对所述用户界面的操作,并根据所述检测到的操作,执行相应的功能,其中,将所述三维虚拟手针对用户界面的操作的动作特征与数据库中预存的动作特征进行匹配,生成针对用户界面的控制命令,以对用户界面执行相应的功能;
所述处理模块在检测所述三维虚拟手对所述用户界面的操作时,定期将获取的手心面和/或手背面上的点的三维空间坐标进行抽样对比,从而确定用户手部的动作趋势,根据所述动作趋势提取所述三维虚拟手当前操作的所述动作特征。
7.如权利要求6所述的装置,其特征在于,所述采集模块包括:
坐标获取单元,用于周期性获取用户的手心面上的点在参考坐标系中的空间坐标。
8.如权利要求7所述的装置,其特征在于,所述三维虚拟手构建模块包括:
手心面构建单元,用于根据用户手心面上的点的三维空间坐标的变化,构建出与用户手心面动作一致的虚拟手心面;
手背面构建单元,用于根据所述与用户手心面动作一致的虚拟手心面,构建出与用户手背面动作一致的虚拟手背面。
9.如权利要求6所述的装置,其特征在于,所述三维虚拟手对用户界面的操作包括:旋转所述用户界面的操作、拖拽所述用户界面的操作、缩小所述用户界面的操作和放大所述用户界面的操作中的至少一项。
10.如权利要求9所述的装置,其特征在于,所述用户界面还包括:至少一个三维式的功能选项;
所述三维虚拟手对用户界面的操作还包括:用于请求执行所述功能选项所对应的功能的操作。
CN201210098842.6A 2012-04-06 2012-04-06 一种用户界面的控制方法及装置 Active CN102650906B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201210098842.6A CN102650906B (zh) 2012-04-06 2012-04-06 一种用户界面的控制方法及装置
PCT/CN2012/086000 WO2013149475A1 (zh) 2012-04-06 2012-12-06 一种用户界面的控制方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210098842.6A CN102650906B (zh) 2012-04-06 2012-04-06 一种用户界面的控制方法及装置

Publications (2)

Publication Number Publication Date
CN102650906A CN102650906A (zh) 2012-08-29
CN102650906B true CN102650906B (zh) 2015-11-04

Family

ID=46692919

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210098842.6A Active CN102650906B (zh) 2012-04-06 2012-04-06 一种用户界面的控制方法及装置

Country Status (2)

Country Link
CN (1) CN102650906B (zh)
WO (1) WO2013149475A1 (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102650906B (zh) * 2012-04-06 2015-11-04 深圳创维数字技术有限公司 一种用户界面的控制方法及装置
CN103150022B (zh) * 2013-03-25 2016-09-21 深圳泰山体育科技股份有限公司 手势识别方法及装置
CN105353873B (zh) * 2015-11-02 2019-03-15 深圳奥比中光科技有限公司 基于三维显示的手势操控方法和系统
CN105929933A (zh) * 2015-12-22 2016-09-07 北京蚁视科技有限公司 一种用于三维显示环境中的交互识别方法
DE102016206142A1 (de) * 2016-04-13 2017-10-19 Volkswagen Aktiengesellschaft Anwenderschnittstelle, Fortbewegungsmittel und Verfahren zur Erkennung einer Hand eines Anwenders
CN106095107A (zh) * 2016-06-21 2016-11-09 南京邮电大学 一种应用于智能移动轮椅的手势交互控制方法
CN109644181B (zh) * 2017-12-29 2021-02-26 腾讯科技(深圳)有限公司 一种多媒体信息分享的方法、相关装置及系统
CN111885406A (zh) * 2020-07-30 2020-11-03 深圳创维-Rgb电子有限公司 智能电视控制方法、装置、可旋转电视和可读存储介质
CN113419636B (zh) * 2021-08-23 2021-11-30 北京航空航天大学 虚拟维修中手势识别方法及工具自动匹配方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101236454A (zh) * 2007-01-30 2008-08-06 丰田自动车株式会社 操作装置
CN102184342A (zh) * 2011-06-15 2011-09-14 青岛科技大学 一种虚实融合的手功能康复训练系统及方法
CN102350700A (zh) * 2011-09-19 2012-02-15 华南理工大学 一种基于视觉的机器人控制方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102650906B (zh) * 2012-04-06 2015-11-04 深圳创维数字技术有限公司 一种用户界面的控制方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101236454A (zh) * 2007-01-30 2008-08-06 丰田自动车株式会社 操作装置
CN102184342A (zh) * 2011-06-15 2011-09-14 青岛科技大学 一种虚实融合的手功能康复训练系统及方法
CN102350700A (zh) * 2011-09-19 2012-02-15 华南理工大学 一种基于视觉的机器人控制方法

Also Published As

Publication number Publication date
WO2013149475A1 (zh) 2013-10-10
CN102650906A (zh) 2012-08-29

Similar Documents

Publication Publication Date Title
CN102650906B (zh) 一种用户界面的控制方法及装置
US20190126484A1 (en) Dynamic Multi-Sensor and Multi-Robot Interface System
KR102445364B1 (ko) 시야 주위의 시각적 아우라
CN102662577B (zh) 一种基于三维显示的光标操作方法及移动终端
EP2755194B1 (en) 3d virtual training system and method
CN116724285A (zh) 用于控制虚拟和图形元素的微手势
JP5936155B2 (ja) 3次元ユーザインタフェース装置及び3次元操作方法
JP2022540315A (ja) 人工現実環境において周辺デバイスを使用する仮想ユーザインターフェース
CN117178247A (zh) 用于动画化及控制虚拟和图形元素的手势
JP5871345B2 (ja) 3次元ユーザインタフェース装置及び3次元操作方法
EP3283938B1 (en) Gesture interface
CN104246682A (zh) 增强的虚拟触摸板和触摸屏
JP2013069224A (ja) 動作認識装置、動作認識方法、操作装置、電子機器、及び、プログラム
JP2013037675A5 (zh)
US20150074573A1 (en) Information display device, information display method and information display program
CN106708270A (zh) 一种虚拟现实设备的显示方法、装置以及虚拟现实设备
US20200143600A1 (en) Augmented reality method, system and terminal device of displaying and controlling virtual content via interaction device
US20210405772A1 (en) Augmented reality eyewear 3d painting
JP2018092313A (ja) 情報処理装置、情報処理方法およびプログラム
CN108292448A (zh) 信息处理装置、信息处理方法和程序
WO2019102825A1 (ja) レンダリング装置及びレンダリング方法
CN109725782A (zh) 一种实现虚拟现实的方法、装置及智能设备、存储介质
CN109144598A (zh) 基于手势的电子面罩人机交互方法与系统
CN108369477A (zh) 信息处理装置、信息处理方法和程序
CN106095088B (zh) 一种电子设备及其图像处理方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C53 Correction of patent for invention or patent application
CB02 Change of applicant information

Address after: 518000 Guangdong city of Shenzhen province Nanshan District Gao Xin Road Building A14, SKYWORTH

Applicant after: Shenzhen Skyworth Digital Technology Co., Ltd.

Applicant after: Shenzhen Skyworth Software Co., Ltd.

Address before: 518000 Guangdong city of Shenzhen province Nanshan District Gao Xin Road Building A14, SKYWORTH

Applicant before: Shenzhen Skyworth Digital Technology Co., Ltd.

Applicant before: Shenzhen Skyworth Software Co., Ltd.

COR Change of bibliographic data

Free format text: CORRECT: APPLICANT; FROM: SKY-WORTH DIGITAL TECHNOLOGY CO., LTD.;SHENZHEN CITY TO: SHENZHEN SKYWORTH DIGITAL TECHNOLOGY CO., LTD.

C14 Grant of patent or utility model
GR01 Patent grant