CN110187771A - 凌空手势交互方法、装置、可穿戴设备及计算机存储介质 - Google Patents
凌空手势交互方法、装置、可穿戴设备及计算机存储介质 Download PDFInfo
- Publication number
- CN110187771A CN110187771A CN201910474652.1A CN201910474652A CN110187771A CN 110187771 A CN110187771 A CN 110187771A CN 201910474652 A CN201910474652 A CN 201910474652A CN 110187771 A CN110187771 A CN 110187771A
- Authority
- CN
- China
- Prior art keywords
- gesture
- air
- data
- control instruction
- feature data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 51
- 238000000034 method Methods 0.000 title claims abstract description 51
- 239000013598 vector Substances 0.000 claims abstract description 112
- 238000000605 extraction Methods 0.000 claims abstract description 39
- 230000003542 behavioural effect Effects 0.000 claims description 27
- 238000004590 computer program Methods 0.000 claims description 9
- 239000000284 extract Substances 0.000 claims description 6
- 230000002452 interceptive effect Effects 0.000 abstract description 9
- 230000006870 function Effects 0.000 description 25
- 230000006854 communication Effects 0.000 description 17
- 238000004891 communication Methods 0.000 description 16
- 210000003811 finger Anatomy 0.000 description 12
- 230000033001 locomotion Effects 0.000 description 10
- 210000003813 thumb Anatomy 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 230000006399 behavior Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 238000005452 bending Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000004804 winding Methods 0.000 description 3
- 241001269238 Data Species 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000005764 inhibitory process Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001144 postural effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- GNFTZDOKVXKIBK-UHFFFAOYSA-N 3-(2-methoxyethoxy)benzohydrazide Chemical compound COCCOC1=CC=CC(C(=O)NN)=C1 GNFTZDOKVXKIBK-UHFFFAOYSA-N 0.000 description 1
- 241001133760 Acoelorraphe Species 0.000 description 1
- 241001133794 Acoelorraphe wrightii Species 0.000 description 1
- FGUUSXIOTUKUDN-IBGZPJMESA-N C1(=CC=CC=C1)N1C2=C(NC([C@H](C1)NC=1OC(=NN=1)C1=CC=CC=C1)=O)C=CC=C2 Chemical compound C1(=CC=CC=C1)N1C2=C(NC([C@H](C1)NC=1OC(=NN=1)C1=CC=CC=C1)=O)C=CC=C2 FGUUSXIOTUKUDN-IBGZPJMESA-N 0.000 description 1
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 1
- YTAHJIFKAKIKAV-XNMGPUDCSA-N [(1R)-3-morpholin-4-yl-1-phenylpropyl] N-[(3S)-2-oxo-5-phenyl-1,3-dihydro-1,4-benzodiazepin-3-yl]carbamate Chemical compound O=C1[C@H](N=C(C2=C(N1)C=CC=C2)C1=CC=CC=C1)NC(O[C@H](CCN1CCOCC1)C1=CC=CC=C1)=O YTAHJIFKAKIKAV-XNMGPUDCSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000005314 correlation function Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 239000012769 display material Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 229910021389 graphene Inorganic materials 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 210000004932 little finger Anatomy 0.000 description 1
- 230000001404 mediated effect Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000003387 muscular Effects 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请公开了一种凌空手势交互方法、装置、可穿戴设备和计算机可读存储介质,所述凌空手势交互方法包括:基于所述摄像头捕捉第一凌空手势动态数据,并解析所述第一凌空动态数据以获取第一姿势矢量和第一方向矢量;对所述第一姿势矢量和所述第一方向矢量进行特征提取,以获取第一特征数据;根据所述第一特征数据与预存的标准特征模型进行特征比对,以获取与所述第一特征数据对应的第一控制指令;基于所述第一控制指令执行控制操作。本申请解决了目前可穿戴设备的凌空手势的交互方式太少,并且手势过于单一,无法实现复杂的凌空手势交互功能的技术问题。
Description
技术领域
本申请涉及手势交互领域,尤其涉及一种凌空手势交互方法、装置、可穿戴设备及计算机可读存储介质。
背景技术
随着电子设备的快速发展和科技终端的普及,越来越多的人们使用上了可穿戴式设备等终端。目前较为智能的可穿戴设备(如腕机)支持凌空手势,凌空手势是非接触的手势,可在感应器上空执行操作,使得腕机执行下一步动作的交互方式,它是一种新型的交互方式,是手势未来的发展趋势。
但是,现有的凌空手势只有上下、左右滑动屏幕,能操作的凌空手势非常少,没有点击、选择、退出等手势,而且用户最终还是要回到点击屏幕的原始方式。用户可选择使用的凌空手势的交互方式太少,并且手势过于单一,无法实现复杂的凌空手势交互功能,因此如何丰富凌空手势的交互功能,使得凌空手势多元化成为了目前亟待解决的技术问题。
发明内容
本发明的主要目的在于提供一种凌空手势交互方法、装置、可穿戴设备以及计算机可读存储介质,旨在解决目前凌空手势的交互方式太少,并且手势过于单一,无法实现复杂的凌空手势交互功能的技术问题。
为实现上述目的,本发明实施例提供一种凌空手势交互方法,所述可穿戴设备上设置摄像头,所述凌空手势交互方法包括:
基于所述摄像头捕捉第一凌空手势动态数据,并解析所述第一凌空动态数据以获取第一姿势矢量和第一方向矢量;
对所述第一姿势矢量和所述第一方向矢量进行特征提取,以获取第一特征数据;
根据所述第一特征数据与预存的标准特征模型进行特征比对,以获取与所述第一特征数据对应的第一控制指令;
基于所述第一控制指令执行控制操作。
可选地,所述对所述第一姿势矢量和所述第一方向矢量进行特征提取,以获取第一特征数据的步骤包括:
提取第一姿势矢量在各个预设瞬时区间的第一动态特征,并提取第一方向矢量在各个预设瞬时区间的第二动态特征;
将处于相同预设瞬时区间的第一动态特征和第二动态特征进行特征匹配,以获取第一特征数据。
可选地,
所述根据所述第一特征数据与预存的标准特征模型进行特征比对,以获取与所述第一特征数据对应的第一控制指令的步骤包括:
计算所述标准特征模型中所有标准特征数据与第一特征数据的数据误差率;
若检测到最小的数据误差率小于预设误差率,则获取所述最小的数据误差率对应的目标特征数据;
将所述目标特征数据对应的控制指令确定为第一控制指令。
可选地,所述第一凌空手势动态数据包括肤色纹理特征数据,
所述根据所述第一特征数据与预存的标准特征模型进行特征比对,以获取与所述第一特征数据对应的第一控制指令的步骤还包括:
解析所述第一凌空动态数据以获取肤色纹理特征数据;
将第一特征数据和所述肤色纹理特征数据与预存的标准特征模型进行特征比对,以确定与所述第一特征数据和所述肤色纹理特征数据对应的第一控制指令。
可选地,所述根据所述第一特征数据与预存的标准特征模型进行特征比对,以获取与所述第一特征数据对应的第一控制指令的步骤还包括:
若未获取到与所述第一特征数据对应的第一控制指令,则输出手势识别失败的提示信息。
可选地,所述方法还包括:
若检测到基于所述提示信息触发的自定义手势指令,则启动所述摄像头,并基于所述摄像头捕捉第二凌空手势动态数据;
解析所述第二凌空动态数据以获取第二姿势矢量和第二方向矢量;
对所述第二姿势矢量和所述第二方向矢量进行特征提取,以获取第二特征数据;
获取标准特征模型的所有控制指令,并获取用户从所有控制指令中触发的待选指令,将所述待选指令设置为第二特征数据对应的第二控制指令;
将所述第二特征数据和第二控制指令保存至所述标准特征模型。
可选地,所述方法还包括:
若检测到用户输入的手势组合指令,则输出所述标准特征模型中的所有标准凌空手势以及各标准凌空手势的控制指令;
获取基于所有标准凌空手势的选择指令,并获取所述选择指令对应的待选手势的指定顺序,所述待选手势包括多项标准凌空手势;
若检测到基于所述待选手势对应的手势组合指令,则按所述指定顺序将各待选手势的待选控制指令组合为第三控制指令;
基于所述摄像头捕捉第三凌空手势动态数据,并解析所述第三凌空动态数据以获取第三姿势矢量和第三方向矢量;
对所述第三姿势矢量和所述第三方向矢量进行特征提取,以获取第三特征数据;
将所述第三控制指令与所述第三特征数据进行绑定,并保存至所述标准特征模型中。
此外,本发明还提供一种凌空手势交互装置,所述凌空手势交互装置应用于可穿戴终端,所述凌空手势交互装置包括:
第一解析模块,用于基于所述摄像头捕捉第一凌空手势动态数据,并解析所述第一凌空动态数据以获取第一姿势矢量和第一方向矢量;
第一提取模块,用于对所述第一姿势矢量和所述第一方向矢量进行特征提取,以获取第一特征数据;
第一比对模块,用于根据所述第一特征数据与预存的标准特征模型进行特征比对,以获取与所述第一特征数据对应的第一控制指令;
第一控制模块,用于基于所述第一控制指令执行控制操作。
可选地,所述第一提取模块包括:
提取单元,用于提取第一姿势矢量在各个预设瞬时区间的第一动态特征,并提取第一方向矢量在各个预设瞬时区间的第二动态特征;
匹配单元,用于将处于相同预设瞬时区间的第一动态特征和第二动态特征进行特征匹配,以获取第一特征数据。
可选地,所述第一比对模块包括:
计算单元,用于计算所述标准特征模型中所有标准特征数据与第一特征数据的数据误差率;
获取单元,用于若检测到最小的数据误差率小于预设误差率,则获取所述最小的数据误差率对应的目标特征数据;
确定单元,用于将所述目标特征数据对应的控制指令确定为第一控制指令。
可选地,所述第一凌空手势动态数据包括肤色纹理特征数据,所述第一比对模块还包括:
解析单元,用于解析所述第一凌空动态数据以获取肤色纹理特征数据;
比对单元,用于将第一特征数据和所述肤色纹理特征数据与预存的标准特征模型进行特征比对,以确定与所述第一特征数据和所述肤色纹理特征数据对应的第一控制指令。
可选地,所述第一比对模块还包括:
提示单元,用于若未获取到与所述第一特征数据对应的第一控制指令,则输出手势识别失败的提示信息。
可选地,所述凌空手势交互装置还包括:
自定义模块,用于若检测到基于所述提示信息触发的自定义手势指令,则启动所述摄像头,并基于所述摄像头捕捉第二凌空手势动态数据;
第二解析模块,用于解析所述第二凌空动态数据以获取第二姿势矢量和第二方向矢量;
第二提取模块,用于对所述第二姿势矢量和所述第二方向矢量进行特征提取,以获取第二特征数据;
设置模块,用于获取标准特征模型的所有控制指令,并获取用户从所有控制指令中触发的待选指令,将所述待选指令设置为第二特征数据对应的第二控制指令;
保存模块,用于将所述第二特征数据和第二控制指令保存至所述标准特征模型。
可选地,所述凌空手势交互装置还包括:
输出模块,用于若检测到用户输入的手势组合指令,则输出所述标准特征模型中的所有标准凌空手势以及各标准凌空手势的控制指令;
获取模块,用于获取基于所有标准凌空手势的选择指令,并获取所述选择指令对应的待选手势的指定顺序,所述待选手势包括多项标准凌空手势;
组合模块,用于若检测到基于所述待选手势对应的手势组合指令,则按所述指定顺序将各待选手势的待选控制指令组合为第三控制指令;
第三解析模块,用于基于所述摄像头捕捉第三凌空手势动态数据,并解析所述第三凌空动态数据以获取第三姿势矢量和第三方向矢量;
第三提取模块,用于对所述第三姿势矢量和所述第三方向矢量进行特征提取,以获取第三特征数据;
绑定模块,用于将所述第三控制指令与所述第三特征数据进行绑定,并保存至所述标准特征模型中。
此外,为实现上述目的,本发明还提供一种可穿戴设备;
所述可穿戴设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其中:
所述计算机程序被所述处理器执行时实现如上所述的凌空手势交互方法的步骤。
此外,为实现上述目的,本发明还提供计算机存储介质;
所述计算机存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上述的凌空手势交互方法的步骤。
本发明实施例提出的一种凌空手势交互方法、装置、设备及计算机可读存储介质,所述方法包括:基于所述摄像头捕捉第一凌空手势动态数据,并解析所述第一凌空动态数据以获取第一姿势矢量和第一方向矢量;对所述第一姿势矢量和所述第一方向矢量进行特征提取,以获取第一特征数据;根据所述第一特征数据与预存的标准特征模型进行特征比对,以获取与所述第一特征数据对应的第一控制指令;基于所述第一控制指令执行控制操作。本发明通过在可穿戴设备进行凌空手势的解析提取和比对,完成凌空手势的控制指令,该方案根据姿势和方向两个因子完成整体手势的匹配,从而完成对复杂手势的识别和反馈。本发明为可穿戴设备提供了新的手势交互方案,丰富了凌空手势的交互方式,为凌空手势交互提供了更多的数据样本,使得凌空手势的操作更加多样化,从而能够胜任更复杂的凌空手势,解决了目前可穿戴设备的凌空手势的交互方式太少,并且手势过于单一,无法实现复杂的凌空手势交互功能的技术问题。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的可穿戴设备一种实施方式的硬件结构示意图;
图2为本申请实施例提供可穿戴设备一种实施方式第一视角的硬件示意图;
图3为本申请实施例提供可穿戴设备一种实施方式第二视角的硬件示意图;
图4为本申请实施例提供可穿戴设备一种实施方式第三视角的硬件示意图;
图5为本申请实施例提供的穿戴设备一种实施方式第四视角的硬件示意图;
图6为本申请实施例提供凌空手势交互方法一实施例的流程示意图;
图7为图6中步骤S20的细化流程示意图。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
在后续的描述中,使用用于表示元件的诸如“模块”、“部件”或“单元”的后缀仅为了有利于本发明的说明,其本身没有特定的意义。因此,“模块”、“部件”或“单元”可以混合地使用。
本发明实施例中提供的可穿戴设备包括智能手环、智能手表、以及智能手机等移动终端。随着屏幕技术的不断发展,柔性屏、折叠屏等屏幕形态的出现,智能手机等移动终端也可以作为可穿戴设备。本发明实施例中提供的可穿戴设备可以包括:RF(RadioFrequency,射频)单元、WiFi模块、音频输出单元、A/V(音频/视频)输入单元、传感器、显示单元、用户输入单元、接口单元、存储器、处理器、以及电源等部件。
后续描述中将以可穿戴设备为例进行说明,请参阅图1,其为实现本发明各个实施例的一种可穿戴设备的硬件结构示意图,该可穿戴设备100可以包括:RF(RadioFrequency,射频)单元101、WiFi模块102、音频输出单元103、A/V(音频/视频)输入单元104、传感器105、显示单元106、用户输入单元107、接口单元108、存储器109、处理器110、以及电源111等部件。本领域技术人员可以理解,图1中示出的可穿戴设备结构并不构成对可穿戴设备的限定,可穿戴设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
下面结合图1对可穿戴设备的各个部件进行具体的介绍:
射频单元101可用于收发信息或通话过程中,信号的接收和发送,具体的,射频单元101可以将上行信息发送给基站,另外也可以将基站发送的下行信息接收后,发送给可穿戴设备的处理器110处理,基站向射频单元101发送的下行信息可以是根据射频单元101发送的上行信息生成的,也可以是在检测到可穿戴设备的信息更新后主动向射频单元101推送的,例如,在检测到可穿戴设备所处的地理位置发生变化后,基站可以向可穿戴设备的射频单元101发送地理位置变化的消息通知,射频单元101在接收到该消息通知后,可以将该消息通知发送给可穿戴设备的处理器110处理,可穿戴设备的处理器110可以控制该消息通知显示在可穿戴设备的显示面板1061上;通常,射频单元101包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器、双工器等。此外,射频单元101还可以通过无线通信与网络和其他设备通信,具体的可以包括:通过无线通信与网络系统中的服务器通信,例如,可穿戴设备可以通过无线通信从服务器中下载文件资源,比如可以从服务器中下载应用程序,在可穿戴设备将某一应用程序下载完成之后,若服务器中该应用程序对应的文件资源更新,则该服务器可以通过无线通信向可穿戴设备推送资源更新的消息通知,以提醒用户对该应用程序进行更新。上述无线通信可以使用任一通信标准或协议,包括但不限于GSM(Global System of Mobile communication,全球移动通讯系统)、GPRS(GeneralPacket Radio Service,通用分组无线服务)、CDMA2000(Code Division Multiple Access2000,码分多址2000)、WCDMA(Wideband Code Division Multiple Access,宽带码分多址)、TD-SCDMA(Time Division-Synchronous Code Division Multiple Access,时分同步码分多址)、FDD-LTE(Frequency Division Duplexing-Long Term Evolution,频分双工长期演进)和TDD-LTE(Time Division Duplexing-Long Term Evolution,分时双工长期演进)等。
在一种实施方式中,可穿戴设备100可以通过插入SIM卡来接入现有的通信网络。
在另一种实施方式中,可穿戴设备100可以通过设置esim卡(Embedded-SIM),来实现接入现有的通信网络,采用esim卡的方式,可以节省可穿戴设备的内部空间,降低厚度。
可以理解的是,虽然图1示出了射频单元101,但是可以理解的是,射频单元101其并不属于可穿戴设备的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。,可穿戴设备100可以单独通过wifi模块102来实现与其他设备或通信网络的通信连接,本发明实施例并不以此为限。
WiFi属于短距离无线传输技术,可穿戴设备通过WiFi模块102可以帮助用户收发电子邮件、浏览网页和访问流式媒体等,它为用户提供了无线的宽带互联网访问。虽然图1示出了WiFi模块102,但是可以理解的是,其并不属于可穿戴设备的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。
音频输出单元103可以在可穿戴设备100处于呼叫信号接收模式、通话模式、记录模式、语音识别模式、广播接收模式等等模式下时,将射频单元101或WiFi模块102接收的或者在存储器109中存储的音频数据转换成音频信号并且输出为声音。而且,音频输出单元103还可以提供与可穿戴设备100执行的特定功能相关的音频输出(例如,呼叫信号接收声音、消息接收声音等等)。音频输出单元103可以包括扬声器、蜂鸣器等等。
A/V输入单元104用于接收音频或视频信号。A/V输入单元104可以包括图形处理器(Graphics Processing Unit,GPU)1041和麦克风1042,图形处理器1041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。处理后的图像帧可以显示在显示单元106上。经图形处理器1041处理后的图像帧可以存储在存储器109(或其它存储介质)中或者经由射频单元101或WiFi模块102进行发送。麦克风1042可以在电话通话模式、记录模式、语音识别模式等等运行模式中经由麦克风1042接收声音(音频数据),并且能够将这样的声音处理为音频数据。处理后的音频(语音)数据可以在电话通话模式的情况下转换为可经由射频单元101发送到移动通信基站的格式输出。麦克风1042可以实施各种类型的噪声消除(或抑制)算法以消除(或抑制)在接收和发送音频信号的过程中产生的噪声或者干扰。
在一种实施方式中,可穿戴设备100包括有一个或多个摄像头,通过开启摄像头,能够实现对图像的捕获,实现拍照、录像等功能,摄像头的位置可以根据需要进行设置。
可穿戴设备100还包括至少一种传感器105,比如光传感器、运动传感器以及其他传感器。具体地,光传感器包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板1061的亮度,接近传感器可在可穿戴设备100移动到耳边时,关闭显示面板1061和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别手机姿态的应用(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等。
在一种实施方式中,可穿戴设备100还包括接近传感器,通过采用接近传感器,可穿戴设备能够实现非接触操控,提供更多的操作方式。
在一种实施方式中,可穿戴设备100还包括心率传感器,在佩戴时,通过贴近使用者,能够实现心率的侦测。
在一种实施方式中,可穿戴设备100还可以包括指纹传感器,通过读取指纹,能够实现安全验证等功能。
显示单元106用于显示由用户输入的信息或提供给用户的信息。显示单元106可包括显示面板1061,可以采用液晶显示器(Liquid Crystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板1061。
在一种实施方式中,显示面板1061采用柔性显示屏,采用柔性显示屏的可穿戴设备在佩戴时,屏幕能够进行弯曲,从而更加贴合。可选的,所述柔性显示屏可以采用OLED屏体以及石墨烯屏体,在其他实施方式中,所述柔性显示屏也可以是其他显示材料,本实施例并不以此为限。
在一种实施方式中,可穿戴设备的显示面板1061可以采取长方形,便于佩戴时环绕。在其他实施方式中,也可以采取其他方式。
用户输入单元107可用于接收输入的数字或字符信息,以及产生与可穿戴设备的用户设置以及功能控制有关的键信号输入。具体地,用户输入单元107可包括触控面板1071以及其他输入设备1072。触控面板1071,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板1071上或在触控面板1071附近的操作),并根据预先设定的程式驱动相应的连接装置。触控面板1071可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器110,并能接收处理器110发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板1071。除了触控面板1071,用户输入单元107还可以包括其他输入设备1072。具体地,其他输入设备1072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种,具体此处不做限定。
在一种实施方式中,可穿戴设备100的侧边可以设置有一个或多个按钮。按钮可以实现短按、长按、旋转等多种方式,从而实现多种操作效果。按钮的数量可以为多个,不同的按钮之间可以组合使用,实现多种操作功能。
进一步的,触控面板1071可覆盖显示面板1061,当触控面板1071检测到在其上或附近的触摸操作后,传送给处理器110以确定触摸事件的类型,随后处理器110根据触摸事件的类型在显示面板1061上提供相应的视觉输出。虽然在图1中,触控面板1071与显示面板1061是作为两个独立的部件来实现可穿戴设备的输入和输出功能,但是在某些实施例中,可以将触控面板1071与显示面板1061集成而实现可穿戴设备的输入和输出功能,具体此处不做限定。比如,当通过射频单元101接收到某一应用程序的消息通知时,处理器110可以控制将该消息通知显示在显示面板1061的某一预设区域内,该预设区域与触控面板1071的某一区域对应,通过对触控面板1071某一区域进行触控操作,可以对显示面板1061上对应区域内显示的消息通知进行控制。
接口单元108用作至少一个外部装置与可穿戴设备100连接可以通过的接口。例如,外部装置可以包括有线或无线头戴式耳机端口、外部电源(或电池充电器)端口、有线或无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。接口单元108可以用于接收来自外部装置的输入(例如,数据信息、电力等等)并且将接收到的输入传输到可穿戴设备100内的一个或多个元件或者可以用于在可穿戴设备100和外部装置之间传输数据。
在一种实施方式中,可穿戴设备100的接口单元108采用触点的结构,通过触点与对应的其他设备连接,实现充电、连接等功能。采用触点还可以防水。
存储器109可用于存储软件程序以及各种数据。存储器109可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器109可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
处理器110是可穿戴设备的控制中心,利用各种接口和线路连接整个可穿戴设备的各个部分,通过运行或执行存储在存储器109内的软件程序和/或模块,以及调用存储在存储器109内的数据,执行可穿戴设备的各种功能和处理数据,从而对可穿戴设备进行整体监控。处理器110可包括一个或多个处理单元;优选的,处理器110可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器110中。
可穿戴设备100还可以包括给各个部件供电的电源111(比如电池),优选的,电源111可以通过电源管理系统与处理器110逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
尽管图1未示出,可穿戴设备100还可以包括蓝牙模块等,在此不再赘述。可穿戴设备100通过蓝牙,可以与其他终端设备连接,实现通信以及信息的交互。
请参考图2-图4,为本发明实施例提供的一种可穿戴设备一种实施方式下的结构示意图。本发明实施例中的可穿戴设备,包括柔性屏幕。在可穿戴设备展开时,柔性屏幕呈长条形;在可穿戴设备处于佩戴状态时,柔性屏幕弯曲呈环状。图2及图3示出了可穿戴设备屏幕展开时的结构示意图,图4示出了可穿戴设备屏幕弯曲时的结构示意图。
基于上述各个实施方式,可以看到,若所述设备为手表、手环或者可穿戴式设备时,所述设备的屏幕可以不覆盖设备的表带区域,也可以覆盖设备的表带区域。在此,本申请提出一种可选的实施方式,在本实施方式中,所述设备可以为手表、手环或者可穿戴式设备,所述设备包括屏幕以及连接部。所述屏幕可以为柔性屏幕,所述连接部可以为表带。可选的,所述设备的屏幕或者屏幕的显示区可以部分或者全部的覆盖在设备的表带上。如图5所示,图5为本申请实施例提供的一种可穿戴设备一种实施方式的硬件示意图,所述设备的屏幕向两侧延伸,部分的覆盖在设备的表带上。在其他实施方式中,所述设备的屏幕也可以全部覆盖在所述设备的表带上,本申请实施例并不以此为限。
本发明提供一种凌空手势交互方法,该凌空手势交互方法主要应用于可穿戴设备上,在凌空手势交互方法一实施例中,参照图6,所述凌空手势交互方法包括:
步骤S10,基于所述摄像头捕捉第一凌空手势动态数据,并解析所述第一凌空动态数据以获取第一姿势矢量和第一方向矢量;
步骤S20,对所述第一姿势矢量和所述第一方向矢量进行特征提取,以获取第一特征数据;
步骤S30,根据所述第一特征数据与预存的标准特征模型进行特征比对,以获取与所述第一特征数据对应的第一控制指令;
步骤S40,基于所述第一控制指令执行控制操作。
具体内容如下:
步骤S10,基于所述摄像头捕捉第一凌空手势动态数据,并解析所述第一凌空动态数据以获取第一姿势矢量和第一方向矢量;
可穿戴设备识别凌空手势需要摄像头作为手势采集装置,设备通过摄像头实时感应并捕捉用户的凌空手势,摄像头捕捉到的凌空手势以数据矩阵形式保存,即第一凌空手势动态数据。在本实施例中,第一凌空动态数据包括了手部动作的姿势和运动方向,其量化形式以第一姿势矢量和第一方向矢量呈现。本实施例对凌空手势的识别可基于第一姿势矢量和第一方向矢量进行数据识别。
可以理解的是,对手势的识别可通过姿势和方向两个因子完成。不同手势的区别在于手部动作的姿势变化以及手部动作的方向变化,因此获取姿势变化和方向变化是摄像头需要捕捉的基础手势数据。摄像头将通过高速摄像获取凌空手势的各个动作的变化趋势,并将各个动作的变化趋势以数据形式进行保存。
步骤S20,对所述第一姿势矢量和所述第一方向矢量进行特征提取,以获取第一特征数据;
获取到第一姿势矢量和第一方向矢量之后,将执行特征提取步骤。在本实施例中,所述特征提取主要是提取出第一姿势矢量和第一方向矢量的有效数据,过滤掉第一凌空手势动态数据中的无效噪音数据,以保留对本实施例有效用的可识别数据,能够减少冗余的数据分析步骤,提升手势识别效率。
具体地,参照图7,所述对所述第一姿势矢量和所述第一方向矢量进行特征提取,以获取第一特征数据的步骤包括:
步骤S21,提取第一姿势矢量在各个预设瞬时区间的第一动态特征,并提取第一方向矢量在各个预设瞬时区间的第二动态特征;
第一姿势矢量是摄像头采集到的整体姿势变化,在不同的时间单位中,随着手部姿势的变化,其对应的量化数据第一姿势矢量所处的数值也各不相同。通过摄像头的高速摄影,可获知手部姿势的逐帧变化趋势。每一帧的手部姿势对应有一个姿势状态,每一帧相当于一个预设瞬时区间,该姿势状态有对应的象限值,并且在当前的预设瞬时区间为固定数值,相当于在这一帧中手势呈现出的当前状态。例如第一姿势矢量在第一个预设瞬时区间的数值为(101,304,901),在第二个预设瞬时区间的数值为(207,809,-177),在第三个预设瞬时区间的数值为(808,311,100)。若提取标准为每隔一个预设瞬时区间的变化趋势不大于800,则第二个预设瞬时区间的数值坐标存在噪音。此时,第二个预设瞬时区间的数值被摒弃,而第一个预设瞬时区间和第三个预设瞬时区间的坐标数值被提取出来,作为第一姿势矢量的第一动态特征。
可选地,智能的可穿戴设备会根据第一个预设瞬时区间和第三个预设瞬时区间的坐标数值进行预估计算,以平均值或变化趋势特征推导出第二个预设瞬时区间的坐标数值,以避免数值缺漏。
同理,第一方向矢量的特征提取也遵循以上规则,每一帧的手部姿势对应有一个方向状态,每个预设瞬时区间都代表着对应的方向趋势。通过过滤噪音数据,对第一方向矢量进行数据降噪,以提取出第二动态特征。
步骤S22,将处于相同预设瞬时区间的第一动态特征和第二动态特征进行特征匹配,以获取第一特征数据。
可以理解的是,各个预设瞬时区间的第一动态特征和第二动态特征都是相对应的,即凌空姿势中的姿势和方向是有关联性的,因此每个预设瞬时区间所获取到的第一动态特征和第二动态特征代表着当前这个预设瞬时区间的姿势趋势和方向趋势,故需要对相同预设瞬时区间的第一动态特征和第二动态特征进行特征匹配。
步骤S30,根据所述第一特征数据与预存的标准特征模型进行特征比对,以获取与所述第一特征数据对应的第一控制指令;
在本实施例中的可穿戴设备预存有标准特征模型,该模型中保存大量的凌空手势特征数据,用于对第一特征数据进行比对匹配。通过以上对凌空手势的采集、解析和提取获取到第一特征数据。该第一特征数据是一个动态矩阵数据,代表了当前凌空手势的动态数据特征,其姿势的动静趋势,方向的变化轨迹,都是凌空手势的重要识别特征。通过对第一特征数据的特征比对,本实施例可匹配出最符合当前特征数据的标准特征数据,并获取到标准特征数据对应的第一控制指令。
可选地,所述步骤S30包括:
步骤S31,计算所述标准特征模型中所有标准特征数据与第一特征数据的数据误差率;
可以理解的是,第一特征数据不可能完全等同于标准特征数据,因为手势动态数据不一定是在理想的标准状态下收集到的,而是受环境、采光、用户状态等因素影响,因此第一特征数据与标准特征数据之间会存在一个误差。因此本实施例计算所有标准特征数据与第一特征数据之间的数据误差率。
步骤S32,若检测到最小的数据误差率小于预设误差率,则获取所述最小的数据误差率对应的目标特征数据;
将所有数据误差率进行比对,得到最小数据误差率,在本实施例中设置有预设误差率,若最小的数据误差率小于预设误差率,说明最小数据误差率在误差范围之内,反之,若最小数据误差率大于预设误差率,则证明第一特征数据误差较大,无法识别。
获取最小的数据误差率对应的目标特征数据,该目标特征数据标准特征数据中最符合第一特征数据的样本。
步骤S33,将所述目标特征数据对应的控制指令确定为第一控制指令。
第一特征数据符合标准特征数据的数据矩阵,此时直接将标准数据特征对应的第一控制指令设置为第一特征数据的第一控制指令。
步骤S40,基于所述第一控制指令执行控制操作。
获取到第一控制指令后,可穿戴设备科基于第一控制指令直接执行终端控制操作。例如第一控制指令为“点赞”,则根据第一控制指令在可穿戴设备的显示页面中执行点赞操作。
具体地,
1、基本操作:
A.手掌或多个手指向上下左右滑动 ----------向上下左右翻页
B.两个手指捏合 ----------表示返回上一级菜单
C.ok的手势 ----------表示确定进入
D.拳头表示 ----------表示取消退出
E.手掌表示 -----------分享
F.手动比心 -----------表示收藏
G大拇指翘起 -----------表示点赞
H.大拇指弯弯 ----------表示点击
H.一个食指 ----------表示本界面第一个菜单
(基本手势数字,以此类推,不再说明)
2、快捷操作
A.大拇指和小拇指翘起(电话手势) ----------跳转到打电话界面
B.屏幕上方画圈 ----------跳转到表盘界面
C.握手手势 ----------跳转到微信界
D.大拇指食指中指捏到一起钱的手势 -------跳转到支付宝界面
F.食指和中指向下走路手势 ----------跳转到跑马灯界面
示例:用想要给联系人界面的第三个好友拨打电话后返回表盘
1.电话手势进入拨号盘
2.右滑手势进入联系人
3.打开后食指中指无名指翘起选择第三个联系人
3.大拇指弯弯实行点击操作进入第三个联系人界面
4.大拇指弯弯进行点击拨号按钮
5.在屏幕画圈返回表盘
以上手势仅供参考。
本发明实施例提出的一种凌空手势交互方法、装置、设备及计算机可读存储介质,所述方法包括:基于所述摄像头捕捉第一凌空手势动态数据,并解析所述第一凌空动态数据以获取第一姿势矢量和第一方向矢量;对所述第一姿势矢量和所述第一方向矢量进行特征提取,以获取第一特征数据;根据所述第一特征数据与预存的标准特征模型进行特征比对,以获取与所述第一特征数据对应的第一控制指令;基于所述第一控制指令执行控制操作。本发明通过在可穿戴设备进行凌空手势的解析提取和比对,完成凌空手势的控制指令,该方案根据姿势和方向两个因子完成整体手势的匹配,从而完成对复杂手势的识别和反馈。本发明为可穿戴设备提供了新的手势交互方案,丰富了凌空手势的交互方式,为凌空手势交互提供了更多的数据样本,使得凌空手势的操作更加多样化,从而能够胜任更复杂的凌空手势,解决了目前可穿戴设备的凌空手势的交互方式太少,并且手势过于单一,无法实现复杂的凌空手势交互功能的技术问题。
进一步地,基于第一实施例,提出本发方法的第二实施例,在该实施例中,所述第一凌空手势动态数据包括肤色纹理特征数据,所述根据所述第一特征数据与预存的标准特征模型进行特征比对,以获取与所述第一特征数据对应的第一控制指令的步骤还包括:
步骤S34,解析所述第一凌空动态数据以获取肤色纹理特征数据;
凌空手势还可以将肤色纹理作为识别因子,以增加可穿戴设备对凌空手势的识别成功率。在本实施例中,第一凌空动态数据中包括了手部的各项数据,还包括肤色纹理,通过对第一凌空动态数据的解析,获取到肤色纹理特征数据,包括手部的线条纹理,肌肉的运动分区,手部的暗影光影,肤色的深浅差异等等。
步骤S35,将第一特征数据和所述肤色纹理特征数据与预存的标准特征模型进行特征比对,以确定与所述第一特征数据和所述肤色纹理特征数据对应的第一控制指令。
获取到肤色纹理特征数据之后,将第一特征数据和肤色纹理特征数据同时与预存的标准特征模型进行比对,可在第一特征数据的基础上增加肤色纹理特征的比对标准,从而降低数据误差率,提升比对精准性。利用线条纹理,肌肉运动分区,暗影光影、肤色深浅等差异,对第一特征数据的姿势、方向数据等对不上标准特征数据部分进行修正和确认,从而更准确地确定与第一特征数据和肤色纹理特征数据对应的第一控制指令。
进一步地,基于第一实施例,提出本发方法的第三实施例,在该实施例中,所述步骤S30还包括:
步骤S36,若未获取到与所述第一特征数据对应的第一控制指令,则输出手势识别失败的提示信息。
假设无法获取到第一控制指令,例如手势动态数据识别不够准确完善,或者比对结果中第一特征数据并没有符合的标准特征数据。则输出手势无法识别的提示信息。
进一步地,若手势无法识别,所述方法还包括:
步骤a,若检测到基于所述提示信息触发的自定义手势指令,则启动所述摄像头,并基于所述摄像头捕捉第二凌空手势动态数据;
提示信息提示无法识别,可能存在新的凌空手势未录入标准特征模型中。此时,若检测到基于提示信息触发的自定义手势指令(如触发自定义手势按钮),则启动摄像头进入新凌空手势录入状态,用户在摄像头上进行手势录入,设备通过摄像头捕捉第二凌空手势动态数据。
步骤b,解析所述第二凌空动态数据以获取第二姿势矢量和第二方向矢量;
步骤c,对所述第二姿势矢量和所述第二方向矢量进行特征提取,以获取第二特征数据;
将第二凌空手势动态数据进行解析获取到第二姿势矢量和第二方向矢量,并对第二姿势矢量和第二方向矢量进行特征提取,具体技术原理与步骤S10和步骤S20相同,从而获得第二特征数据。
步骤d,获取标准特征模型的所有控制指令,并获取用户从所有控制指令中触发的待选指令,将所述待选指令设置为第二特征数据对应的第二控制指令;
第二特征数据是新凌空手势的重要特征数据,但其功能尚未制定,至完成了手势录入。此时获取模型中的所有控制指令,并由用户从中指定该手势所指代的功能指令,被指定触发的功能指令为待选指令,并设置为第二特征数据的第二控制指令。由此便完成新凌空手势的录入以及该手势所要实现的功能录入。
步骤e,将所述第二特征数据和第二控制指令保存至所述标准特征模型。
获取到第二控制指令的指定后,即将第二特征数据和第二控制指令进行绑定,同时设备将第二特征数据和第二控制指令保存到标准特征模型中,以作为后续凌空手势识别时的比对样本。可以理解的是,在增加新的凌空手势之后,录入的凌空手势能够进一步丰富凌空手势的数据样本,从而实现更多复杂的凌空手势以及对应的复杂功能。
进一步地,基于第一实施例,提出本发方法的第四实施例,在该实施例中,所述方法还包括:
步骤f,若检测到用户输入的手势组合指令,则输出所述标准特征模型中的所有标准凌空手势以及各标准凌空手势的控制指令;
手势组合指令指的是对当前已经存在的多个凌空手势进行组合,并以特定凌空手势触发这多个凌空手势的功能。因此,若检测到手势组合指令,设备将输出模型中所有标准凌空手势和对应的控制指令以供编辑。
步骤g,获取基于所有标准凌空手势的选择指令,并获取所述选择指令对应的待选手势的指定顺序,所述待选手势包括多项标准凌空手势;
步骤h,若检测到基于所述待选手势对应的手势组合指令,则按所述指定顺序将各待选手势的待选控制指令组合为第三控制指令;
用户对所有标准凌空手势进行选择编辑,同时设备确定所有被选中的待选手势的指定顺序,当然,待选手势多于一项,包括多项手势。此时,若检测到在待选手势上的手势组合指令(如触发手势组合按钮),则按照指定顺序对待选控制指令进行组合,得到第三控制指令。
例如以下凌空手势为待选手势,a(点赞手势),b(评论手势),c(返回上一页手势)。将待选手势按指定顺序进行组合,如abc,则abc对应的待选控制指令将按顺序组合成第三控制指令,直接按指定顺序执行abc各自的控制指令。
步骤i,基于所述摄像头捕捉第三凌空手势动态数据,并解析所述第三凌空动态数据以获取第三姿势矢量和第三方向矢量;
步骤j,对所述第三姿势矢量和所述第三方向矢量进行特征提取,以获取第三特征数据;
步骤k,将所述第三控制指令与所述第三特征数据进行绑定,并保存至所述标准特征模型中。
此时,需要有一个触发手势来触发第三控制指令,因此设备需要通过摄像头捕捉新的凌空手势作为第三控制指令的触发手势。具体捕捉、解析、提取等技术步骤与步骤S10和步骤S20相同,从而获得第三特征数据。最后将第三控制指令和第三特征数据进行绑定,并保存在模型中。
具体地,假设设备中存在以下凌空手势a(点赞手势),b(评论手势),c(返回上一页手势)。现实生活中每个手势一个一个做出来并被设备识别过于繁琐,用户触发手势组合指令,从模型中选择abc作为组合手势,并通过abc的顺序将其组合为第三控制指令,这时用户再录入一个特定的凌空触发手势,绑定第三控制指令,用以触发第三控制指令a,b,c三个凌空手势,并保存在模型中以作为后续凌空手势识别时的比对样本,从而减少手势步骤,优化功能流程。
此外,本发明实施例还提出一种凌空手势交互装置,所述凌空手势交互装置应用于可穿戴设备,所述凌空手势交互装置包括:
第一解析模块,用于基于所述摄像头捕捉第一凌空手势动态数据,并解析所述第一凌空动态数据以获取第一姿势矢量和第一方向矢量;
第一提取模块,用于对所述第一姿势矢量和所述第一方向矢量进行特征提取,以获取第一特征数据;
第一比对模块,用于根据所述第一特征数据与预存的标准特征模型进行特征比对,以获取与所述第一特征数据对应的第一控制指令;
第一控制模块,用于基于所述第一控制指令执行控制操作。
可选地,所述第一提取模块包括:
提取单元,用于提取第一姿势矢量在各个预设瞬时区间的第一动态特征,并提取第一方向矢量在各个预设瞬时区间的第二动态特征;
匹配单元,用于将处于相同预设瞬时区间的第一动态特征和第二动态特征进行特征匹配,以获取第一特征数据。
可选地,所述第一比对模块包括:
计算单元,用于计算所述标准特征模型中所有标准特征数据与第一特征数据的数据误差率;
获取单元,用于若检测到最小的数据误差率小于预设误差率,则获取所述最小的数据误差率对应的目标特征数据;
确定单元,用于将所述目标特征数据对应的控制指令确定为第一控制指令。
可选地,所述第一凌空手势动态数据包括肤色纹理特征数据,所述第一比对模块还包括:
解析单元,用于解析所述第一凌空动态数据以获取肤色纹理特征数据;
比对单元,用于将第一特征数据和所述肤色纹理特征数据与预存的标准特征模型进行特征比对,以确定与所述第一特征数据和所述肤色纹理特征数据对应的第一控制指令。
可选地,所述第一比对模块还包括:
提示单元,用于若未获取到与所述第一特征数据对应的第一控制指令,则输出手势识别失败的提示信息。
可选地,所述凌空手势交互装置还包括:
自定义模块,用于若检测到基于所述提示信息触发的自定义手势指令,则启动所述摄像头,并基于所述摄像头捕捉第二凌空手势动态数据;
第二解析模块,用于解析所述第二凌空动态数据以获取第二姿势矢量和第二方向矢量;
第二提取模块,用于对所述第二姿势矢量和所述第二方向矢量进行特征提取,以获取第二特征数据;
设置模块,用于获取标准特征模型的所有控制指令,并获取用户从所有控制指令中触发的待选指令,将所述待选指令设置为第二特征数据对应的第二控制指令;
保存模块,用于将所述第二特征数据和第二控制指令保存至所述标准特征模型。
可选地,所述凌空手势交互装置还包括:
输出模块,用于若检测到用户输入的手势组合指令,则输出所述标准特征模型中的所有标准凌空手势以及各标准凌空手势的控制指令;
获取模块,用于获取基于所有标准凌空手势的选择指令,并获取所述选择指令对应的待选手势的指定顺序,所述待选手势包括多项标准凌空手势;
组合模块,用于若检测到基于所述待选手势对应的手势组合指令,则按所述指定顺序将各待选手势的待选控制指令组合为第三控制指令;
第三解析模块,用于基于所述摄像头捕捉第三凌空手势动态数据,并解析所述第三凌空动态数据以获取第三姿势矢量和第三方向矢量;
第三提取模块,用于对所述第三姿势矢量和所述第三方向矢量进行特征提取,以获取第三特征数据;
绑定模块,用于将所述第三控制指令与所述第三特征数据进行绑定,并保存至所述标准特征模型中。
此外,本发明还提供一种可穿戴设备,所述可穿戴设备包括:存储器、处理器、通信总线以及存储在所述存储器上的计算机程序:
所述通信总线用于实现处理器和存储器之间的连接通信;
所述处理器用于执行所述计算机程序,以实现上述凌空手势交互方法各实施例的步骤。
此外,本发明还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有一个或者一个以上程序,所述一个或者一个以上程序还可被一个或者一个以上的处理器执行以用于实现上述凌空手势交互方法各实施例的步骤。
本发明计算机可读存储介质具体实施方式与上述凌空手势交互方法各实施例基本相同,在此不再赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,这些均属于本发明的保护之内。
Claims (10)
1.一种凌空手势交互方法,所述方法应用于可穿戴设备,所述可穿戴设备上设置摄像头,其特征在于,所述凌空手势交互方法包括:
基于所述摄像头捕捉第一凌空手势动态数据,并解析所述第一凌空动态数据以获取第一姿势矢量和第一方向矢量;
对所述第一姿势矢量和所述第一方向矢量进行特征提取,以获取第一特征数据;
根据所述第一特征数据与预存的标准特征模型进行特征比对,以获取与所述第一特征数据对应的第一控制指令;
基于所述第一控制指令执行控制操作。
2.如权利要求1所述的凌空手势交互方法,其特征在于,所述对所述第一姿势矢量和所述第一方向矢量进行特征提取,以获取第一特征数据的步骤包括:
提取第一姿势矢量在各个预设瞬时区间的第一动态特征,并提取第一方向矢量在各个预设瞬时区间的第二动态特征;
将处于相同预设瞬时区间的第一动态特征和第二动态特征进行特征匹配,以获取第一特征数据。
3.如权利要求1所述的凌空手势交互方法,其特征在于,
所述根据所述第一特征数据与预存的标准特征模型进行特征比对,以获取与所述第一特征数据对应的第一控制指令的步骤包括:
计算所述标准特征模型中所有标准特征数据与第一特征数据的数据误差率;
若检测到最小的数据误差率小于预设误差率,则获取所述最小的数据误差率对应的目标特征数据;
将所述目标特征数据对应的控制指令确定为第一控制指令。
4.如权利要求1所述的凌空手势交互方法,其特征在于,所述第一凌空手势动态数据包括肤色纹理特征数据,
所述根据所述第一特征数据与预存的标准特征模型进行特征比对,以获取与所述第一特征数据对应的第一控制指令的步骤还包括:
解析所述第一凌空动态数据以获取肤色纹理特征数据;
将第一特征数据和所述肤色纹理特征数据与预存的标准特征模型进行特征比对,以确定与所述第一特征数据和所述肤色纹理特征数据对应的第一控制指令。
5.如权利要求1所述的凌空手势交互方法,其特征在于,
所述根据所述第一特征数据与预存的标准特征模型进行特征比对,以获取与所述第一特征数据对应的第一控制指令的步骤还包括:
若未获取到与所述第一特征数据对应的第一控制指令,则输出手势识别失败的提示信息。
6.如权利要求5所述的凌空手势交互方法,其特征在于,所述方法还包括:
若检测到基于所述提示信息触发的自定义手势指令,则启动所述摄像头,并基于所述摄像头捕捉第二凌空手势动态数据;
解析所述第二凌空动态数据以获取第二姿势矢量和第二方向矢量;
对所述第二姿势矢量和所述第二方向矢量进行特征提取,以获取第二特征数据;
获取标准特征模型的所有控制指令,并获取用户从所有控制指令中触发的待选指令,将所述待选指令设置为第二特征数据对应的第二控制指令;
将所述第二特征数据和第二控制指令保存至所述标准特征模型。
7.如权利要求1所述的凌空手势交互方法,其特征在于,所述方法还包括:
若检测到用户输入的手势组合指令,则输出所述标准特征模型中的所有标准凌空手势以及各标准凌空手势的控制指令;
获取基于所有标准凌空手势的选择指令,并获取所述选择指令对应的待选手势的指定顺序,所述待选手势包括多项标准凌空手势;
若检测到基于所述待选手势对应的手势组合指令,则按所述指定顺序将各待选手势的待选控制指令组合为第三控制指令;
基于所述摄像头捕捉第三凌空手势动态数据,并解析所述第三凌空动态数据以获取第三姿势矢量和第三方向矢量;
对所述第三姿势矢量和所述第三方向矢量进行特征提取,以获取第三特征数据;
将所述第三控制指令与所述第三特征数据进行绑定,并保存至所述标准特征模型中。
8.一种凌空手势交互装置,其特征在于,所述凌空手势交互装置应用于可穿戴设备,所述凌空手势交互装置包括:
第一解析模块,用于基于所述摄像头捕捉第一凌空手势动态数据,并解析所述第一凌空动态数据以获取第一姿势矢量和第一方向矢量;
第一提取模块,用于对所述第一姿势矢量和所述第一方向矢量进行特征提取,以获取第一特征数据;
第一比对模块,用于根据所述第一特征数据与预存的标准特征模型进行特征比对,以获取与所述第一特征数据对应的第一控制指令;
第一控制模块,用于基于所述第一控制指令执行控制操作。
9.一种可穿戴设备,其特征在于,所述可穿戴设备包括:
存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序;
所述计算机程序被所述处理器执行时实现如权利要求1至7中任一项所述的凌空手势交互方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述的凌空手势交互方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910474652.1A CN110187771B (zh) | 2019-05-31 | 2019-05-31 | 凌空手势交互方法、装置、可穿戴设备及计算机存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910474652.1A CN110187771B (zh) | 2019-05-31 | 2019-05-31 | 凌空手势交互方法、装置、可穿戴设备及计算机存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110187771A true CN110187771A (zh) | 2019-08-30 |
CN110187771B CN110187771B (zh) | 2024-04-26 |
Family
ID=67719767
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910474652.1A Active CN110187771B (zh) | 2019-05-31 | 2019-05-31 | 凌空手势交互方法、装置、可穿戴设备及计算机存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110187771B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111913574A (zh) * | 2020-07-15 | 2020-11-10 | 北京字节跳动网络技术有限公司 | 用于控制设备的方法、装置、电子设备和计算机可读介质 |
CN111949134A (zh) * | 2020-08-28 | 2020-11-17 | 深圳Tcl数字技术有限公司 | 人机交互方法、设备及计算机可读存储介质 |
CN112346566A (zh) * | 2020-10-30 | 2021-02-09 | 深圳市优必选科技股份有限公司 | 一种交互学习方法、装置、智能学习设备及存储介质 |
TWI725803B (zh) * | 2020-03-31 | 2021-04-21 | 林閔瑩 | 運用穿戴式電子裝置之人體異常活動識別系統 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102982557A (zh) * | 2012-11-06 | 2013-03-20 | 桂林电子科技大学 | 基于深度相机的空间手势姿态指令处理方法 |
US20130096575A1 (en) * | 2009-07-22 | 2013-04-18 | Eric S. Olson | System and method for controlling a remote medical device guidance system in three-dimensions using gestures |
CN107105093A (zh) * | 2017-04-18 | 2017-08-29 | 广东欧珀移动通信有限公司 | 基于手部轨迹的拍照控制方法、装置及终端 |
CN108351708A (zh) * | 2016-10-14 | 2018-07-31 | 华为技术有限公司 | 三维手势解锁方法、获取手势图像的方法和终端设备 |
CN108536291A (zh) * | 2018-03-29 | 2018-09-14 | 努比亚技术有限公司 | 一种应用操作方法、可穿戴设备及存储介质 |
-
2019
- 2019-05-31 CN CN201910474652.1A patent/CN110187771B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130096575A1 (en) * | 2009-07-22 | 2013-04-18 | Eric S. Olson | System and method for controlling a remote medical device guidance system in three-dimensions using gestures |
CN102982557A (zh) * | 2012-11-06 | 2013-03-20 | 桂林电子科技大学 | 基于深度相机的空间手势姿态指令处理方法 |
CN108351708A (zh) * | 2016-10-14 | 2018-07-31 | 华为技术有限公司 | 三维手势解锁方法、获取手势图像的方法和终端设备 |
CN107105093A (zh) * | 2017-04-18 | 2017-08-29 | 广东欧珀移动通信有限公司 | 基于手部轨迹的拍照控制方法、装置及终端 |
CN108536291A (zh) * | 2018-03-29 | 2018-09-14 | 努比亚技术有限公司 | 一种应用操作方法、可穿戴设备及存储介质 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI725803B (zh) * | 2020-03-31 | 2021-04-21 | 林閔瑩 | 運用穿戴式電子裝置之人體異常活動識別系統 |
CN111913574A (zh) * | 2020-07-15 | 2020-11-10 | 北京字节跳动网络技术有限公司 | 用于控制设备的方法、装置、电子设备和计算机可读介质 |
CN111913574B (zh) * | 2020-07-15 | 2024-04-30 | 抖音视界有限公司 | 用于控制设备的方法、装置、电子设备和计算机可读介质 |
CN111949134A (zh) * | 2020-08-28 | 2020-11-17 | 深圳Tcl数字技术有限公司 | 人机交互方法、设备及计算机可读存储介质 |
CN112346566A (zh) * | 2020-10-30 | 2021-02-09 | 深圳市优必选科技股份有限公司 | 一种交互学习方法、装置、智能学习设备及存储介质 |
CN112346566B (zh) * | 2020-10-30 | 2023-12-15 | 深圳市优必选科技股份有限公司 | 一种交互学习方法、装置、智能学习设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110187771B (zh) | 2024-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110187771A (zh) | 凌空手势交互方法、装置、可穿戴设备及计算机存储介质 | |
CN109270986A (zh) | 柔性屏终端及其显示方法、以及计算机可读存储介质 | |
CN109982179A (zh) | 音频信号输出方法、装置、可穿戴设备及存储介质 | |
CN110109725A (zh) | 一种界面颜色调整方法及穿戴式设备 | |
CN108462826A (zh) | 一种辅助拍照的方法及移动终端 | |
CN110096195A (zh) | 运动图标显示方法、可穿戴设备及计算机可读存储介质 | |
CN110175008A (zh) | 操作终端的方法、可穿戴设备及计算机可读存储介质 | |
CN110069132A (zh) | 应用控制方法、智能穿戴设备及计算机可读存储介质 | |
CN110086930A (zh) | 一种语音交互方法、可穿戴设备和计算机可读存储介质 | |
CN110225282A (zh) | 一种视频录制控制方法、设备及计算机可读存储介质 | |
CN110187769A (zh) | 一种预览图像查看方法、设备及计算机可读存储介质 | |
CN108959585A (zh) | 一种表情图片获取方法和终端设备 | |
CN110069200A (zh) | 可穿戴设备输入控制方法、可穿戴设备及存储介质 | |
CN110083248A (zh) | 消息交互方法、可穿戴设备及计算机可读存储介质 | |
CN110262748A (zh) | 可穿戴设备控制方法、可穿戴设备及计算机可读存储介质 | |
CN110109721A (zh) | 一种可穿戴设备控制方法、系统、可穿戴设备及存储介质 | |
CN110213442A (zh) | 语音播放方法、终端及计算机可读存储介质 | |
CN110187764A (zh) | 一种弹幕显示方法、穿戴式设备及存储介质 | |
CN110177208A (zh) | 一种视频录制的关联控制方法、设备及计算机可读存储介质 | |
CN110083205A (zh) | 页面切换方法、可穿戴设备和计算机可读存储介质 | |
CN110069193A (zh) | 一种可穿戴设备的界面切换方法、可穿戴设备及存储介质 | |
CN110072071A (zh) | 一种视频录制交互控制方法、设备及计算机可读存储介质 | |
CN110032308A (zh) | 一种页面显示方法、终端及计算机可读存储介质 | |
CN110139270A (zh) | 可穿戴设备配对方法、可穿戴设备及计算机可读存储介质 | |
CN110086929A (zh) | 息屏显示方法、手机、可穿戴设备和计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |