CN105843400A - 一种体感交互方法及装置、穿戴设备 - Google Patents
一种体感交互方法及装置、穿戴设备 Download PDFInfo
- Publication number
- CN105843400A CN105843400A CN201610297559.4A CN201610297559A CN105843400A CN 105843400 A CN105843400 A CN 105843400A CN 201610297559 A CN201610297559 A CN 201610297559A CN 105843400 A CN105843400 A CN 105843400A
- Authority
- CN
- China
- Prior art keywords
- wearable device
- rid
- action event
- duration
- hand
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 61
- 238000000034 method Methods 0.000 title claims abstract description 46
- 230000003238 somatosensory effect Effects 0.000 title abstract 3
- 230000009471 action Effects 0.000 claims description 140
- 239000013598 vector Substances 0.000 claims description 25
- 230000001755 vocal effect Effects 0.000 claims description 22
- 230000005236 sound signal Effects 0.000 claims description 21
- 230000008569 process Effects 0.000 claims description 16
- 238000012360 testing method Methods 0.000 claims description 13
- 238000009432 framing Methods 0.000 claims description 9
- 239000000203 mixture Substances 0.000 claims description 7
- 238000001228 spectrum Methods 0.000 claims description 7
- 230000003595 spectral effect Effects 0.000 claims description 4
- 230000013011 mating Effects 0.000 claims description 3
- 108010001267 Protein Subunits Proteins 0.000 claims description 2
- 238000007781 pre-processing Methods 0.000 claims description 2
- 230000004617 sleep duration Effects 0.000 description 24
- 230000007958 sleep Effects 0.000 description 19
- 230000006399 behavior Effects 0.000 description 13
- 230000008859 change Effects 0.000 description 8
- 230000003860 sleep quality Effects 0.000 description 8
- 230000008878 coupling Effects 0.000 description 7
- 238000010168 coupling process Methods 0.000 description 7
- 238000005859 coupling reaction Methods 0.000 description 7
- 238000001514 detection method Methods 0.000 description 6
- 238000003860 storage Methods 0.000 description 6
- 238000005259 measurement Methods 0.000 description 5
- 238000012795 verification Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 230000033228 biological regulation Effects 0.000 description 2
- 230000005059 dormancy Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 1
- 101000577224 Homo sapiens Neuropeptide S receptor Proteins 0.000 description 1
- 102100025258 Neuropeptide S receptor Human genes 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 229910052799 carbon Inorganic materials 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Telephone Function (AREA)
Abstract
本发明实施例涉及穿戴设备领域,公开了一种体感交互方法及装置、穿戴设备,该方法包括:利用红外测距传感器检测手背是否发生抬起动作,所述红外测距传感器设置穿戴设备某一竖直外侧面上,且当所述穿戴设备佩戴于手臂时所述竖直外侧面靠近所述手背;如果所述手背发生抬起动作,控制所述穿戴设备执行设定操作。本发明实施例能够便捷地控制穿戴设备执行操作。
Description
技术领域
本发明涉及穿戴设备领域,具体涉及一种体感交互方法及装置、穿戴设备。
背景技术
目前,智能手环、智能手表等穿戴设备的应用越来越广泛。在实际应用中,智能手环、智能手表等穿戴设备因其具备接打电话、闹钟提醒以及健康检测等功能而颇受用户的喜爱。然而在实践中发现,穿戴设备通常都是佩戴在用户的一只手上,当用户需要控制穿戴设备执行某一些操作(如亮屏)时,用户不得不使用另一只手去操作穿戴设备,这就给穿戴设备的控制带来了不便。
发明内容
本发明实施例公开了一种体感交互方法及装置、穿戴设备,能够便捷地控制穿戴设备执行操作。
本发明实施例第一方面公开了一种体感交互方法,包括:
利用红外测距传感器检测手背是否发生抬起动作,所述红外测距传感器设置穿戴设备某一竖直外侧面上,并且当所述穿戴设备佩戴于手臂时所述竖直外侧面靠近所述手背;
如果所述手背发生抬起动作,控制所述穿戴设备执行设定操作。
作为一种可选的实施方式,在本发明实施例第一方面中,在检测出所述手背发生抬起动作之后,以及在控制所述穿戴设备执行设定操作之前,所述方法还包括:
判断所述手背抬起的持续时长是否超过指定时长,如果所述手背抬起动作的持续时长超过所述指定时长,执行所述的控制所述穿戴设备执行设定操作的步骤。
作为一种可选的实施方式,在本发明实施例第一方面中,在检测出所述手背抬起动作的持续时长超过所述指定时长之后,以及在控制所述穿戴设备执行设定操作之前,所述方法还包括:
判断所述红外测距传感器与所述手背之间距离值是否小于指定距离值,如果所述红外测距传感器与所述手背之间距离值小于所述指定距离值,执行所述的控制所述穿戴设备执行设定操作的步骤。
作为一种可选的实施方式,在本发明实施例第一方面中,所述控制所述穿戴设备执行设定操作,包括:
获取所述穿戴设备外部的语音信号;
对所述语音信号进行预处理,获得预处理信号;所述预处理包括预加重、分帧和加窗处理;
从所述预处理信号中提取声纹特征MFCC、LPCC、△MFCC、△LPCC、能量、能量的一阶差分以及GFCC共同组成第一多维特征向量,其中:所述MFCC为梅尔频率倒谱系数,所述LPCC为线性预测倒谱系数,所述△MFCC为所述MFCC的一阶差分,所述△LPCC为所述LPCC的一阶差分,所述GFCC为Gammatone滤波器倒谱系数;
判断所述第一多维特征向量是否与预存储的声纹特征对应的第二多维向量完全匹配,如果完全匹配,识别所述语音信号是否包含操作关键字;
如果所述语音信号包含所述操作关键字,识别所述操作关键字匹配的设定操作;
控制所述穿戴设备执行所述操作关键字匹配的设定操作。
作为一种可选的实施方式,在本发明实施例第一方面中,所述获取所述穿戴设备外部的语音信号,包括:
A10、检测所述穿戴设备外部的原始音频,在时域上分析所述原始音频的短时能量和短时过零率,通过短时能量和短时过零率剔除原始音频中的部分非语音信号;
A20、对于所述步骤A10保留下来的音频信号,在频域上分析其子带的谱包络特性和子带的熵特性,进一步剔除所述音频信号中的部分非语音信号;
A30、对于所述步骤A20保留下来的各待甄别帧的音频信号,将特征相似的连续若干帧组成一个音频段;
A40、对于每个待甄别音频段,通过高斯混合模型对于该音频段中是否包含语音数据进行段级决策,最终得到语音信号。
作为一种可选的实施方式,在本发明实施例第一方面中,所述控制所述穿戴设备执行所述操作关键字匹配的设定操作,包括:
检测所述穿戴设备是否发生第一甩动作事件,如果所述穿戴设备发生第一甩动作事件,检测所述穿戴设备无线连接的智能手机是否发生第二甩动作事件,如果所述智能手机发生第二甩动作事件,判断所述第一甩动作事件和所述第二甩动作事件包括的甩动作方向是否相同,如果甩动作方向相同,判断所述第一甩动作事件和所述第二甩动作事件包括的甩动作起始时间的差值是否小于第一预设阈值,以及所述第一甩动作事件和所述第二甩动作事件包括的甩动作持续时长的差值是否小于第二预设阈值,如果所述第一甩动作事件和所述第二甩动作事件包括的甩动作起始时间的差值小于第一预设阈值,以及所述第一甩动作事件和所述第二甩动作事件包括的甩动作持续时长的差值小于第二预设阈值,触发所述穿戴设备执行所述操作关键字匹配的设定操作。
作为一种可选的实施方式,在本发明实施例第一方面中,如果所述第一甩动作事件和所述第二甩动作事件包括的甩动作起始时间的差值小于第一预设阈值,以及所述第一甩动作事件和所述第二甩动作事件包括的甩动作持续时长的差值小于第二预设阈值,那么在触发所述穿戴设备执行所述操作关键字匹配的设定操作之前,还可以包括:
判断所述穿戴设备当前显示的时间是否位于预设睡眠时间段内,如果是,获取所述预存储的声纹特征绑定的用户年龄;
判断统计的用户睡眠时长是否达到与所述用户的年龄相匹配的正常睡眠时长,如果达到,判断所述用户在所述睡眠时长内的深睡眠时长是否超过预设最短允许深睡眠时长,如果超过所述预设最短允许深睡眠时长,判断所述用户在所述睡眠时长内的运动量发生改变的平均间隔时长是否超过指定平均间隔时长,如果超过所述指定平均间隔时长,识别所述用户在所述睡眠时长内的睡眠质量满足预设睡眠质量,执行所述的触发所述穿戴设备执行所述操作关键字匹配的设定操作的步骤。
本发明实施例第二方面公开了一种体感交互装置,所述装置包括微控制单元,所述微控制单元包括:
第一检测单元,用于利用红外测距传感器检测手背是否发生抬起动作,所述红外测距传感器设置穿戴设备某一竖直外侧面上,并且当所述穿戴设备佩戴于手臂时所述竖直外侧面靠近所述手背;
控制单元,用于在所述第一检测单元的检测结果为是时,控制所述穿戴设备执行设定操作。
作为一种可选的实施方式,在本发明实施例第二方面中,所述微控制单元还包括:
第一判断单元,用于在所述第一检测单元的检测结果为是时,判断所述手背抬起的持续时长是否超过指定时长;
所述控制单元,用于在所述第一检测单元的检测结果以及所述第一判断单元的判断结果均为是时,控制所述穿戴设备执行设定操作。
作为一种可选的实施方式,在本发明实施例第二方面中,所述微控制单元还包括:
第二判断单元,用于在所述第一判断单元的判断结果为是时,判断所述红外测距传感器与所述手背之间距离值是否小于指定距离值;
所述控制单元,具体用于在所述第一检测单元的检测结果、所述第一判断单元的判断结果以及所述第二判断单元的判断结果均为是时,控制所述穿戴设备执行设定操作。
作为一种可选的实施方式,在本发明实施例第二方面中,所述控制单元包括:
获取子单元,用于获取所述穿戴设备外部的语音信号;
预处理子单元,用于对所述语音信号进行预处理,获得预处理信号;所述预处理包括预加重、分帧和加窗处理;
提取子单元,用于从所述预处理信号中提取声纹特征MFCC、LPCC、△MFCC、△LPCC、能量、能量的一阶差分以及GFCC共同组成第一多维特征向量,其中:所述MFCC为梅尔频率倒谱系数,所述LPCC为线性预测倒谱系数,所述△MFCC为所述MFCC的一阶差分,所述△LPCC为所述LPCC的一阶差分,所述GFCC为Gammatone滤波器倒谱系数;
判断子单元,用于判断所述第一多维特征向量是否与预存储的声纹特征对应的第二多维向量完全匹配;
识别子单元,用于在所述判断子单元的判断结果为完全匹配时,识别所述语音信号是否包含操作关键字,如果所述语音信号包含所述操作关键字,识别所述操作关键字匹配的设定操作;
控制子单元,用于控制所述穿戴设备执行所述操作关键字匹配的设定操作。
作为一种可选的实施方式,在本发明实施例第二方面中,所述获取子单元获取所述穿戴设备外部的语音信号的方式具体为:
A10、检测所述穿戴设备外部的原始音频,在时域上分析所述原始音频的短时能量和短时过零率,通过短时能量和短时过零率剔除原始音频中的部分非语音信号;
A20、对于所述步骤A10保留下来的音频信号,在频域上分析其子带的谱包络特性和子带的熵特性,进一步剔除所述音频信号中的部分非语音信号;
A30、对于所述步骤A20保留下来的各待甄别帧的音频信号,将特征相似的连续若干帧组成一个音频段;
A40、对于每个待甄别音频段,通过高斯混合模型对于该音频段中是否包含语音数据进行段级决策,最终得到语音信号。
作为一种可选的实施方式,在本发明实施例第二方面中,所述控制子单元控制所述穿戴设备执行所述操作关键字匹配的设定操作的方式具体为:
检测所述穿戴设备是否发生第一甩动作事件,如果所述穿戴设备发生第一甩动作事件,检测所述穿戴设备无线连接的智能手机是否发生第二甩动作事件,如果所述智能手机发生第二甩动作事件,判断所述第一甩动作事件和所述第二甩动作事件包括的甩动作方向是否相同,如果甩动作方向相同,判断所述第一甩动作事件和所述第二甩动作事件包括的甩动作起始时间的差值是否小于第一预设阈值,以及所述第一甩动作事件和所述第二甩动作事件包括的甩动作持续时长的差值是否小于第二预设阈值,如果所述第一甩动作事件和所述第二甩动作事件包括的甩动作起始时间的差值小于第一预设阈值,以及所述第一甩动作事件和所述第二甩动作事件包括的甩动作持续时长的差值小于第二预设阈值,触发所述穿戴设备执行所述操作关键字匹配的设定操作。
作为一种可选的实施方式,在本发明实施例第二方面中,如果所述第一甩动作事件和所述第二甩动作事件包括的甩动作起始时间的差值小于第一预设阈值,以及所述第一甩动作事件和所述第二甩动作事件包括的甩动作持续时长的差值小于第二预设阈值,那么所述控制子单元在触发所述穿戴设备执行所述操作关键字匹配的设定操作之前,还可以执行以下操作:
判断所述穿戴设备当前显示的时间是否位于预设睡眠时间段内,如果是,获取所述预存储的声纹特征绑定的用户年龄;
判断统计的用户睡眠时长是否达到与所述用户的年龄相匹配的正常睡眠时长,如果达到,判断所述用户在所述睡眠时长内的深睡眠时长是否超过预设最短允许深睡眠时长,如果超过所述预设最短允许深睡眠时长,判断所述用户在所述睡眠时长内的运动量发生改变的平均间隔时长是否超过指定平均间隔时长,如果超过所述指定平均间隔时长,识别所述用户在所述睡眠时长内的睡眠质量满足预设睡眠质量,执行所述的触发所述穿戴设备执行所述操作关键字匹配的设定操作的步骤。
本发明实施例第三方面公开了一种穿戴设备,所述穿戴设备包括电池、输入装置、通信装置、显示装置、红外测距传感器以及本发明实施例第二方面公开的所述体感交互装置,其中,所述体感交互装置分别电性连接所述电池、所述输入装置、所述通信装置、所述显示装置以及所述红外测距传感器,所述红外测距传感器设置所述穿戴设备某一竖直外侧面上,并且当所述穿戴设备佩戴于手臂时所述竖直外侧面靠近手背。
与现有技术相比,本发明实施例具有以下有益效果:
本发明实施例中,穿戴设备某一竖直外侧面上可以设置有红外测距传感器,并且当穿戴设备佩戴于手臂时该竖直外侧面会靠近手背,在此基础上,当红外测距传感器检测手背发生抬起动作,即可控制穿戴设备执行设定操作。可见,实施本发明实施例,当穿戴设备佩戴在用户的一只手上时,用户仅需抬起该手的手表即可控制穿戴设备执行某一些操作(如亮屏),用户不要使用另一只手去操作穿戴设备,从而可以十分便捷地控制穿戴设备执行操作,提高用户体验。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例公开的一种体感交互方法的流程示意图;
图2是本发明实施例公开的一种穿戴设备佩戴时手背未发生抬起动作时的状态示意图;
图3是本发明实施例公开的一种穿戴设备佩戴时手背发生抬起动作时的状态示意图;
图4是本发明实施例公开的另一种体感交互方法的流程示意图;
图5是本发明实施例公开的另一种体感交互方法的流程示意图;
图6是本发明实施例公开的一种体感交互装置的结构示意图;
图7是本发明实施例公开的另一种体感交互装置的结构示意图;
图8是本发明实施例公开的另一种体感交互装置的结构示意图;
图9是本发明实施例公开的另一种体感交互装置的结构示意图;
图10是本发明实施例公开的一种穿戴设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例公开了一种体感交互方法及装置、穿戴设备,能够便捷地控制穿戴设备执行操作。以下进行结合附图进行详细描述。
实施例一
请参阅图1,图1是本发明实施例公开的一种体感交互方法的流程示意图。如图1所示,该体感交互方法可以包括以下步骤。
101、穿戴设备利用红外测距传感器检测手背是否发生抬起动作,如果是,执行步骤102;反之,返回步骤101。
本发明实施例中,穿戴设备可以包括智能手表、智能手环、手表电话等各种适于手臂佩戴的智能设备,本发明实施例不作限定。
本发明实施例中,穿戴设备可以驱动红外测距传感器的红外发射管发出红外光线,当红外光线遇到手背遮挡时,红外光线会被反射回来被红外测距传感器的红外接收管接收,当红外测距传感器的红外接收管接收到红外发射管发出红外光线时,穿戴设备可以确定检测到手背发生了抬起动作;反之,当红外测距传感器的红外接收管未接收到红外发射管发出红外光线,那么穿戴设备可以确定未检测到手背发生了抬起动作。
请一并参阅图2~图3,图2是本发明实施例公开的一种穿戴设备佩戴时手背未发生抬起动作时的状态示意图,而图3是本发明实施例公开的一种穿戴设备佩戴时手背发生抬起动作时的状态示意图。如图2~图3所示,当手背发生抬起动作时,红外测距传感器的红外接收管会接收到红外发射管发出红外光线,同时,红外测距传感器与手背之间的距离值d会越来越小;当手背放下时,红外测距传感器的红外接收管会慢慢地接收不到红外发射管发出红外光线,同时,红外测距传感器与手背之间的距离值d会越来越大。
102、穿戴设备控制穿戴设备执行设定操作。
本发明实施例中,穿戴设备执行的设定操作不仅可以包括亮屏、灭屏、锁屏、解锁屏、关机、开机、取消、确认、翻页、音量增大、音量减小、亮度调节、图片缩放、进入编辑状态、调出设置菜单、关闭页面、开启页面等各种设定操作,还包括拨打设定电话、分享位置信息、定位等各种设定操作,本发明实施例不作具体限定。
作为一种可选的实施方式,上述步骤102中,穿戴设备控制穿戴设备执行设定操作的方式具体可以为:
穿戴设备获取穿戴设备外部的语音信号,并对语音信号进行预处理,获得预处理信号;其中,预处理包括预加重、分帧和加窗处理;从预处理信号中提取声纹特征MFCC、LPCC、△MFCC、△LPCC、能量、能量的一阶差分以及GFCC共同组成第一多维特征向量,其中:MFCC为梅尔频率倒谱系数,LPCC为线性预测倒谱系数,△MFCC为MFCC的一阶差分,△LPCC为LPCC的一阶差分,GFCC为Gammatone滤波器倒谱系数;判断第一多维特征向量是否与预存储的声纹特征对应的第二多维向量完全匹配,如果完全匹配,识别该语音信号是否包含操作关键字;如果该语音信号包含操作关键字,识别该操作关键字匹配的设定操作,并控制穿戴设备执行该操作关键字匹配的设定操作。显然,实施这种方式可以对用户身份进行精确验证,并且在验证通过后精确地执行该操作关键字匹配的设定操作。
可见,实施本发明实施例一,当穿戴设备佩戴在用户的一只手上时,用户仅需抬起该手的手表即可控制穿戴设备执行某一些操作(如亮屏),用户不要使用另一只手去操作穿戴设备,从而可以十分便捷地控制穿戴设备执行操作,提高用户体验。
实施例二
请参阅图4,图4是本发明实施例公开的另一种体感交互方法的流程示意图。如图4所示,该体感交互方法可以包括以下步骤。
401、穿戴设备利用红外测距传感器检测手背是否发生抬起动作,如果是,执行步骤402;反之,返回步骤401。
402、穿戴设备判断手背抬起的持续时长是否超过指定时长,如果手背抬起动作的持续时长超过指定时长,执行步骤403;反之,返回步骤401。
本发明实施例中,穿戴设备可以统计红外测距传感器的红外接收管接收红外发射管发出的红外光线的时长,并将该时长作为手背抬起的持续时长。当判断手背抬起动作的持续时长超过指定时长(如2秒)时执行步骤403,反之,返回步骤401。
本发明实施例中,实施上述步骤402可以提高控制穿戴设备执行设定操作的准确性,可以防止用户不经意的快速抬起手背又放下而触发的穿戴设备执行的非必要的设定操作。
403、穿戴设备控制穿戴设备执行设定操作。
作为一种可选的实施方式,上述步骤403中,穿戴设备控制穿戴设备执行设定操作的方式具体可以为:
首先,穿戴设备执行以下步骤来获取穿戴设备外部的语音信号,即:
A10、检测穿戴设备外部的原始音频,在时域上分析原始音频的短时能量和短时过零率,通过短时能量和短时过零率剔除原始音频中的部分非语音信号;
A20、对于步骤A10保留下来的音频信号,在频域上分析其子带的谱包络特性和子带的熵特性,进一步剔除音频信号中的部分非语音信号;
A30、对于步骤A20保留下来的各待甄别帧的音频信号,将特征相似的连续若干帧组成一个音频段;
A40、对于每个待甄别音频段,通过高斯混合模型对于该音频段中是否包含语音数据进行段级决策,最终得到语音信号;
其中,通过上述步骤A10~步骤A40,本发明实施例能够在各种复杂环境下从音频中检测到语音信号,可以相对准确的定位语音段语音数据和非语音段数据之间的边界;
其次,穿戴设备对语音信号进行预处理,获得预处理信号;其中,预处理包括预加重、分帧和加窗处理;从预处理信号中提取声纹特征MFCC、LPCC、△MFCC、△LPCC、能量、能量的一阶差分以及GFCC共同组成第一多维特征向量,其中:MFCC为梅尔频率倒谱系数,LPCC为线性预测倒谱系数,△MFCC为MFCC的一阶差分,△LPCC为LPCC的一阶差分,GFCC为Gammatone滤波器倒谱系数;判断第一多维特征向量是否与预存储的声纹特征对应的第二多维向量完全匹配,如果完全匹配,识别该语音信号是否包含操作关键字;如果该语音信号包含操作关键字,识别该操作关键字匹配的设定操作,并控制穿戴设备执行该操作关键字匹配的设定操作。显然,实施这种方式可以对用户身份进行精确验证,并且在验证通过后精确地执行该操作关键字匹配的设定操作。
可见,实施本发明实施例二,当穿戴设备佩戴在用户的一只手上时,用户仅需抬起该手的手表即可精确地控制穿戴设备执行某一些操作(如亮屏),用户不要使用另一只手去操作穿戴设备,从而可以十分便捷地控制穿戴设备执行操作,提高用户体验。
实施例三
请参阅图5,图5是本发明实施例公开的另一种体感交互方法的流程示意图。如图5所示,该体感交互方法可以包括以下步骤。
501、穿戴设备利用红外测距传感器检测手背是否发生抬起动作,如果是,执行步骤502;反之,返回步骤501。
502、穿戴设备判断手背抬起的持续时长是否超过指定时长,如果手背抬起动作的持续时长超过指定时长,执行步骤503;反之,返回步骤501。
本发明实施例中,穿戴设备可以计算红外测距传感器的红外接收管接收红外发射管发出的红外光线的时长,并将该时长作为手背抬起的持续时长。当如果手背抬起动作的持续时长超过指定时长(如2秒)时执行步骤503,反之,返回步骤501。
本发明实施例中,实施上述步骤502可以提高控制穿戴设备执行设定操作的准确性,可以防止用户不经意的快速抬起手背又放下而触发的穿戴设备执行的非必要的设定操作。
503、穿戴设备判断红外测距传感器与手背之间距离值是否小于指定距离值,如果红外测距传感器与手背之间距离值小于指定距离值,执行步骤504;反之,返回步骤501。
本发明实施例中,正如前面实施例所描述的,穿戴设备可以驱动红外测距传感器的红外发射管发出红外光线,当红外光线遇到手背遮挡时,红外光线会被反射回来被红外测距传感器的红外接收管接收,因此穿戴设备可以根据红外线从发出到被接收到的时间△t及红外线的传播速度C来算出红外测距传感器与手背之间距离值d,即d=(C*△t/2)。其中,指定距离值可以由用户自行设置,例如d=5cm,本发明实施例不作限定。
504、穿戴设备控制穿戴设备执行设定操作。
作为一种可选的实施方式,上述步骤504中,穿戴设备控制穿戴设备执行设定操作的方式具体可以为:
首先,穿戴设备执行以下步骤来获取穿戴设备外部的语音信号,即:
A10、检测所述穿戴设备外部的原始音频,在时域上分析所述原始音频的短时能量和短时过零率,通过短时能量和短时过零率剔除原始音频中的部分非语音信号;
A20、对于所述步骤A10保留下来的音频信号,在频域上分析其子带的谱包络特性和子带的熵特性,进一步剔除所述音频信号中的部分非语音信号;
A30、对于所述步骤A20保留下来的各待甄别帧的音频信号,将特征相似的连续若干帧组成一个音频段;
A40、对于每个待甄别音频段,通过高斯混合模型对于该音频段中是否包含语音数据进行段级决策,最终得到语音信号;
其中,通过上述步骤A10~步骤A40,本发明实施例能够在各种复杂环境下从音频中检测到语音信号,可以相对准确的定位语音段语音数据和非语音段数据之间的边界;
其次,穿戴设备对语音信号进行预处理,获得预处理信号;其中,预处理包括预加重、分帧和加窗处理;从预处理信号中提取声纹特征MFCC、LPCC、△MFCC、△LPCC、能量、能量的一阶差分以及GFCC共同组成第一多维特征向量,其中:MFCC为梅尔频率倒谱系数,LPCC为线性预测倒谱系数,△MFCC为MFCC的一阶差分,△LPCC为LPCC的一阶差分,GFCC为Gammatone滤波器倒谱系数;判断第一多维特征向量是否与预存储的声纹特征对应的第二多维向量完全匹配,如果不完全匹配,则结束本流程;如果完全匹配,识别该语音信号是否包含操作关键字,如果该语音信号不包含操作关键字,则结束本流程;如果该语音信号包含操作关键字,识别该操作关键字匹配的设定操作,并检测穿戴设备是否发生第一甩动作事件,如果穿戴设备发生第一甩动作事件,检测穿戴设备无线连接的智能手机是否发生第二甩动作事件,如果智能手机发生第二甩动作事件,判断第一甩动作事件和第二甩动作事件包括的甩动作方向是否相同,如果甩动作方向相同,判断第一甩动作事件和第二甩动作事件包括的甩动作起始时间的差值是否小于第一预设阈值(如0.05秒),以及第一甩动作事件和第二甩动作事件包括的甩动作持续时长的差值是否小于第二预设阈值(如0.1秒),如果第一甩动作事件和第二甩动作事件包括的甩动作起始时间的差值小于第一预设阈值,以及第一甩动作事件和第二甩动作事件包括的甩动作持续时长的差值小于第二预设阈值,触发穿戴设备执行操作关键字匹配的设定操作。
本发明实施例中,如果智能手机未发生第二甩动作事件,或者第一甩动作事件和第二甩动作事件包括的甩动作方向不相同,又或者,第一甩动作事件和第二甩动作事件包括的甩动作起始时间的差值大于第一预设阈值,又或者,第一甩动作事件和第二甩动作事件包括的甩动作持续时长的差值大于第二预设阈值,那么穿戴设备可以拒绝触发穿戴设备执行操作关键字匹配的设定操作。
本发明实施例中,穿戴设备以及穿戴设备无线连接的智能手机可以通过加速度传感器来检测甩动作事件。
作为一种可选的实施方式,如果第一甩动作事件和第二甩动作事件包括的甩动作起始时间的差值小于第一预设阈值,以及第一甩动作事件和第二甩动作事件包括的甩动作持续时长的差值小于第二预设阈值,那么在触发穿戴设备执行操作关键字匹配的设定操作之前,还可以执行以下操作:
穿戴设备判断穿戴设备当前显示的时间是否位于预设睡眠时间段内,如果是,获取上述预存储的声纹特征绑定的用户年龄;判断统计的用户睡眠时长是否达到与用户的年龄相匹配的正常睡眠时长,如果达到,判断用户在睡眠时长内的深睡眠时长是否超过预设最短允许深睡眠时长,如果超过预设最短允许深睡眠时长,判断用户在睡眠时长内的运动量发生改变的平均间隔时长是否超过指定平均间隔时长,如果超过指定平均间隔时长,识别用户在睡眠时长内的睡眠质量满足预设睡眠质量,执行触发穿戴设备执行该操作关键字匹配的设定操作的步骤。
反之,如果穿戴设备当前显示的时间不位于预设睡眠时间段内,穿戴设备可以直接执行触发穿戴设备执行该操作关键字匹配的设定操作的步骤;或者,如果统计的用户睡眠时长未达到与用户的年龄相匹配的正常睡眠时长,穿戴设备可以拒绝执行触发穿戴设备执行该操作关键字匹配的设定操作的步骤;又或者,如果判断用户在睡眠时长内的运动量发生改变的平均间隔时长未超过指定平均间隔时长,穿戴设备也可以拒绝执行触发穿戴设备执行该操作关键字匹配的设定操作的步骤。
由于用户处于深睡眠状态时,其运动量基本上不会发生变化,当用户处于浅睡眠时,由于用户翻转、摆手等各种动作的发生会导致用户的运动量发生改变,而根据相邻两次运动量发生改变的时间点可以确定出相邻两次运动量发生改变的间隔时长,对多个间隔时长求平均值可以获得运动量发生改变的平均间隔时长。
本发明实施例中,实施上述方式可以在精确地判断出用户睡眠足够的情况才执行触发穿戴设备执行该操作关键字匹配的设定操作的步骤,从而可以防止用户在睡眠不足时仍然操作穿戴设备所带来的健康隐患。
可见,实施本发明实施例三,当穿戴设备佩戴在用户的一只手上时,用户仅需抬起该手的手表即可控制穿戴设备执行某一些操作(如亮屏),用户不要使用另一只手去操作穿戴设备,从而可以十分便捷地控制穿戴设备执行操作,提高用户体验。
实施例四
请参阅图6,图6是本发明实施例公开的一种体感交互装置的结构示意图。其中,图6所示的体感交互装置可以布设在穿戴设备中,作为穿戴设备内置的一部分;或者,图6所示的体感交互装置也可以作为一个无线连接穿戴设备的外部独立设备,本发明实施例不作限定。如图6所示,该体感交互装置可以包括微控制单元(MCU)60,微控制单元60可以包括:
第一检测单元601,用于利用红外测距传感器检测手背是否发生抬起动作,其中,红外测距传感器设置穿戴设备某一竖直外侧面上,并且当穿戴设备佩戴于手臂时该竖直外侧面靠近手背;
控制单元602,用于在第一检测单元601的检测结果为是时,控制穿戴设备执行设定操作;反之,在第一检测单元601的检测结果为否时,控制单元602无需控制穿戴设备执行设定操作。
本发明实施例中,第一检测单元601可以驱动红外测距传感器的红外发射管发出红外光线,当红外光线遇到手背遮挡时,红外光线会被反射回来被红外测距传感器的红外接收管接收,当红外测距传感器的红外接收管接收到红外发射管发出红外光线时,第一检测单元601可以确定检测到手背发生了抬起动作;反之,当红外测距传感器的红外接收管未接收到红外发射管发出红外光线,那么第一检测单元601可以确定未检测到手背发生了抬起动作。
本发明实施例中,穿戴设备执行的设定操作不仅可以包括亮屏、灭屏、锁屏、解锁屏、关机、开机、取消、确认、翻页、音量增大、音量减小、亮度调节、图片缩放、进入编辑状态、调出设置菜单、关闭页面、开启页面等各种设定操作,还包括拨打设定电话、分享位置信息、定位等各种设定操作,本发明实施例不作具体限定。
作为一种可选的实施方式,控制单元602控制穿戴设备执行设定操作的方式具体可以为:
控制单元602获取穿戴设备外部的语音信号,并对语音信号进行预处理,获得预处理信号;其中,预处理包括预加重、分帧和加窗处理;从预处理信号中提取声纹特征MFCC、LPCC、△MFCC、△LPCC、能量、能量的一阶差分以及GFCC共同组成第一多维特征向量,其中:MFCC为梅尔频率倒谱系数,LPCC为线性预测倒谱系数,△MFCC为MFCC的一阶差分,△LPCC为LPCC的一阶差分,GFCC为Gammatone滤波器倒谱系数;判断第一多维特征向量是否与预存储的声纹特征对应的第二多维向量完全匹配,如果完全匹配,识别该语音信号是否包含操作关键字;如果该语音信号包含操作关键字,识别该操作关键字匹配的设定操作,并控制穿戴设备执行该操作关键字匹配的设定操作。显然,实施这种方式可以对用户身份进行精确验证,并且在验证通过后精确地执行该操作关键字匹配的设定操作。
可见,实施本发明实施例四,当穿戴设备佩戴在用户的一只手上时,用户仅需抬起该手的手表即可控制穿戴设备执行某一些操作(如亮屏),用户不要使用另一只手去操作穿戴设备,从而可以十分便捷地控制穿戴设备执行操作,提高用户体验。
实施例五
请参阅图7,图7是本发明实施例公开的另一种体感交互装置的结构示意图。其中,图7所示的体感交互装置是由图6所示的体感交互装置进行优化得到的,与图6所示的体感交互装置相比,在图7所示的体感交互装置中,微控制单元60还可以包括:
第一判断单元603,用于在第一检测单元601的检测结果为是时,判断手背抬起的持续时长是否超过指定时长;
控制单元602,用于在第一检测单元601的检测结果以及第一判断单元603的判断结果均为是时,控制穿戴设备执行设定操作。
本发明实施例中,第一判断单元603可以统计红外测距传感器的红外接收管接收红外发射管发出的红外光线的时长,并将该时长作为手背抬起的持续时长,当判断手背抬起动作的持续时长超过指定时长(如2秒)时,将判断结果通知控制单元602。
实施例六
请参阅图8,图8是本发明实施例公开的另一种体感交互装置的结构示意图。其中,图8所示的体感交互装置是由图7所示的体感交互装置进行优化得到的,与图7所示的体感交互装置相比,在图8所示的体感交互装置中,微控制单元60还可以包括:
第二判断单元604,用于在第一判断单元603的判断结果为是时,判断红外测距传感器与手背之间距离值是否小于指定距离值;
控制单元602,具体用于在第一检测单元601的检测结果、第一判断单元603的判断结果以及第二判断单元604的判断结果均为是时,控制穿戴设备执行设定操作。
本发明实施例中,正如前面实施例所描述的,第一检测单元601可以驱动红外测距传感器的红外发射管发出红外光线,当红外光线遇到手背遮挡时,红外光线会被反射回来被红外测距传感器的红外接收管接收,因此第二判断单元604可以根据红外线从发出到被接收到的时间△t及红外线的传播速度C来算出红外测距传感器与手背之间距离值d,即d=(C*△t/2),并判断红外测距传感器与手背之间距离值d是否小于指定距离值。其中,指定距离值可以由用户自行设置,例如d=5cm,本发明实施例不作限定。
可见,实施本发明实施例五,当穿戴设备佩戴在用户的一只手上时,用户仅需抬起该手的手表即可控制穿戴设备执行某一些操作(如亮屏),用户不要使用另一只手去操作穿戴设备,从而可以十分便捷地控制穿戴设备执行操作,提高用户体验。
实施例七
请参阅图9,图9是本发明实施例公开的另一种体感交互装置的结构示意图。其中,图9所示的体感交互装置是由图8所示的体感交互装置进行优化得到的。在图8所示的体感交互装置中,控制单元602包括:
获取子单元6021,用于获取穿戴设备外部的语音信号;
预处理子单元6022,用对语音信号进行预处理,获得预处理信号;其中,预处理包括预加重、分帧和加窗处理;
提取子单元6023,用于从预处理信号中提取声纹特征MFCC、LPCC、△MFCC、△LPCC、能量、能量的一阶差分以及GFCC共同组成第一多维特征向量,其中:MFCC为梅尔频率倒谱系数,LPCC为线性预测倒谱系数,△MFCC为MFCC的一阶差分,△LPCC为LPCC的一阶差分,GFCC为Gammatone滤波器倒谱系数;
判断子单元6024,用于判断第一多维特征向量是否与预存储的声纹特征对应的第二多维向量完全匹配;
识别子单元6025,用于在判断子单元6024的判断结果为完全匹配时,识别该语音信号是否包含操作关键字,如果该语音信号包含操作关键字,识别该操作关键字匹配的设定操作;
控制子单元6026,用于控制穿戴设备执行该操作关键字匹配的设定操作。
本发明实施例中,通过实施图8所示的体感交互装置包括的控制单元602可以精确地控制穿戴设备执行该操作关键字匹配的设定操作。
本发明实施例中,获取子单元6021获取穿戴设备外部的语音信号的方式具体可以为:
A10、检测穿戴设备外部的原始音频,在时域上分析原始音频的短时能量和短时过零率,通过短时能量和短时过零率剔除原始音频中的部分非语音信号;
A20、对于步骤A10保留下来的音频信号,在频域上分析其子带的谱包络特性和子带的熵特性,进一步剔除所述音频信号中的部分非语音信号;
A30、对于步骤A20保留下来的各待甄别帧的音频信号,将特征相似的连续若干帧组成一个音频段;
A40、对于每个待甄别音频段,通过高斯混合模型对于该音频段中是否包含语音数据进行段级决策,最终得到语音信号。
其中,通过上述步骤A10~步骤A40,获取子单元6021能够在各种复杂环境下从音频中检测到语音信号,可以相对准确的定位语音段语音数据和非语音段数据之间的边界。
本发明实施例中,控制子单元6026控制穿戴设备执行该操作关键字匹配的设定操作的方式具体可以为:
检测穿戴设备是否发生第一甩动作事件,如果穿戴设备发生第一甩动作事件,检测穿戴设备无线连接的智能手机是否发生第二甩动作事件,如果智能手机发生第二甩动作事件,判断第一甩动作事件和第二甩动作事件包括的甩动作方向是否相同,如果甩动作方向相同,判断第一甩动作事件和第二甩动作事件包括的甩动作起始时间的差值是否小于第一预设阈值,以及第一甩动作事件和第二甩动作事件包括的甩动作持续时长的差值是否小于第二预设阈值,如果第一甩动作事件和第二甩动作事件包括的甩动作起始时间的差值小于第一预设阈值,以及第一甩动作事件和第二甩动作事件包括的甩动作持续时长的差值小于第二预设阈值,触发穿戴设备执行该操作关键字匹配的设定操作。
作为一种可选的实施方式,如果第一甩动作事件和第二甩动作事件包括的甩动作起始时间的差值小于第一预设阈值,以及第一甩动作事件和第二甩动作事件包括的甩动作持续时长的差值小于第二预设阈值,那么控制子单元6026在触发穿戴设备执行该操作关键字匹配的设定操作之前,还可以执行以下操作:
控制子单元6026判断穿戴设备当前显示的时间是否位于预设睡眠时间段内,如果是,获取上述预存储的声纹特征绑定的用户年龄;判断统计的用户睡眠时长是否达到与用户的年龄相匹配的正常睡眠时长,如果达到,判断用户在睡眠时长内的深睡眠时长是否超过预设最短允许深睡眠时长,如果超过预设最短允许深睡眠时长,判断用户在睡眠时长内的运动量发生改变的平均间隔时长是否超过指定平均间隔时长,如果超过指定平均间隔时长,识别用户在睡眠时长内的睡眠质量满足预设睡眠质量,执行触发穿戴设备执行该操作关键字匹配的设定操作的步骤。
反之,如果穿戴设备当前显示的时间不位于预设睡眠时间段内,控制子单元6026可以直接执行触发穿戴设备执行该操作关键字匹配的设定操作的步骤;或者,如果统计的用户睡眠时长未达到与用户的年龄相匹配的正常睡眠时长,控制子单元6026可以拒绝执行触发穿戴设备执行该操作关键字匹配的设定操作的步骤;又或者,如果判断用户在睡眠时长内的运动量发生改变的平均间隔时长未超过指定平均间隔时长,控制子单元6026也可以拒绝执行触发穿戴设备执行该操作关键字匹配的设定操作的步骤。
由于用户处于深睡眠状态时,其运动量基本上不会发生变化,当用户处于浅睡眠时,由于用户翻转、摆手等各种动作的发生会导致用户的运动量发生改变,而根据相邻两次运动量发生改变的时间点可以确定出相邻两次运动量发生改变的间隔时长,对多个间隔时长求平均值可以获得运动量发生改变的平均间隔时长。
本发明实施例中,实施上述方式可以在精确地判断出用户睡眠足够的情况才执行触发穿戴设备执行该操作关键字匹配的设定操作的步骤,从而可以防止用户在睡眠不足时仍然操作穿戴设备所带来的健康隐患。
可见,实施本发明实施例七,当穿戴设备佩戴在用户的一只手上时,用户仅需抬起该手的手表即可控制穿戴设备执行某一些操作(如亮屏),用户不要使用另一只手去操作穿戴设备,从而可以十分便捷地控制穿戴设备执行操作,提高用户体验。
实施例八
请参阅图10,图10是本发明实施例公开的一种穿戴设备的的结构示意图。其中,图10所描述的穿戴设备可以包括智能手表、智能手环、手表电话等穿戴设备,本发明实施例不作限定。如图10所示,该穿戴设备可以包括:
电池1001、输入装置1002、通信装置1003、显示装置1004、红外测距传感器1005以及体感交互装置1006,其中,体感交互装置1006分别电性连接电池1001、输入装置1002、通信装置1003、显示装置1004以及红外测距传感器1005,红外测距传感器1005设置穿戴设备某一竖直外侧面上,并且当穿戴设备佩戴于手臂时该竖直外侧面靠近手背。
本发明实施例中,体感交互装置1006结构、功能已经在前面实施例四~实施例六进行了详细介绍,本发明实施例此处不作赘述。
本发明实施例中,输入装置1002主要包括按键、触摸屏等;通信装置1003主要包括远近场的无线装置,比如蓝牙、WIFI、GPRA、3G、4G等无线装置,可以进行数据通信,或者蓝牙连接作为手机伴侣使用;显示装置504主要包括显示屏幕。
可见,实施本发明实施例八,当穿戴设备佩戴在用户的一只手上时,用户仅需抬起该手的手表即可控制穿戴设备执行某一些操作(如亮屏),用户不要使用另一只手去操作穿戴设备,从而可以十分便捷地控制穿戴设备执行操作,提高用户体验。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质包括只读存储器(Read-Only Memory,ROM)、随机存储器(Random AcceAA Memory,RAM)、可编程只读存储器(Programmable Read-only Memory,PROM)、可擦除可编程只读存储器(EraAable Programmable Read Only Memory,EPROM)、一次可编程只读存储器(One-time Programmable Read-Only Memory,OTPROM)、电子抹除式可复写只读存储器(Electrically-EraAable Programmable Read-OnlyMemory,EEPROM)、只读光盘(Compact DiAc Read-Only Memory,CD-ROM)或其他光盘存储器、磁盘存储器、磁带存储器、或者能够用于携带或存储数据的计算机可读的任何其他介质。
以上对本发明实施例公开的一种体感交互方法及装置、穿戴设备进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (13)
1.一种体感交互方法,其特征在于,包括:
利用红外测距传感器检测手背是否发生抬起动作,所述红外测距传感器设置穿戴设备某一竖直外侧面上,并且当所述穿戴设备佩戴于手臂时所述竖直外侧面靠近所述手背;
如果所述手背发生抬起动作,控制所述穿戴设备执行设定操作。
2.根据权利要求1所述的体感交互方法,其特征在于,在检测出所述手背发生抬起动作之后,以及在控制所述穿戴设备执行设定操作之前,所述方法还包括:
判断所述手背抬起的持续时长是否超过指定时长,如果所述手背抬起动作的持续时长超过所述指定时长,执行所述的控制所述穿戴设备执行设定操作的步骤。
3.根据权利要求2所述的体感交互方法,其特征在于,在检测出所述手背抬起动作的持续时长超过所述指定时长之后,以及在控制所述穿戴设备执行设定操作之前,所述方法还包括:
判断所述红外测距传感器与所述手背之间距离值是否小于指定距离值,如果所述红外测距传感器与所述手背之间距离值小于所述指定距离值,执行所述的控制所述穿戴设备执行设定操作的步骤。
4.根据权利要求1、2或3所述的体感交互方法,其特征在于,所述控制所述穿戴设备执行设定操作,包括:
获取所述穿戴设备外部的语音信号;
对所述语音信号进行预处理,获得预处理信号;所述预处理包括预加重、分帧和加窗处理;
从所述预处理信号中提取声纹特征MFCC、LPCC、△MFCC、△LPCC、能量、能量的一阶差分以及GFCC共同组成第一多维特征向量,其中:所述MFCC为梅尔频率倒谱系数,所述LPCC为线性预测倒谱系数,所述△MFCC为所述MFCC的一阶差分,所述△LPCC为所述LPCC的一阶差分,所述GFCC为Gammatone滤波器倒谱系数;
判断所述第一多维特征向量是否与预存储的声纹特征对应的第二多维向量完全匹配,如果完全匹配,识别所述语音信号是否包含操作关键字;
如果所述语音信号包含所述操作关键字,识别所述操作关键字匹配的设定操作;
控制所述穿戴设备执行所述操作关键字匹配的设定操作。
5.根据权利要求4所述的体感交互方法,其特征在于,所述获取所述穿戴设备外部的语音信号,包括:
A10、检测所述穿戴设备外部的原始音频,在时域上分析所述原始音频的短时能量和短时过零率,通过短时能量和短时过零率剔除原始音频中的部分非语音信号;
A20、对于所述步骤A10保留下来的音频信号,在频域上分析其子带的谱包络特性和子带的熵特性,进一步剔除所述音频信号中的部分非语音信号;
A30、对于所述步骤A20保留下来的各待甄别帧的音频信号,将特征相似的连续若干帧组成一个音频段;
A40、对于每个待甄别音频段,通过高斯混合模型对于该音频段中是否包含语音数据进行段级决策,最终得到语音信号。
6.根据权利要求5所述的体感交互方法,其特征在于,所述控制所述穿戴设备执行所述操作关键字匹配的设定操作,包括:
检测所述穿戴设备是否发生第一甩动作事件,如果所述穿戴设备发生第一甩动作事件,检测所述穿戴设备无线连接的智能手机是否发生第二甩动作事件,如果所述智能手机发生第二甩动作事件,判断所述第一甩动作事件和所述第二甩动作事件包括的甩动作方向是否相同,如果甩动作方向相同,判断所述第一甩动作事件和所述第二甩动作事件包括的甩动作起始时间的差值是否小于第一预设阈值,以及所述第一甩动作事件和所述第二甩动作事件包括的甩动作持续时长的差值是否小于第二预设阈值,如果所述第一甩动作事件和所述第二甩动作事件包括的甩动作起始时间的差值小于第一预设阈值,以及所述第一甩动作事件和所述第二甩动作事件包括的甩动作持续时长的差值小于第二预设阈值,触发所述穿戴设备执行所述操作关键字匹配的设定操作。
7.一种体感交互装置,其特征在于,所述装置包括微控制单元,所述微控制单元包括:
第一检测单元,用于利用红外测距传感器检测手背是否发生抬起动作,所述红外测距传感器设置穿戴设备某一竖直外侧面上,并且当所述穿戴设备佩戴于手臂时所述竖直外侧面靠近所述手背;
控制单元,用于在所述第一检测单元的检测结果为是时,控制所述穿戴设备执行设定操作。
8.根据权利要求7所述的体感交互装置,其特征在于,所述微控制单元还包括:
第一判断单元,用于在所述第一检测单元的检测结果为是时,判断所述手背抬起的持续时长是否超过指定时长;
所述控制单元,用于在所述第一检测单元的检测结果以及所述第一判断单元的判断结果均为是时,控制所述穿戴设备执行设定操作。
9.根据权利要求8所述的体感交互装置,其特征在于,所述微控制单元还包括:
第二判断单元,用于在所述第一判断单元的判断结果为是时,判断所述红外测距传感器与所述手背之间距离值是否小于指定距离值;
所述控制单元,具体用于在所述第一检测单元的检测结果、所述第一判断单元的判断结果以及所述第二判断单元的判断结果均为是时,控制所述穿戴设备执行设定操作。
10.根据权利要求7、8或9所述的体感交互装置,其特征在于,所述控制单元,包括:
获取子单元,用于获取所述穿戴设备外部的语音信号;
预处理子单元,用于对所述语音信号进行预处理,获得预处理信号;所述预处理包括预加重、分帧和加窗处理;
提取子单元,用于从所述预处理信号中提取声纹特征MFCC、LPCC、△MFCC、△LPCC、能量、能量的一阶差分以及GFCC共同组成第一多维特征向量,其中:所述MFCC为梅尔频率倒谱系数,所述LPCC为线性预测倒谱系数,所述△MFCC为所述MFCC的一阶差分,所述△LPCC为所述LPCC的一阶差分,所述GFCC为Gammatone滤波器倒谱系数;
判断子单元,用于判断所述第一多维特征向量是否与预存储的声纹特征对应的第二多维向量完全匹配;
识别子单元,用于在所述判断子单元的判断结果为完全匹配时,识别所述语音信号是否包含操作关键字,如果所述语音信号包含所述操作关键字,识别所述操作关键字匹配的设定操作;
控制子单元,用于控制所述穿戴设备执行所述操作关键字匹配的设定操作。
11.根据权利要求10所述的体感交互装置,其特征在于,所述获取子单元获取所述穿戴设备外部的语音信号的方式具体为:
A10、检测所述穿戴设备外部的原始音频,在时域上分析所述原始音频的短时能量和短时过零率,通过短时能量和短时过零率剔除原始音频中的部分非语音信号;
A20、对于所述步骤A10保留下来的音频信号,在频域上分析其子带的谱包络特性和子带的熵特性,进一步剔除所述音频信号中的部分非语音信号;
A30、对于所述步骤A20保留下来的各待甄别帧的音频信号,将特征相似的连续若干帧组成一个音频段;
A40、对于每个待甄别音频段,通过高斯混合模型对于该音频段中是否包含语音数据进行段级决策,最终得到语音信号。
12.根据权利要求11所述的体感交互装置,其特征在于,所述控制子单元控制所述穿戴设备执行所述操作关键字匹配的设定操作的方式具体为:
检测所述穿戴设备是否发生第一甩动作事件,如果所述穿戴设备发生第一甩动作事件,检测所述穿戴设备无线连接的智能手机是否发生第二甩动作事件,如果所述智能手机发生第二甩动作事件,判断所述第一甩动作事件和所述第二甩动作事件包括的甩动作方向是否相同,如果甩动作方向相同,判断所述第一甩动作事件和所述第二甩动作事件包括的甩动作起始时间的差值是否小于第一预设阈值,以及所述第一甩动作事件和所述第二甩动作事件包括的甩动作持续时长的差值是否小于第二预设阈值,如果所述第一甩动作事件和所述第二甩动作事件包括的甩动作起始时间的差值小于第一预设阈值,以及所述第一甩动作事件和所述第二甩动作事件包括的甩动作持续时长的差值小于第二预设阈值,触发所述穿戴设备执行所述操作关键字匹配的设定操作。
13.一种穿戴设备,其特征在于,所述穿戴设备包括电池、输入装置、通信装置、显示装置、红外测距传感器以及如权利要求7~12任一项所述的体感交互装置,其中,所述体感交互装置分别电性连接所述电池、所述输入装置、所述通信装置、所述显示装置以及所述红外测距传感器,所述红外测距传感器设置所述穿戴设备某一竖直外侧面上,并且当所述穿戴设备佩戴于手臂时所述竖直外侧面靠近手背。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610297559.4A CN105843400A (zh) | 2016-05-05 | 2016-05-05 | 一种体感交互方法及装置、穿戴设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610297559.4A CN105843400A (zh) | 2016-05-05 | 2016-05-05 | 一种体感交互方法及装置、穿戴设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105843400A true CN105843400A (zh) | 2016-08-10 |
Family
ID=56591668
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610297559.4A Pending CN105843400A (zh) | 2016-05-05 | 2016-05-05 | 一种体感交互方法及装置、穿戴设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105843400A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106325057A (zh) * | 2016-08-16 | 2017-01-11 | 广东小天才科技有限公司 | 一种检测用户佩戴手表方向的方法及装置 |
CN106788541A (zh) * | 2016-12-27 | 2017-05-31 | 广东小天才科技有限公司 | 一种穿戴设备的控制方法及穿戴设备 |
CN106875192A (zh) * | 2017-02-27 | 2017-06-20 | 广东小天才科技有限公司 | 一种基于移动设备的支付方法及移动设备 |
CN108597512A (zh) * | 2018-04-27 | 2018-09-28 | 努比亚技术有限公司 | 移动终端控制方法、移动终端及计算机可读存储介质 |
CN108653898A (zh) * | 2018-03-26 | 2018-10-16 | 广东小天才科技有限公司 | 一种用于安抚儿童的音乐播放方法及可穿戴设备 |
CN108763178A (zh) * | 2018-05-08 | 2018-11-06 | 广东小天才科技有限公司 | 一种基于拍照图片的笔记标注方法及便携式电子设备 |
CN109375777A (zh) * | 2018-10-30 | 2019-02-22 | 张家口浩扬科技有限公司 | 一种提醒方法和系统 |
CN111949689A (zh) * | 2020-07-22 | 2020-11-17 | 北京三维天地科技股份有限公司 | 一种毒理学实验数据管理系统 |
CN113168219A (zh) * | 2018-12-29 | 2021-07-23 | 深圳市柔宇科技股份有限公司 | 一种显示控制方法、存储介质及电子设备 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101777250A (zh) * | 2010-01-25 | 2010-07-14 | 中国科学技术大学 | 家用电器的通用遥控装置及方法 |
US20120092383A1 (en) * | 2009-07-03 | 2012-04-19 | Hysek Joerg | Wristwatch with a touch screen and method for displaying on a touch-screen watch |
CN103217895A (zh) * | 2013-04-07 | 2013-07-24 | 上海与德通讯技术有限公司 | 支持手势功能的电子腕表和电子通讯设备 |
CN103646649A (zh) * | 2013-12-30 | 2014-03-19 | 中国科学院自动化研究所 | 一种高效的语音检测方法 |
CN103853333A (zh) * | 2014-03-21 | 2014-06-11 | 上海威璞电子科技有限公司 | 一种手势控制玩具的方案 |
CN104199546A (zh) * | 2014-08-31 | 2014-12-10 | 上海威璞电子科技有限公司 | 基于腕带和手环类产品采用四种手势实现控制的方法 |
CN104898406A (zh) * | 2014-03-07 | 2015-09-09 | 联想(北京)有限公司 | 电子设备和采集控制方法 |
CN105068730A (zh) * | 2015-08-27 | 2015-11-18 | 广东欧珀移动通信有限公司 | 一种内容切换方法及移动终端 |
-
2016
- 2016-05-05 CN CN201610297559.4A patent/CN105843400A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120092383A1 (en) * | 2009-07-03 | 2012-04-19 | Hysek Joerg | Wristwatch with a touch screen and method for displaying on a touch-screen watch |
CN101777250A (zh) * | 2010-01-25 | 2010-07-14 | 中国科学技术大学 | 家用电器的通用遥控装置及方法 |
CN103217895A (zh) * | 2013-04-07 | 2013-07-24 | 上海与德通讯技术有限公司 | 支持手势功能的电子腕表和电子通讯设备 |
CN103646649A (zh) * | 2013-12-30 | 2014-03-19 | 中国科学院自动化研究所 | 一种高效的语音检测方法 |
CN104898406A (zh) * | 2014-03-07 | 2015-09-09 | 联想(北京)有限公司 | 电子设备和采集控制方法 |
CN103853333A (zh) * | 2014-03-21 | 2014-06-11 | 上海威璞电子科技有限公司 | 一种手势控制玩具的方案 |
CN104199546A (zh) * | 2014-08-31 | 2014-12-10 | 上海威璞电子科技有限公司 | 基于腕带和手环类产品采用四种手势实现控制的方法 |
CN105068730A (zh) * | 2015-08-27 | 2015-11-18 | 广东欧珀移动通信有限公司 | 一种内容切换方法及移动终端 |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106325057A (zh) * | 2016-08-16 | 2017-01-11 | 广东小天才科技有限公司 | 一种检测用户佩戴手表方向的方法及装置 |
CN106325057B (zh) * | 2016-08-16 | 2018-10-23 | 广东小天才科技有限公司 | 一种检测用户佩戴手表方向的方法及装置 |
CN106788541A (zh) * | 2016-12-27 | 2017-05-31 | 广东小天才科技有限公司 | 一种穿戴设备的控制方法及穿戴设备 |
CN106875192A (zh) * | 2017-02-27 | 2017-06-20 | 广东小天才科技有限公司 | 一种基于移动设备的支付方法及移动设备 |
CN108653898A (zh) * | 2018-03-26 | 2018-10-16 | 广东小天才科技有限公司 | 一种用于安抚儿童的音乐播放方法及可穿戴设备 |
CN108597512A (zh) * | 2018-04-27 | 2018-09-28 | 努比亚技术有限公司 | 移动终端控制方法、移动终端及计算机可读存储介质 |
CN108763178A (zh) * | 2018-05-08 | 2018-11-06 | 广东小天才科技有限公司 | 一种基于拍照图片的笔记标注方法及便携式电子设备 |
CN109375777A (zh) * | 2018-10-30 | 2019-02-22 | 张家口浩扬科技有限公司 | 一种提醒方法和系统 |
CN109375777B (zh) * | 2018-10-30 | 2021-12-14 | 青岛民航凯亚系统集成有限公司 | 一种提醒方法和系统 |
CN113168219A (zh) * | 2018-12-29 | 2021-07-23 | 深圳市柔宇科技股份有限公司 | 一种显示控制方法、存储介质及电子设备 |
CN111949689A (zh) * | 2020-07-22 | 2020-11-17 | 北京三维天地科技股份有限公司 | 一种毒理学实验数据管理系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105843400A (zh) | 一种体感交互方法及装置、穿戴设备 | |
CN104391635B (zh) | 解锁屏幕的装置及方法 | |
KR102366617B1 (ko) | 음성 인식 서비스 운용 방법 및 이를 지원하는 전자 장치 | |
CN108604246A (zh) | 一种调节用户情绪的方法及装置 | |
CN107852016A (zh) | 电子设备的操作方法和支持该操作方法的电子设备 | |
CN109144181A (zh) | 设备中的抬起手势检测 | |
CN106060235A (zh) | 一种应用于移动设备的开关机控制方法及装置、移动设备 | |
CN104079972A (zh) | 一种检测用户在睡眠状态下自动关闭电视的方法及系统 | |
CN106664656A (zh) | 具有静电场传感器的电子装置和相关方法 | |
CN106020671A (zh) | 指纹传感器响应灵敏度的调节方法和装置 | |
CN107292158A (zh) | 移动终端及模式触发方法、计算机可读存储介质 | |
CN108734096A (zh) | 一种数据处理方法、装置和用于数据处理的装置 | |
CN109240639A (zh) | 音频数据的获取方法、装置、存储介质及终端 | |
CN109710321A (zh) | 电子设备的唤醒方法、装置及电子设备 | |
CN105832341A (zh) | 一种监控运动强度的方法及智能手环 | |
CN108108683A (zh) | 触控响应方法、移动终端及存储介质 | |
CN106325469A (zh) | 信息处理方法及装置 | |
CN109388058A (zh) | 一种智能手表及其工作模式判断方法 | |
CN107249084A (zh) | 移动终端及程序调用方法、计算机可读存储介质 | |
CN109753777A (zh) | 一种身份识别方法、装置、存储介质及移动终端 | |
CN107666536A (zh) | 一种寻找终端的方法和装置、一种用于寻找终端的装置 | |
CN107301862A (zh) | 一种语音识别方法、识别模型建立方法、装置及电子设备 | |
WO2019210020A1 (en) | A gesture access control system and method of operation | |
CN110390953A (zh) | 啸叫语音信号的检测方法、装置、终端及存储介质 | |
CN109036410A (zh) | 语音识别方法、装置、存储介质及终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20160810 |