CN110187770B - 一种腕带声控交互方法、设备及计算机可读存储介质 - Google Patents

一种腕带声控交互方法、设备及计算机可读存储介质 Download PDF

Info

Publication number
CN110187770B
CN110187770B CN201910472399.6A CN201910472399A CN110187770B CN 110187770 B CN110187770 B CN 110187770B CN 201910472399 A CN201910472399 A CN 201910472399A CN 110187770 B CN110187770 B CN 110187770B
Authority
CN
China
Prior art keywords
tapping
wrist strap
wristband
audio
audio data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910472399.6A
Other languages
English (en)
Other versions
CN110187770A (zh
Inventor
陈美凤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Tichda Information Technology Co ltd
Original Assignee
Shenzhen Tichda Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Tichda Information Technology Co ltd filed Critical Shenzhen Tichda Information Technology Co ltd
Priority to CN201910472399.6A priority Critical patent/CN110187770B/zh
Publication of CN110187770A publication Critical patent/CN110187770A/zh
Application granted granted Critical
Publication of CN110187770B publication Critical patent/CN110187770B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/162Interface to dedicated audio devices, e.g. audio drivers, interface to CODECs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请公开了一种腕带声控交互方法、设备及计算机可读存储介质,其中,该方法包括:检测穿戴设备的穿戴状态,在所述穿戴状态下确定所述腕带的音频特征;然后,获取所述穿戴设备当前的显示区域,根据所述显示区域内的显示内容以及所述显示区域与所述腕带的位置关系,确定当前状态下接收声控指令的叩击区域;根据所述叩击音频数据得到所述叩击音频数据对应的结合点数据;最后,解析所述结合点数据,得到所述结合点的组合时序特征,根据所述组合时序特征生成所述显示内容对应的交互指令。实现了一种人性化的腕带声控交互方案,使得穿戴设备的操控方式更为丰富多彩,提高了穿戴设备的操控体验以及操作效率。

Description

一种腕带声控交互方法、设备及计算机可读存储介质
技术领域
本申请涉及移动通信领域,尤其涉及一种腕带声控交互方法、设备及计算机可读存储介质。
背景技术
现有技术中,随着智能终端设备的快速发展,出现了区别于常规智能手机的穿戴式设备,例如,智能手表或者智能手环等穿戴式设备。由于穿戴式设备相较于传统的智能手机,其软、硬件环境、操作方式以及操作环境等特殊性,若将传统的智能手机的操控方案转用至穿戴式设备,则可能会给用户的操作带来不便之处、用户体验不佳。
发明内容
为了解决现有技术中的上述技术缺陷,本发明提出了一种腕带声控交互方法,该方法包括:
检测穿戴设备的穿戴状态,在所述穿戴状态下确定所述腕带的音频特征,其中,所述音频特征包括所述腕带的结合点以及所述结合点对应的叩击音频;
获取所述穿戴设备当前的显示区域,根据所述显示区域内的显示内容以及所述显示区域与所述腕带的位置关系,确定当前状态下接收声控指令的叩击区域;
在预设交互时间内,获取所述叩击区域内的叩击音频数据,根据所述叩击音频数据得到所述叩击音频数据对应的结合点数据;
解析所述结合点数据,得到所述结合点的组合时序特征,根据所述组合时序特征生成所述显示内容对应的交互指令。
可选的,所述检测穿戴设备的穿戴状态,在所述穿戴状态下确定所述腕带的音频特征,其中,所述音频特征包括所述腕带的结合点以及所述结合点对应的叩击音频,包括:
根据所述穿戴设备的压感传感器和重力传感器获取所述穿戴设备的传感信息;
根据所述传感信息识别所述穿戴状态。
可选的,所述检测穿戴设备的穿戴状态,在所述穿戴状态下确定所述腕带的音频特征,其中,所述音频特征包括所述腕带的结合点以及所述结合点对应的叩击音频,还包括:
在所述穿戴状态下,结合所述压感传感器的压感信息,确定所述腕带的受力分布状态;
根据所述腕带的受力分布状态以及所述腕带的结构特征,得到所述腕带的音频特征。
可选的,所述获取所述穿戴设备当前的显示区域,根据所述显示区域内的显示内容以及所述显示区域与所述腕带的位置关系,确定当前状态下接收声控指令的叩击区域,包括:
确定所述穿戴设备的显示范围,在所述显示范围内划分所述显示区域;
获取实时显示区域内运行的应用程序以及所述应用程序对应的显示内容。
可选的,所述获取所述穿戴设备当前的显示区域,根据所述显示区域内的显示内容以及所述显示区域与所述腕带的位置关系,确定当前状态下接收声控指令的叩击区域,还包括:
根据所述显示内容确定待交互指令,根据所述待交互指令与预设的声控指令对应关系,确定目标声控指令;
确定满足生成所述目标声控指令条件的叩击区域,其中,所述叩击区域包含所述显示区域与所述腕带的位置关系。
可选的,所述在预设交互时间内,获取所述叩击区域内的叩击音频数据,根据所述叩击音频数据得到所述叩击音频数据对应的结合点数据,包括:
确定与所述目标声控指令对应的预设交互时间;
在所述预设交互时间内,获取所述叩击区域内的叩击音频数据。
可选的,所述在预设交互时间内,获取所述叩击区域内的叩击音频数据,根据所述叩击音频数据得到所述叩击音频数据对应的结合点数据,还包括:
解析所述叩击音频数据,其中,所述叩击音频数据包括叩击单元以及叩击音色;
根据所述叩击音频数据得到所述叩击音频数据对应的结合点数据,其中,所述结合点数据包括叩击单元以及叩击位置。
可选的,所述解析所述结合点数据,得到所述结合点的组合时序特征,根据所述组合时序特征生成所述显示内容对应的交互指令,包括:
解析所述结合点数据,得到所述叩击位置的组合时序特征;
根据所述叩击位置的组合时序特征生成所述显示内容对应的交互指令。
本发明还提出了一种腕带声控交互设备,该设备包括:
存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序;
所述计算机程序被所述处理器执行时实现如上述任一项所述的方法的步骤。
本发明还提出了一种计算机可读存储介质,该计算机可读存储介质上存储有腕带声控交互程序,所述腕带声控交互程序被处理器执行时实现如上述任一项所述的腕带声控交互方法的步骤。
本发明的有益效果在于,通过检测穿戴设备的穿戴状态,在所述穿戴状态下确定所述腕带的音频特征,其中,所述音频特征包括所述腕带的结合点以及所述结合点对应的叩击音频;然后,获取所述穿戴设备当前的显示区域,根据所述显示区域内的显示内容以及所述显示区域与所述腕带的位置关系,确定当前状态下接收声控指令的叩击区域;再然后,在预设交互时间内,获取所述叩击区域内的叩击音频数据,根据所述叩击音频数据得到所述叩击音频数据对应的结合点数据;最后,解析所述结合点数据,得到所述结合点的组合时序特征,根据所述组合时序特征生成所述显示内容对应的交互指令。实现了一种人性化的腕带声控交互方案,使得穿戴设备的操控方式更为丰富多彩,提高了穿戴设备的操控体验以及操作效率。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的可穿戴设备一种实施方式的硬件结构示意图;
图2为本申请实施例提供的可穿戴设备一种实施方式的硬件示意图;
图3为本申请实施例提供的可穿戴设备一种实施方式的硬件示意图;
图4为本申请实施例提供的可穿戴设备一种实施方式的硬件示意图;
图5为本申请实施例提供的可穿戴设备一种实施方式的硬件示意图;
图6是本发明腕带声控交互方法第一实施例的流程图;
图7是本发明腕带声控交互方法第二实施例的流程图;
图8是本发明腕带声控交互方法第三实施例的流程图;
图9是本发明腕带声控交互方法第四实施例的流程图;
图10是本发明腕带声控交互方法第五实施例的流程图;
图11是本发明腕带声控交互方法第六实施例的流程图;
图12是本发明腕带声控交互方法第七实施例的流程图;
图13是本发明腕带声控交互方法第八实施例的流程图。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
在后续的描述中,使用用于表示元件的诸如“模块”、“部件”或“单元”的后缀仅为了有利于本发明的说明,其本身没有特定的意义。因此,“模块”、“部件”或“单元”可以混合地使用。
本发明实施例中提供的可穿戴设备包括智能手环、智能手表、以及智能手机等移动终端。随着屏幕技术的不断发展,柔性屏、折叠屏等屏幕形态的出现,智能手机等移动终端也可以作为可穿戴设备。本发明实施例中提供的可穿戴设备可以包括:RF(RadioFrequency,射频)单元、WiFi模块、音频输出单元、A/V(音频/视频)输入单元、传感器、显示单元、用户输入单元、接口单元、存储器、处理器、以及电源等部件。
后续描述中将以可穿戴设备为例进行说明,请参阅图1,其为实现本发明各个实施例的一种可穿戴设备的硬件结构示意图,该可穿戴设备100可以包括:RF(RadioFrequency,射频)单元101、WiFi模块102、音频输出单元103、A/V(音频/视频)输入单元104、传感器105、显示单元106、用户输入单元107、接口单元108、存储器109、处理器110、以及电源111等部件。本领域技术人员可以理解,图1中示出的可穿戴设备结构并不构成对可穿戴设备的限定,可穿戴设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
下面结合图1对可穿戴设备的各个部件进行具体的介绍:
射频单元101可用于收发信息或通话过程中,信号的接收和发送,具体的,射频单元101可以将上行信息发送给基站,另外也可以将基站发送的下行信息接收后,发送给可穿戴设备的处理器110处理,基站向射频单元101发送的下行信息可以是根据射频单元101发送的上行信息生成的,也可以是在检测到可穿戴设备的信息更新后主动向射频单元101推送的,例如,在检测到可穿戴设备所处的地理位置发生变化后,基站可以向可穿戴设备的射频单元101发送地理位置变化的消息通知,射频单元101在接收到该消息通知后,可以将该消息通知发送给可穿戴设备的处理器110处理,可穿戴设备的处理器110可以控制该消息通知显示在可穿戴设备的显示面板1061上;通常,射频单元101包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器、双工器等。此外,射频单元101还可以通过无线通信与网络和其他设备通信,具体的可以包括:通过无线通信与网络系统中的服务器通信,例如,可穿戴设备可以通过无线通信从服务器中下载文件资源,比如可以从服务器中下载应用程序,在可穿戴设备将某一应用程序下载完成之后,若服务器中该应用程序对应的文件资源更新,则该服务器可以通过无线通信向可穿戴设备推送资源更新的消息通知,以提醒用户对该应用程序进行更新。上述无线通信可以使用任一通信标准或协议,包括但不限于GSM(Global System of Mobile communication,全球移动通讯系统)、GPRS(GeneralPacket Radio Service,通用分组无线服务)、CDMA2000(Code Division Multiple Access2000,码分多址2000)、WCDMA(Wideband Code Division Multiple Access,宽带码分多址)、TD-SCDMA(Time Division-Synchronous Code Division Multiple Access,时分同步码分多址)、FDD-LTE(Frequency Division Duplexing-Long Term Evolution,频分双工长期演进)和TDD-LTE(Time Division Duplexing-Long Term Evolution,分时双工长期演进)等。
在一种实施方式中,可穿戴设备100可以通过插入SIM卡来接入现有的通信网络。
在另一种实施方式中,可穿戴设备100可以通过设置esim卡(Embedded-SIM),来实现接入现有的通信网络,采用esim卡的方式,可以节省可穿戴设备的内部空间,降低厚度。
可以理解的是,虽然图1示出了射频单元101,但是可以理解的是,射频单元101其并不属于可穿戴设备的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。,可穿戴设备100可以单独通过wifi模块102来实现与其他设备或通信网络的通信连接,本发明实施例并不以此为限。
WiFi属于短距离无线传输技术,可穿戴设备通过WiFi模块102可以帮助用户收发电子邮件、浏览网页和访问流式媒体等,它为用户提供了无线的宽带互联网访问。虽然图1示出了WiFi模块102,但是可以理解的是,其并不属于可穿戴设备的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。
音频输出单元103可以在可穿戴设备100处于呼叫信号接收模式、通话模式、记录模式、语音识别模式、广播接收模式等等模式下时,将射频单元101或WiFi模块102接收的或者在存储器109中存储的音频数据转换成音频信号并且输出为声音。而且,音频输出单元103还可以提供与可穿戴设备100执行的特定功能相关的音频输出(例如,呼叫信号接收声音、消息接收声音等等)。音频输出单元103可以包括扬声器、蜂鸣器等等。
A/V输入单元104用于接收音频或视频信号。A/V输入单元104可以包括图形处理器(Graphics Processing Unit,GPU)1041和麦克风1042,图形处理器1041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。处理后的图像帧可以显示在显示单元106上。经图形处理器1041处理后的图像帧可以存储在存储器109(或其它存储介质)中或者经由射频单元101或WiFi模块102进行发送。麦克风1042可以在电话通话模式、记录模式、语音识别模式等等运行模式中经由麦克风1042接收声音(音频数据),并且能够将这样的声音处理为音频数据。处理后的音频(语音)数据可以在电话通话模式的情况下转换为可经由射频单元101发送到移动通信基站的格式输出。麦克风1042可以实施各种类型的噪声消除(或抑制)算法以消除(或抑制)在接收和发送音频信号的过程中产生的噪声或者干扰。
在一种实施方式中,可穿戴设备100包括有一个或多个摄像头,通过开启摄像头,能够实现对图像的捕获,实现拍照、录像等功能,摄像头的位置可以根据需要进行设置。
可穿戴设备100还包括至少一种传感器105,比如光传感器、运动传感器以及其他传感器。具体地,光传感器包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板1061的亮度,接近传感器可在可穿戴设备100移动到耳边时,关闭显示面板1061和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别手机姿态的应用(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等。
在一种实施方式中,可穿戴设备100还包括接近传感器,通过采用接近传感器,可穿戴设备能够实现非接触操控,提供更多的操作方式。
在一种实施方式中,可穿戴设备100还包括心率传感器,在佩戴时,通过贴近使用者,能够实现心率的侦测。
在一种实施方式中,可穿戴设备100还可以包括指纹传感器,通过读取指纹,能够实现安全验证等功能。
显示单元106用于显示由用户输入的信息或提供给用户的信息。显示单元106可包括显示面板1061,可以采用液晶显示器(Liquid Crystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板1061。
在一种实施方式中,显示面板1061采用柔性显示屏,采用柔性显示屏的可穿戴设备在佩戴时,屏幕能够进行弯曲,从而更加贴合。可选的,所述柔性显示屏可以采用OLED屏体以及石墨烯屏体,在其他实施方式中,所述柔性显示屏也可以是其他显示材料,本实施例并不以此为限。
在一种实施方式中,可穿戴设备的显示面板1061可以采取长方形,便于佩戴时环绕。在其他实施方式中,也可以采取其他方式。
用户输入单元107可用于接收输入的数字或字符信息,以及产生与可穿戴设备的用户设置以及功能控制有关的键信号输入。具体地,用户输入单元107可包括触控面板1071以及其他输入设备1072。触控面板1071,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板1071上或在触控面板1071附近的操作),并根据预先设定的程式驱动相应的连接装置。触控面板1071可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器110,并能接收处理器110发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板1071。除了触控面板1071,用户输入单元107还可以包括其他输入设备1072。具体地,其他输入设备1072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种,具体此处不做限定。
在一种实施方式中,可穿戴设备100的侧边可以设置有一个或多个按钮。按钮可以实现短按、长按、旋转等多种方式,从而实现多种操作效果。按钮的数量可以为多个,不同的按钮之间可以组合使用,实现多种操作功能。
进一步的,触控面板1071可覆盖显示面板1061,当触控面板1071检测到在其上或附近的触摸操作后,传送给处理器110以确定触摸事件的类型,随后处理器110根据触摸事件的类型在显示面板1061上提供相应的视觉输出。虽然在图1中,触控面板1071与显示面板1061是作为两个独立的部件来实现可穿戴设备的输入和输出功能,但是在某些实施例中,可以将触控面板1071与显示面板1061集成而实现可穿戴设备的输入和输出功能,具体此处不做限定。比如,当通过射频单元101接收到某一应用程序的消息通知时,处理器110可以控制将该消息通知显示在显示面板1061的某一预设区域内,该预设区域与触控面板1071的某一区域对应,通过对触控面板1071某一区域进行触控操作,可以对显示面板1061上对应区域内显示的消息通知进行控制。
接口单元108用作至少一个外部装置与可穿戴设备100连接可以通过的接口。例如,外部装置可以包括有线或无线头戴式耳机端口、外部电源(或电池充电器)端口、有线或无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。接口单元108可以用于接收来自外部装置的输入(例如,数据信息、电力等等)并且将接收到的输入传输到可穿戴设备100内的一个或多个元件或者可以用于在可穿戴设备100和外部装置之间传输数据。
在一种实施方式中,可穿戴设备100的接口单元108采用触点的结构,通过触点与对应的其他设备连接,实现充电、连接等功能。采用触点还可以防水。
存储器109可用于存储软件程序以及各种数据。存储器109可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器109可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
处理器110是可穿戴设备的控制中心,利用各种接口和线路连接整个可穿戴设备的各个部分,通过运行或执行存储在存储器109内的软件程序和/或模块,以及调用存储在存储器109内的数据,执行可穿戴设备的各种功能和处理数据,从而对可穿戴设备进行整体监控。处理器110可包括一个或多个处理单元;优选的,处理器110可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器110中。
可穿戴设备100还可以包括给各个部件供电的电源111(比如电池),优选的,电源111可以通过电源管理系统与处理器110逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
尽管图1未示出,可穿戴设备100还可以包括蓝牙模块等,在此不再赘述。可穿戴设备100通过蓝牙,可以与其他终端设备连接,实现通信以及信息的交互。
请参考图2-图4,为本发明实施例提供的一种可穿戴设备一种实施方式下的结构示意图。本发明实施例中的可穿戴设备,包括柔性屏幕。在可穿戴设备展开时,柔性屏幕呈长条形;在可穿戴设备处于佩戴状态时,柔性屏幕弯曲呈环状。图2及图3示出了可穿戴设备屏幕展开时的结构示意图,图4示出了可穿戴设备屏幕弯曲时的结构示意图。
基于上述各个实施方式,可以看到,若所述设备为手表、手环或者可穿戴式设备时,所述设备的屏幕可以不覆盖设备的表带区域,也可以覆盖设备的表带区域。在此,本申请提出一种可选的实施方式,在本实施方式中,所述设备可以为手表、手环或者可穿戴式设备,所述设备包括屏幕以及连接部。所述屏幕可以为柔性屏幕,所述连接部可以为表带。可选的,所述设备的屏幕或者屏幕的显示区可以部分或者全部的覆盖在设备的表带上。如图5所示,图5为本申请实施例提供的一种可穿戴设备一种实施方式的硬件示意图,所述设备的屏幕向两侧延伸,部分的覆盖在设备的表带上。在其他实施方式中,所述设备的屏幕也可以全部覆盖在所述设备的表带上,本申请实施例并不以此为限。
实施例一
图6是本发明腕带声控交互方法第一实施例的流程图。一种腕带声控交互方法,该方法包括:
S1、检测穿戴设备的穿戴状态,在所述穿戴状态下确定所述腕带的音频特征,其中,所述音频特征包括所述腕带的结合点以及所述结合点对应的叩击音频;
S2、获取所述穿戴设备当前的显示区域,根据所述显示区域内的显示内容以及所述显示区域与所述腕带的位置关系,确定当前状态下接收声控指令的叩击区域;
S3、在预设交互时间内,获取所述叩击区域内的叩击音频数据,根据所述叩击音频数据得到所述叩击音频数据对应的结合点数据;
S4、解析所述结合点数据,得到所述结合点的组合时序特征,根据所述组合时序特征生成所述显示内容对应的交互指令。
在本实施例中,首先,检测穿戴设备的穿戴状态,在所述穿戴状态下确定所述腕带的音频特征,其中,所述音频特征包括所述腕带的结合点以及所述结合点对应的叩击音频;然后,获取所述穿戴设备当前的显示区域,根据所述显示区域内的显示内容以及所述显示区域与所述腕带的位置关系,确定当前状态下接收声控指令的叩击区域;再然后,在预设交互时间内,获取所述叩击区域内的叩击音频数据,根据所述叩击音频数据得到所述叩击音频数据对应的结合点数据;最后,解析所述结合点数据,得到所述结合点的组合时序特征,根据所述组合时序特征生成所述显示内容对应的交互指令。
可选的,在本实施例中,首先,检测穿戴设备的穿戴状态,在所述穿戴状态下确定所述腕带的音频特征,其中,所述音频特征包括所述腕带的结合点以及所述结合点对应的叩击音频。例如,当穿戴设备为腕部穿戴时,其具有腕带结构,而若当腕带是由一节一节的金属或者竹片或者其它块状或链状结构组成时,当用户的手指划过腕带时,即会发出相应的声音,在本实施例中,将利用该声音对穿戴设备交互显示界面的功能执行相应的控制操作。具体的,首先,检测穿戴设备的穿戴状态,在所述穿戴状态下确定所述腕带的音频特征,其中,所述音频特征包括所述腕带的结合点以及所述结合点对应的叩击音频,可以理解的是,穿戴设备处于不同的穿戴状态,其相同的腕带区域可能产生不同的声音,因此,为了提高本实施例的实施准确性和有效性,首先需要检测穿戴设备的穿戴状态,在所述穿戴状态下确定所述腕带的音频特征;
可选的,在本实施例中,获取所述穿戴设备当前的显示区域,根据所述显示区域内的显示内容以及所述显示区域与所述腕带的位置关系,确定当前状态下接收声控指令的叩击区域,例如,由于腕带的可操作区域有限,因此,在显示区域内,确定与显示内容相关的有限个控制对象,然后,根据预设的对应关系,确定该数个控制对象对应的数个叩击区域,可以理解的是,上述数个叩击区域可包括重合的区域,该叩击区域指示表示叩击操作可能涉及的区域,并不表示具体的叩击操作;
可选的,在本实施例中,在预设交互时间内,获取所述叩击区域内的叩击音频数据,根据所述叩击音频数据得到所述叩击音频数据对应的结合点数据。其中,根据用户手指或者手指甲划过叩击区域内的腕带结构,生成对应的叩击音,在本实施例中,提取该叩击音对应的音频数据,可以理解的是,该音频数据是由对应的结合点生成的,该对应的结合点按一定的滑动的次序生成对应的叩击音;
可选的,在本实施例中,解析所述结合点数据,得到所述结合点的组合时序特征,根据所述组合时序特征生成所述显示内容对应的交互指令。其中,确定组合时序与操控指令之间的对应关系,当解析所述结合点数据,得到所述结合点的组合时序特征后,即可根据所述组合时序特征生成所述显示内容对应的交互指令,其中,该交互指令包括返回指令、确定指令、编辑指令以及发送指令等。
本实施例的有益效果在于,通过检测穿戴设备的穿戴状态,在所述穿戴状态下确定所述腕带的音频特征,其中,所述音频特征包括所述腕带的结合点以及所述结合点对应的叩击音频;然后,获取所述穿戴设备当前的显示区域,根据所述显示区域内的显示内容以及所述显示区域与所述腕带的位置关系,确定当前状态下接收声控指令的叩击区域;再然后,在预设交互时间内,获取所述叩击区域内的叩击音频数据,根据所述叩击音频数据得到所述叩击音频数据对应的结合点数据;最后,解析所述结合点数据,得到所述结合点的组合时序特征,根据所述组合时序特征生成所述显示内容对应的交互指令。实现了一种人性化的腕带声控交互方案,使得穿戴设备的操控方式更为丰富多彩,提高了穿戴设备的操控体验以及操作效率。
图7是本发明腕带声控交互方法第二实施例的流程图,基于上述实施例,所述检测穿戴设备的穿戴状态,在所述穿戴状态下确定所述腕带的音频特征,其中,所述音频特征包括所述腕带的结合点以及所述结合点对应的叩击音频,包括:
S11、根据所述穿戴设备的压感传感器和重力传感器获取所述穿戴设备的传感信息;
S12、根据所述传感信息识别所述穿戴状态。
在本实施例中,首先,根据所述穿戴设备的压感传感器和重力传感器获取所述穿戴设备的传感信息;然后,根据所述传感信息识别所述穿戴状态。
可选的,当穿戴设备为腕部穿戴时,其具有腕带结构,而若当腕带是由一节一节的金属或者竹片或者其它块状或链状结构组成时,当用户的手指划过腕带时,即会发出相应的声音;
可选的,在本实施例中,穿戴设备处于不同的穿戴状态,其相同的腕带区域可能产生不同的声音,因此,为了提高本实施例的实施准确性和有效性,首先需要检测穿戴设备的穿戴状态,在所述穿戴状态下确定所述腕带的音频特征;
可选的,根据所述穿戴设备的压感传感器和重力传感器获取所述穿戴设备的传感信息;然后,根据所述传感信息识别所述穿戴状态。
本实施例的有益效果在于,通过所述穿戴设备的压感传感器和重力传感器获取所述穿戴设备的传感信息;然后,根据所述传感信息识别所述穿戴状态。实现了一种更为人性化的腕带声控交互方案,使得穿戴设备的操控方式更为丰富多彩,提高了穿戴设备的操控体验以及操作效率。
实施例三
图8是本发明腕带声控交互方法第三实施例的流程图,基于上述实施例,所述检测穿戴设备的穿戴状态,在所述穿戴状态下确定所述腕带的音频特征,其中,所述音频特征包括所述腕带的结合点以及所述结合点对应的叩击音频,还包括:
S13、在所述穿戴状态下,结合所述压感传感器的压感信息,确定所述腕带的受力分布状态;
S14、根据所述腕带的受力分布状态以及所述腕带的结构特征,得到所述腕带的音频特征。
在本实施例中,首先,在所述穿戴状态下,结合所述压感传感器的压感信息,确定所述腕带的受力分布状态;然后,根据所述腕带的受力分布状态以及所述腕带的结构特征,得到所述腕带的音频特征。
可选的,在所述穿戴状态下,结合所述压感传感器的压感信息以及穿戴部位的人体组织信息,确定所述腕带的受力分布状态;
可选的,根据所述腕带的受力分布状态以及所述腕带的结构特征,得到所述腕带的音频特征;
可选的,根据所述腕带的受力分布状态以及所述腕带的结构单元属性以及各结构单元的连接属性,得到所述腕带的音频特征。
本实施例的有益效果在于,通过在所述穿戴状态下,结合所述压感传感器的压感信息,确定所述腕带的受力分布状态;然后,根据所述腕带的受力分布状态以及所述腕带的结构特征,得到所述腕带的音频特征。实现了一种更为人性化的腕带声控交互方案,使得穿戴设备的操控方式更为丰富多彩,提高了穿戴设备的操控体验以及操作效率。
实施例四
图9是本发明腕带声控交互方法第四实施例的流程图,基于上述实施例,所述获取所述穿戴设备当前的显示区域,根据所述显示区域内的显示内容以及所述显示区域与所述腕带的位置关系,确定当前状态下接收声控指令的叩击区域,包括:
S21、确定所述穿戴设备的显示范围,在所述显示范围内划分所述显示区域;
S22、获取实时显示区域内运行的应用程序以及所述应用程序对应的显示内容。
在本实施例中,首先,确定所述穿戴设备的显示范围,在所述显示范围内划分所述显示区域;然后,获取实时显示区域内运行的应用程序以及所述应用程序对应的显示内容。
可选的,在本实施例中,获取所述穿戴设备当前的显示区域,根据所述显示区域内的显示内容以及所述显示区域与所述腕带的位置关系,确定当前状态下接收声控指令的叩击区域,例如,由于腕带的可操作区域有限,因此,在显示区域内,确定与显示内容相关的有限个控制对象,然后,根据预设的对应关系,确定该数个控制对象对应的数个叩击区域,可以理解的是,上述数个叩击区域可包括重合的区域,该叩击区域指示表示叩击操作可能涉及的区域,并不表示具体的叩击操作;
可选的,根据显示区域范围的不同,确定对应的叩击区域的不同;
可选的,根据显示内容的内容特征,确定对应的交互需求,根据交互需求确定对应的叩击区域。
本实施例的有益效果在于,通过确定所述穿戴设备的显示范围,在所述显示范围内划分所述显示区域;然后,获取实时显示区域内运行的应用程序以及所述应用程序对应的显示内容。实现了一种更为人性化的腕带声控交互方案,使得穿戴设备的操控方式更为丰富多彩,提高了穿戴设备的操控体验以及操作效率。
实施例五
图10是本发明腕带声控交互方法第五实施例的流程图,基于上述实施例,所述获取所述穿戴设备当前的显示区域,根据所述显示区域内的显示内容以及所述显示区域与所述腕带的位置关系,确定当前状态下接收声控指令的叩击区域,还包括:
S23、根据所述显示内容确定待交互指令,根据所述待交互指令与预设的声控指令对应关系,确定目标声控指令;
S24、确定满足生成所述目标声控指令条件的叩击区域,其中,所述叩击区域包含所述显示区域与所述腕带的位置关系。
在本实施例中,首先,根据所述显示内容确定待交互指令,根据所述待交互指令与预设的声控指令对应关系,确定目标声控指令;然后,确定满足生成所述目标声控指令条件的叩击区域,其中,所述叩击区域包含所述显示区域与所述腕带的位置关系。
可选的,根据所述显示内容确定一个或多个待交互指令,根据所述一个或多个待交互指令与预设的声控指令对应关系,确定一个或多个目标声控指令,其中,所述一个目标声控指令包括预设快捷方式内的多个待交互指令,从而提高操作效率。
本实施例的有益效果在于,通过所述显示内容确定待交互指令,根据所述待交互指令与预设的声控指令对应关系,确定目标声控指令;然后,确定满足生成所述目标声控指令条件的叩击区域,其中,所述叩击区域包含所述显示区域与所述腕带的位置关系。实现了一种更为人性化的腕带声控交互方案,使得穿戴设备的操控方式更为丰富多彩,提高了穿戴设备的操控体验以及操作效率。
实施例六
图11是本发明腕带声控交互方法第六实施例的流程图,基于上述实施例,所述在预设交互时间内,获取所述叩击区域内的叩击音频数据,根据所述叩击音频数据得到所述叩击音频数据对应的结合点数据,包括:
S31、确定与所述目标声控指令对应的预设交互时间;
S32、在所述预设交互时间内,获取所述叩击区域内的叩击音频数据。
在本实施例中,首先,确定与所述目标声控指令对应的预设交互时间;然后,在所述预设交互时间内,获取所述叩击区域内的叩击音频数据。
可选的,在本实施例中,在预设交互时间内,获取所述叩击区域内的叩击音频数据,根据所述叩击音频数据得到所述叩击音频数据对应的结合点数据。其中,根据用户手指或者手指甲划过叩击区域内的腕带结构,生成对应的叩击音,在本实施例中,提取该叩击音对应的音频数据,可以理解的是,该音频数据是由对应的结合点生成的,该对应的结合点按一定的滑动的次序生成对应的叩击音;
可选的,为了避免误操作和误识别,确定与所述目标声控指令对应的预设交互时间;
可选的,在所述预设交互时间内,获取所述叩击区域内的一组或多组叩击音频数据。
本实施例的有益效果在于,通过确定与所述目标声控指令对应的预设交互时间;然后,在所述预设交互时间内,获取所述叩击区域内的叩击音频数据。实现了一种更为人性化的腕带声控交互方案,使得穿戴设备的操控方式更为丰富多彩,提高了穿戴设备的操控体验以及操作效率。
实施例七
图12是本发明腕带声控交互方法第七实施例的流程图,基于上述实施例,所述在预设交互时间内,获取所述叩击区域内的叩击音频数据,根据所述叩击音频数据得到所述叩击音频数据对应的结合点数据,还包括:
S33、解析所述叩击音频数据,其中,所述叩击音频数据包括叩击单元以及叩击音色;
S34、根据所述叩击音频数据得到所述叩击音频数据对应的结合点数据,其中,所述结合点数据包括叩击单元以及叩击位置。
在本实施例中,首先,解析所述叩击音频数据,其中,所述叩击音频数据包括叩击单元以及叩击音色;然后,根据所述叩击音频数据得到所述叩击音频数据对应的结合点数据,其中,所述结合点数据包括叩击单元以及叩击位置。
可选的,解析所述叩击音频数据,其中,所述叩击音频数据包括叩击单元以及叩击音色,叩击单元表示发出每一个声音的结合点,叩击音色是上述每一个结合点处所发出的声音的音色;
可选的,根据所述叩击音频数据得到所述叩击音频数据对应的结合点数据,其中,所述结合点数据包括叩击单元以及叩击位置,其中,叩击位置是由上述多个叩击单元对应的结合点组成的位置信息。
本实施例的有益效果在于,通过解析所述叩击音频数据,其中,所述叩击音频数据包括叩击单元以及叩击音色;然后,根据所述叩击音频数据得到所述叩击音频数据对应的结合点数据,其中,所述结合点数据包括叩击单元以及叩击位置。实现了一种更为人性化的腕带声控交互方案,使得穿戴设备的操控方式更为丰富多彩,提高了穿戴设备的操控体验以及操作效率。
实施例八
图13是本发明腕带声控交互方法第八实施例的流程图,基于上述实施例,所述解析所述结合点数据,得到所述结合点的组合时序特征,根据所述组合时序特征生成所述显示内容对应的交互指令,包括:
S41、解析所述结合点数据,得到所述叩击位置的组合时序特征;
S42、根据所述叩击位置的组合时序特征生成所述显示内容对应的交互指令。
在本实施例中,首先,解析所述结合点数据,得到所述叩击位置的组合时序特征;然后,根据所述叩击位置的组合时序特征生成所述显示内容对应的交互指令。
可选的,在本实施例中,解析所述结合点数据,得到所述结合点的组合时序特征,根据所述组合时序特征生成所述显示内容对应的交互指令。其中,确定组合时序与操控指令之间的对应关系,当解析所述结合点数据,得到所述结合点的组合时序特征后,即可根据所述组合时序特征生成所述显示内容对应的交互指令,其中,该交互指令包括返回指令、确定指令、编辑指令以及发送指令等;
可选的,当发出最后一个叩击音后的预设等待时间后,根据所述叩击位置的组合时序特征生成所述显示内容对应的交互指令;
可选的,根据不同的叩击手指或者指甲,确定对应的叩击识别算法,从而提高系统的兼容性。
本实施例的有益效果在于,通过解析所述结合点数据,得到所述叩击位置的组合时序特征;然后,根据所述叩击位置的组合时序特征生成所述显示内容对应的交互指令。实现了一种更为人性化的腕带声控交互方案,使得穿戴设备的操控方式更为丰富多彩,提高了穿戴设备的操控体验以及操作效率。
实施例九
基于上述实施例,本发明还提出了一种腕带声控交互设备,该设备包括:
存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序;
所述计算机程序被所述处理器执行时实现如上述任一项所述的方法的步骤。
具体的,在本实施例中,首先,检测穿戴设备的穿戴状态,在所述穿戴状态下确定所述腕带的音频特征,其中,所述音频特征包括所述腕带的结合点以及所述结合点对应的叩击音频;然后,获取所述穿戴设备当前的显示区域,根据所述显示区域内的显示内容以及所述显示区域与所述腕带的位置关系,确定当前状态下接收声控指令的叩击区域;再然后,在预设交互时间内,获取所述叩击区域内的叩击音频数据,根据所述叩击音频数据得到所述叩击音频数据对应的结合点数据;最后,解析所述结合点数据,得到所述结合点的组合时序特征,根据所述组合时序特征生成所述显示内容对应的交互指令。
可选的,在本实施例中,首先,检测穿戴设备的穿戴状态,在所述穿戴状态下确定所述腕带的音频特征,其中,所述音频特征包括所述腕带的结合点以及所述结合点对应的叩击音频。例如,当穿戴设备为腕部穿戴时,其具有腕带结构,而若当腕带是由一节一节的金属或者竹片或者其它块状或链状结构组成时,当用户的手指划过腕带时,即会发出相应的声音,在本实施例中,将利用该声音对穿戴设备交互显示界面的功能执行相应的控制操作。具体的,首先,检测穿戴设备的穿戴状态,在所述穿戴状态下确定所述腕带的音频特征,其中,所述音频特征包括所述腕带的结合点以及所述结合点对应的叩击音频,可以理解的是,穿戴设备处于不同的穿戴状态,其相同的腕带区域可能产生不同的声音,因此,为了提高本实施例的实施准确性和有效性,首先需要检测穿戴设备的穿戴状态,在所述穿戴状态下确定所述腕带的音频特征;
可选的,在本实施例中,获取所述穿戴设备当前的显示区域,根据所述显示区域内的显示内容以及所述显示区域与所述腕带的位置关系,确定当前状态下接收声控指令的叩击区域,例如,由于腕带的可操作区域有限,因此,在显示区域内,确定与显示内容相关的有限个控制对象,然后,根据预设的对应关系,确定该数个控制对象对应的数个叩击区域,可以理解的是,上述数个叩击区域可包括重合的区域,该叩击区域指示表示叩击操作可能涉及的区域,并不表示具体的叩击操作;
可选的,在本实施例中,在预设交互时间内,获取所述叩击区域内的叩击音频数据,根据所述叩击音频数据得到所述叩击音频数据对应的结合点数据。其中,根据用户手指或者手指甲划过叩击区域内的腕带结构,生成对应的叩击音,在本实施例中,提取该叩击音对应的音频数据,可以理解的是,该音频数据是由对应的结合点生成的,该对应的结合点按一定的滑动的次序生成对应的叩击音;
可选的,在本实施例中,解析所述结合点数据,得到所述结合点的组合时序特征,根据所述组合时序特征生成所述显示内容对应的交互指令。其中,确定组合时序与操控指令之间的对应关系,当解析所述结合点数据,得到所述结合点的组合时序特征后,即可根据所述组合时序特征生成所述显示内容对应的交互指令,其中,该交互指令包括返回指令、确定指令、编辑指令以及发送指令等。
本实施例的有益效果在于,通过检测穿戴设备的穿戴状态,在所述穿戴状态下确定所述腕带的音频特征,其中,所述音频特征包括所述腕带的结合点以及所述结合点对应的叩击音频;然后,获取所述穿戴设备当前的显示区域,根据所述显示区域内的显示内容以及所述显示区域与所述腕带的位置关系,确定当前状态下接收声控指令的叩击区域;再然后,在预设交互时间内,获取所述叩击区域内的叩击音频数据,根据所述叩击音频数据得到所述叩击音频数据对应的结合点数据;最后,解析所述结合点数据,得到所述结合点的组合时序特征,根据所述组合时序特征生成所述显示内容对应的交互指令。实现了一种人性化的腕带声控交互方案,使得穿戴设备的操控方式更为丰富多彩,提高了穿戴设备的操控体验以及操作效率。
实施例十
基于上述实施例,本发明还提出了一种计算机可读存储介质,该计算机可读存储介质上存储有位图处理程序,位图处理程序被处理器执行时实现如上述任一项所述的位图处理方法的步骤。
实施本发明的位图处理方法、设备及计算机可读存储介质,通过检测穿戴设备的穿戴状态,在所述穿戴状态下确定所述腕带的音频特征,其中,所述音频特征包括所述腕带的结合点以及所述结合点对应的叩击音频;然后,获取所述穿戴设备当前的显示区域,根据所述显示区域内的显示内容以及所述显示区域与所述腕带的位置关系,确定当前状态下接收声控指令的叩击区域;再然后,在预设交互时间内,获取所述叩击区域内的叩击音频数据,根据所述叩击音频数据得到所述叩击音频数据对应的结合点数据;最后,解析所述结合点数据,得到所述结合点的组合时序特征,根据所述组合时序特征生成所述显示内容对应的交互指令。实现了一种人性化的腕带声控交互方案,使得穿戴设备的操控方式更为丰富多彩,提高了穿戴设备的操控体验以及操作效率。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,这些均属于本发明的保护之内。

Claims (10)

1.一种腕带声控交互方法,其特征在于,所述方法包括:
检测腕带的穿戴状态,在所述穿戴状态下确定所述腕带的音频特征,其中,所述音频特征包括所述腕带的结合点以及所述结合点对应的叩击音频,其中,所述结合点是所述腕带的各个结构单元组成链状结构的连接点,所述结构单元是块状的金属或竹片;
获取所述腕带当前的显示区域,根据所述显示区域内的显示内容以及所述显示区域与所述腕带的位置关系,确定当前状态下接收声控指令的叩击区域;
在预设交互时间内,获取所述叩击区域内的叩击音频数据,根据所述叩击音频数据得到所述叩击音频数据对应的结合点数据;
解析所述结合点数据,得到所述结合点的组合时序特征,根据所述组合时序特征生成所述显示内容对应的交互指令。
2.根据权利要求1所述的腕带声控交互方法,其特征在于,所述检测腕带的穿戴状态,在所述穿戴状态下确定所述腕带的音频特征,其中,所述音频特征包括所述腕带的结合点以及所述结合点对应的叩击音频,包括:
根据所述腕带的压感传感器和重力传感器获取所述腕带的传感信息;
根据所述传感信息识别所述穿戴状态。
3.根据权利要求2所述的腕带声控交互方法,其特征在于,所述检测腕带的穿戴状态,在所述穿戴状态下确定所述腕带的音频特征,其中,所述音频特征包括所述腕带的结合点以及所述结合点对应的叩击音频,还包括:
在所述穿戴状态下,结合所述压感传感器的压感信息,确定所述腕带的受力分布状态;
根据所述腕带的受力分布状态以及所述腕带的结构特征,得到所述腕带的音频特征。
4.根据权利要求3所述的腕带声控交互方法,其特征在于,所述获取所述腕带当前的显示区域,根据所述显示区域内的显示内容以及所述显示区域与所述腕带的位置关系,确定当前状态下接收声控指令的叩击区域,包括:
确定所述腕带的显示范围,在所述显示范围内划分所述显示区域;
获取实时显示区域内运行的应用程序以及所述应用程序对应的显示内容。
5.根据权利要求4所述的腕带声控交互方法,其特征在于,所述获取所述腕带当前的显示区域,根据所述显示区域内的显示内容以及所述显示区域与所述腕带的位置关系,确定当前状态下接收声控指令的叩击区域,还包括:
根据所述显示内容确定待交互指令,根据所述待交互指令与预设的声控指令对应关系,确定目标声控指令;
确定满足生成所述目标声控指令条件的叩击区域,其中,所述叩击区域包含所述显示区域与所述腕带的位置关系。
6.根据权利要求5所述的腕带声控交互方法,其特征在于,所述在预设交互时间内,获取所述叩击区域内的叩击音频数据,根据所述叩击音频数据得到所述叩击音频数据对应的结合点数据,包括:
确定与所述目标声控指令对应的预设交互时间;
在所述预设交互时间内,获取所述叩击区域内的叩击音频数据。
7.根据权利要求6所述的腕带声控交互方法,其特征在于,所述在预设交互时间内,获取所述叩击区域内的叩击音频数据,根据所述叩击音频数据得到所述叩击音频数据对应的结合点数据,还包括:
解析所述叩击音频数据,其中,所述叩击音频数据包括叩击单元以及叩击音色;
根据所述叩击音频数据得到所述叩击音频数据对应的结合点数据,其中,所述结合点数据包括叩击单元以及叩击位置。
8.根据权利要求7所述的腕带声控交互方法,其特征在于,所述解析所述结合点数据,得到所述结合点的组合时序特征,根据所述组合时序特征生成所述显示内容对应的交互指令,包括:
解析所述结合点数据,得到所述叩击位置的组合时序特征;
根据所述叩击位置的组合时序特征生成所述显示内容对应的交互指令。
9.一种腕带声控交互设备,其特征在于,所述设备包括:
存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序;
所述计算机程序被所述处理器执行时实现如权利要求1至8中任一项所述的方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有腕带声控交互程序,所述腕带声控交互程序被处理器执行时实现如权利要求1至8中任一项所述的腕带声控交互方法的步骤。
CN201910472399.6A 2019-05-31 2019-05-31 一种腕带声控交互方法、设备及计算机可读存储介质 Active CN110187770B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910472399.6A CN110187770B (zh) 2019-05-31 2019-05-31 一种腕带声控交互方法、设备及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910472399.6A CN110187770B (zh) 2019-05-31 2019-05-31 一种腕带声控交互方法、设备及计算机可读存储介质

Publications (2)

Publication Number Publication Date
CN110187770A CN110187770A (zh) 2019-08-30
CN110187770B true CN110187770B (zh) 2022-11-25

Family

ID=67719668

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910472399.6A Active CN110187770B (zh) 2019-05-31 2019-05-31 一种腕带声控交互方法、设备及计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN110187770B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103645845A (zh) * 2013-11-22 2014-03-19 华为终端有限公司 一种敲击控制方法及终端
CN105022568A (zh) * 2014-04-30 2015-11-04 青岛北电高科技有限公司 基于智能手表的敲击式人机交互方法和系统
CN108345442A (zh) * 2018-01-18 2018-07-31 维沃移动通信有限公司 一种操作识别方法及移动终端
CN108848427A (zh) * 2018-04-26 2018-11-20 Oppo广东移动通信有限公司 佩戴状态检测方法及相关设备

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6428623B2 (ja) * 2013-08-29 2018-11-28 ソニー株式会社 リストバンド型情報処理装置、情報処理システム、情報処理方法及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103645845A (zh) * 2013-11-22 2014-03-19 华为终端有限公司 一种敲击控制方法及终端
CN105022568A (zh) * 2014-04-30 2015-11-04 青岛北电高科技有限公司 基于智能手表的敲击式人机交互方法和系统
CN108345442A (zh) * 2018-01-18 2018-07-31 维沃移动通信有限公司 一种操作识别方法及移动终端
CN108848427A (zh) * 2018-04-26 2018-11-20 Oppo广东移动通信有限公司 佩戴状态检测方法及相关设备

Also Published As

Publication number Publication date
CN110187770A (zh) 2019-08-30

Similar Documents

Publication Publication Date Title
CN109982179B (zh) 音频信号输出方法、装置、可穿戴设备及存储介质
CN109799912B (zh) 一种显示控制方法、设备及计算机可读存储介质
CN110099218B (zh) 一种拍摄过程中的交互操控方法、设备及计算机可读存储介质
CN110177209B (zh) 一种视频参数调控方法、设备及计算机可读存储介质
CN110225282B (zh) 一种视频录制控制方法、设备及计算机可读存储介质
CN110177208B (zh) 一种视频录制的关联控制方法、设备及计算机可读存储介质
CN110069136B (zh) 一种穿戴状态识别方法、设备及计算机可读存储介质
CN110086808B (zh) 一种账户登录控制方法、设备及计算机可读存储介质
CN110139270B (zh) 可穿戴设备配对方法、可穿戴设备及计算机可读存储介质
CN110198411B (zh) 一种视频拍摄过程中的景深控制方法、设备及计算机可读存储介质
CN110113529B (zh) 一种拍摄参数调控方法、设备及计算机可读存储介质
CN109799937B (zh) 一种输入控制方法、设备及计算机可读存储介质
CN110083427B (zh) 一种应用程序交互控制方法、设备及计算机可读存储介质
CN110069102B (zh) 一种显示区域调控方法、设备及计算机可读存储介质
CN110109605B (zh) 一种图像分享方法、设备及计算机可读存储介质
CN110083513B (zh) 一种灯效控制方法、设备及计算机可读存储介质
CN110111786B (zh) 一种音频处理方法、设备及计算机可读存储介质
CN110187770B (zh) 一种腕带声控交互方法、设备及计算机可读存储介质
CN110049253B (zh) 一种对焦控制方法、设备及计算机可读存储介质
CN109932887B (zh) 一种折叠控制方法、设备及计算机可读存储介质
CN110096150B (zh) 一种搜索交互控制方法、设备及计算机可读存储介质
CN110062167B (zh) 一种联动拍摄控制方法、设备及计算机可读存储介质
CN109901812B (zh) 可穿戴设备音量调节方法、可穿戴设备及可读存储介质
CN109992341B (zh) 按钮快速响应方法、可穿戴设备及计算机可读存储介质
CN110174981B (zh) 一种图标交互控制方法、设备及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20221108

Address after: 518000 407, Building 177-180, Chuangye Garden, Beizhan Community, Minzhi Street, Longhua District, Shenzhen, Guangdong

Applicant after: Shenzhen Tichda Information Technology Co.,Ltd.

Address before: 518000 6-8 / F, 10-11 / F, 6 / F, 6-10 / F, C zone, Han's innovation building, No. 9018, Beihuan Avenue, high tech Zone, Nanshan District, Shenzhen City, Guangdong Province

Applicant before: NUBIA TECHNOLOGY Co.,Ltd.

GR01 Patent grant
GR01 Patent grant