CN110134246A - 交互控制方法、装置及电子设备 - Google Patents

交互控制方法、装置及电子设备 Download PDF

Info

Publication number
CN110134246A
CN110134246A CN201910428990.1A CN201910428990A CN110134246A CN 110134246 A CN110134246 A CN 110134246A CN 201910428990 A CN201910428990 A CN 201910428990A CN 110134246 A CN110134246 A CN 110134246A
Authority
CN
China
Prior art keywords
acceleration
electronic equipment
user
visually impaired
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910428990.1A
Other languages
English (en)
Inventor
张思洋
覃光濠
尹虎
张印帅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Beijing Ltd
Original Assignee
Lenovo Beijing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Beijing Ltd filed Critical Lenovo Beijing Ltd
Priority to CN201910428990.1A priority Critical patent/CN110134246A/zh
Publication of CN110134246A publication Critical patent/CN110134246A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements

Abstract

本申请提供了一种交互控制方法、装置及电子设备,将第一电子设备与视障用户头部佩戴第二电子设备建立通信连接,由第二电子设备采集视障用户头部第一部位的第一加速度数据及第二部位的第二加速度数据,并发送至第一电子设备,由第一电子设备分别对预设时间段内获得的第一加速度数据的变化及第二加速度数据的变化进行分析,得到第一加速度变化信息和第二加速度变化信息,进而利用第一加速度变化信息与第二加速度变化信息的比较结果,执行与比较结果对应的预设操作。可见,本申请能够依据视障用户头部的动作,实现与第一电子设备更加流畅的人机交互,提高了视障用户使用第一电子设备的多样性及灵活性。

Description

交互控制方法、装置及电子设备
技术领域
本申请主要涉及通信技术领域,更具体地说是涉及一种交互控制方法、装置及电子设备。
背景技术
随着社会的发展,人们对残疾人的关心越来越普遍,视觉障碍人群,尤其是盲人,在如今交通及科技极速发展的现代社会中存在很大困扰,如对目前普及的智能电子设备,由于视觉方面的障碍,使得视障用户很难使用电子设备的图形交互方面的功能,通常是采用语音交互方式使用电子设备。
然而,现有电子设备中的语音助手往往不能与用户进行流畅对话交流,电子设备往往只能响应一些简单的语音指令,并不能满足视障用户对电子设备的使用需求。
发明内容
有鉴于此,本申请提供了一种交互控制方法、装置及电子设备,利用视障用户头部第一部位和第二部位的加速度特征,确定视障用户的头部动作,以实现与第一电子设备更为流畅的人机交互,并提高了视障用户使用第一电子设备的多样性。
为了实现上述目的,本申请提供了以下技术方案:
本申请提供了一种交互控制方法,应用于第一电子设备,所述方法包括:
在视障用户头部佩戴第二电子设备的情况下,获取所述视障用户头部第一部位的第一加速度数据,及所述视障用户头部第二部位的第二加速度数据,所述第二电子设备与所述第一电子设备通信连接;
分别对预设时间段内所述第一加速度数据的变化及所述第二加速度数据的变化进行分析,得到第一加速度变化信息和第二加速度变化信息;
利用所述第一加速度变化信息与所述第二加速度变化信息的比较结果,执行与所述比较结果对应的预设操作。
可选的,所述利用所述第一加速度变化信息与所述第二加速度变化信息的比较结果,执行与所述比较结果对应的预设操作,包括:
利用所述第一加速度变化信息与所述第二加速度变化信息的比较结果,确定所述视障用户头部在所述预设时间段内的动作;
查询预设的头部动作与控制指令的对应关系,得到与确定的所述视障用户头部的动作对应的控制指令;
响应所述控制指令,执行预设操作。
可选的,所述利用所述第一加速度变化信息与所述第二加速度变化信息的比较结果,执行与所述比较结果对应的预设操作,包括:
利用所述第一加速度变化信息,确定所述视障用户头部第一部位的加速度变化规则;
利用所述第二加速度变化信息,确定所述视障用户头部第二部位的加速度变化规则;
将所述第一部位的加速度变化规则与所述第二部位的加速度变化规则进行比较,生成与得到的比较结果对应的控制指令;
响应所述控制指令,执行预设操作。
可选的,所述利用所述第一加速度变化信息,确定所述视障用户头部第一部位的加速度变化规则,利用所述第二加速度变化信息,确定所述视障用户头部第二部位的加速度变化规则,包括:
利用所述第一加速度变化信息,确定所述第一部位在所述预设时间段内向第一方向加速度变化,利用所述第二加速度变化信息,确定所述第二部位在所述预设时间段内向所述第一方向或第二方向加速度变化,所述第一方向为xyz坐标系中的z轴方向或x轴方向,所述第二方向为所述z轴方向和所述x轴方向中区别于所述第一方向的方向;
或,
利用所述第一加速度变化信息,确定所述第一部位在所述预设时间段内向第二方向或所述第一方向的加速度呈第一变化规则,利用所述第二加速度变化信息,确定所述第二部位在所述预设时间段内向相应方向的加速度呈第二变化规则,且所述第一变化规则与所述第二变化规则相反,所述第一变化规则为相应方向的第一加速度向量变化规则或第二加速度向量变化规则。
可选的,所述视障用户头部第一部位为所述视障用户的左耳,所述视障用户头部第二部位为所述视障用户的右耳,所述第二电子设备的第一加速度传感器维持与所述左耳的相对位置不变,所述第二电子设备的第二加速度传感器维持与所述右耳的相对位置不变;
获取所述视障用户头部第一部位的第一加速度数据,及所述视障用户头部第二部位的第二加速度数据,包括:
通过无线方式,获取所述第一加速度传感器采集到的所述左耳的第一加速度数据,以及所述第二加速度传感器采集到的所述右耳的第二加速度数据。
可选的,所述方法还包括:
获取所述第一电子设备执行所述预设操作的操作结果;
将所述操作结果反馈至所述第二电子设备,使得所述第二电子设备通知所述视障用户所述操作结果。
本申请还提供了一种交互控制方法,应用于第二电子设备,所述方法包括:
在视障用户头部佩戴第二电子设备的情况下,采集所述视障用户头部第一部位的第一加速度数据,及所述视障用户头部第二部位的第二加速度数据;
确定与所述第一电子设备建立通信连接,将所述第一加速度数据和所述第二加速度数据发送至所述第一电子设备,实现与所述第一电子设备的交互操作。
本申请还提供了一种交互控制装置,应用于第一电子设备,所述装置包括:
加速度数据获取模块,用于在视障用户头部佩戴第二电子设备的情况下,获取所述视障用户头部第一部位的第一加速度数据,及所述视障用户头部第二部位的第二加速度数据,所述第二电子设备与所述第一电子设备通信连接;
数据分析模块,用于分别对预设时间段内所述第一加速度数据的变化及所述第二加速度数据的变化进行分析,得到第一加速度变化信息和第二加速度变化信息;
操作执行模块,用于利用所述第一加速度变化信息与所述第二加速度变化信息的比较结果,执行与所述比较结果对应的预设操作。
本申请还提供了一种电子设备,所述电子设备包括:
通信模块,用于在视障用户头部佩戴第二电子设备的情况下,实现所述电子设备与所述第二电子设备的通信连接,获取所述视障用户头部第一部位的第一加速度数据,及所述视障用户头部第二部位的第二加速度数据;
存储器,用于存储实现如上所述的交互控制方法的程序;
处理器,用于加载并执行所述存储器的所述程序,实现如上所述的交互控制方法的各步骤。
本申请还提供了一种电子设备,所述电子设备包括:
固定装置,用于在视障用户头部佩戴电子设备的情况下,维持所述视障用户头部与所述电子设备的相对位置关系不变;
第一加速度传感器,设置在所述视障用户头部的第一部位的预设范围内,用于获取所述第一部位的第一加速度数据;
第二加速度传感器,设置在所述视障用户头部的第二部位的所述预设范围内,用于获取所述第二部位的第二加速度数据;
通信模块,用于实现所述电子设备与所述第一电子设备的通信连接,将所述第一加速度数据和所述第二加速度数据发送至所述第一电子设备。
由此可见,与现有技术相比,本申请提供了一种交互控制方法、装置及电子设备,将第一电子设备(如手机、笔记本电脑等终端设备)与视障用户头部佩戴第二电子设备建立通信连接,由第二电子设备采集视障用户头部第一部位的第一加速度数据,及该视障用户头部第二部位的第二加速度数据,并将第一加速度数据和第二加速度数据发送至第一电子设备,由第一电子设备分别对预设时间段内获得的第一加速度数据的变化及第二加速度数据的变化进行分析,得到第一加速度变化信息和第二加速度变化信息,进而利用第一加速度变化信息与第二加速度变化信息的比较结果,执行与比较结果对应的预设操作。可见,本申请能够依据视障用户头部的动作,实现对第一电子设备的操作,解决了目前第一电子设备受其语音助手功能约束,使得视障用户无法与第一电子设备进行流畅对话的问题,满足了视障用户对第一电子设备的使用需求,且提高了视障用户使用第一电子设备的多样性及灵活性。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请提供的适用于第一电子设备的交互控制方法的一实施例的流程示意图;
图2为本申请提供的适用于第一电子设备的交互控制方法的另一实施例的流程示意图;
图3为本申请提供的一种交互控制方法中所使用的xyz坐标示意图;
图4为本申请提供的交互控制方法的一实施例的信令流程示意图;
图5为本申请提供的交互控制方法的另一实施例的流程示意图;
图6为本申请提供的适用于第二电子设备的交互控制方法的一实施例的流程示意图;
图7为本申请提供的适用于第一电子设备的交互控制装置的一实施例的结构示意图;
图8为本申请提供的适用于第一电子设备的交互控制装置的另一实施例的结构示意图;
图9为本申请提供的适用于第一电子设备的交互控制装置的另一实施例的结构示意图;
图10为本申请提供的适用于第二电子设备的交互控制装置的一实施例的结构示意图;
图11为本申请提供的适用于第二电子设备的交互控制装置的另一实施例的结构示意图;
图12为本申请提供的第一电子设备的一实施例的硬件结构示意图;
图13为本申请提供的第二电子设备的一实施例的结构示意图;
图14为本申请提供的第一电子设备与第二电子设备的应用场景示意图;
图15为本申请提供的第二电子设备的另一实施例的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
参照图1,为本申请提供的交互控制方法的一个实施例的流程示意图,该方法可以应用于第一电子设备,该第一电子设备可以是手机、平板电脑、智能手环等终端设备。在本申请实际应用中,第一电子设备可以与用户(本申请主要是指视障用户)可佩戴的第二电子设备进行数据通信,实现本实施例提供的交互控制方法,该第二电子设备可以是如头盔、眼镜或耳挂式电子设备等,本申请对第一电子设备和第二电子设备的产品类型不做限定。如图1所示,本实施例提供的该交互控制方法可以包括但并不局限于以下步骤:
步骤S11,在视障用户头部佩戴第二电子设备的情况下,建立第一电子设备与该第二电子设备的通信连接;
结合上文对本申请技术背景的描述,为了满足视障用户对目前市场上的智能电子设备的使用需求,使得视障用户能够享受到与正常用户同等的尊重,来来自科技领域和人文领域的充分关怀,提出了一种交互控制方法,使视障用户佩戴第二电子设备后,能够通过身体动作,独立使用第一电子设备的图形交互(Graphic User Interface,GUI)功能,实现对第一电子设备的各种操作。
因此,在视障用户需要使用第一电子设备的情况下,可以在头部佩戴上第二电子设备,并建立第一电子设备与第二电子设备之间的通信连接,保证第一电子设备与第二电子设备之前正常的数据通信。
其中,第一电子设备与第二电子设备之间的通信连接,可以采用无线方式实现,具体可以利用第一电子设备与第二电子设备中设置的WIFI模块、蓝牙模块等无线通信模块,实现这两个电子设备的通信连接,但并不局限于本申请列举的这几种通信模块实现的通信方式。
步骤S12,获取视障用户头部第一部位的第一加速度数据,及视障用户头部第二部位的第二加速度数据;
本实施例中,视障用户佩戴第二电子设备后,第一电子设备可以利用第二电子设备捕捉到的视障用户头部的特定动作,实现对第一电子设备的预设操作。该视障用户头部的特定动作可以基于视障用户头部的第一部位和第二部位的动作确定,而第一部位和第二部位的动作可以利用相应的加速度数据分析结果确定,具体确定方式可以参照下文实施例列举方式,但并不局限于本申请列举的确定方式。
可选的,本实施例可以利用第二电子设备中的不同加速度传感器,采集视障用户头部的第一部位的第一加速度数据,及第二部位的第二加速传感器,并将该第一加速度数据和第二加速度数据发送至第一电子设备。其中,该第一部位的第一加速度数据,与第二部位的第二加速度数据是第二电子设备在同一时刻采集到的,本申请对第一加速度数据和第二加速度数据的采集控制方式不做限定。
需要说明,本申请对采集视障用户头部的第一部位和第二部位的加速度数据的第二电子设备产品类型及结构不作限定,为了保证对加速度数据的可靠和准确采集,对于第二电子设备中加速度传感器,可以设置相应的固件,使得视障用户佩戴第二电子设备走路、爬山等运动期间,第二电子设备也能够可靠采集所需部位的加速度数据,本申请对该固件的机械结构不做限定。
可选的,上述视障用户头部的第一部位和第二部位可以是视障用户的左耳和右耳,这种情况下,第二电子设备可以实时或周期地采集左耳和右耳各自的加速度数据,以使得第一电子设备能够通过对该加速度数据的分析,得知佩戴第二电子设备的视障用户的头部运动动作,如点头、摇头、仰头、侧头等。
步骤S13,分别对预设时间段内第一加速度数据的变化及第二加速度数据的变化进行分析,得到第一加速度变化信息和第二加速度变化信息;
如上述分析,本实施例需要获取佩戴第二电子设备的视障用户头部的动作,具体是头部的第一部位和第二部位的动作,而该动作可以通过相应部位一段连续时间内的加速度特征确定,因此,第一电子设备可以连续获取一段时间(记为预设时间段)第一加速度数据和第二加速度数据,之后,分别对该预设时间段内,连续获取的第一加速度数据的变化及第二加速度数据的变化进行分析,得到第一加速度变化信息和第二加速度变化信息。
需要说明,本申请对上述一段连续时间内获取的加速度数据的变化分析方法不做限定,对于不同的分析方法,所得的加速度变化信息包含的内容可能不同,如第一电子设备可以分析加速度变化方向、变化规律等,所得到的加速度变化信息可以包括预设时间段内,第一和/或第二加速度向x/z轴方向变化,和/或加速度方向不断变化的规则等。
步骤S14,利用第一加速度变化信息与第二加速度变化信息的比较结果,执行与比较结果对应的预设操作。
本实施例中,第一加速度变化信息可以表征视障用户头部的第一部位的动作,第二加速度变化信息可以表征该视障用户头部的第二部位的动作,因此,通过对这两个加速度变化信息进行比较,即对视障用户头部的第一部位和第二部位的动作的比较,可以得知该视障用户头部的动作,之后,可以按照预设的用户头部的不同动作与第一电子设备不同操作的对应关系,第一电子设备可以自动执行与确定的视障用户头部的动作对应的预设操作,满足视障用户对第一电子设备的操作需求。
基于上述分析,上述步骤S14的实现方法可以包括以下方式但并不局限于此:
利用第一加速度变化信息与第二加速度变化信息的比较结果,确定视障用户头部在所述预设时间段内的动作,查询预设的头部动作与控制指令的对应关系,得到与确定的视障用户头部的动作对应的控制指令,响应该控制指令,执行预设操作。
综上,在视障用户需要使用第一电子设备的情况下,视障用户可以佩戴上第二电子设备,建立该第二电子设备与第一电子设备的通信连接,在此期间,视障用户需要对第一电子设备进行什么操作,只需要在佩戴第二电子设备的情况下,头部进行相应的动作,由第二电子设备采集视障用户头部第一部位和第二部位的加速度数据,并发送至第一电子设备,由第一电子设备对获取的这两个部位的加速度数据进行分析,得知该视障用户的头部动作,进而自动执行与确定的该头部动作对应的预设操作。
由此可见,视障用户可以通过其头部的动作,流畅实现对第一电子设备的各种操作,这样,通过人体动作交互并结合语音交互,就能够实现简单的人机交互,相对于现有技术中,视障用户只能使用第一电子设备的语音助手实现一些简单功能的方案相比,提高了视障用户对第一电子设备使用的便利性,使得视障用户尽量受到与正常人同样平等的尊重,和来自科学领域和人文领域的充分关怀。
参照图2,为本申请提供的交互控制方法的另一个实施例的流程示意图,该方法的应用场景与上述实施例类似,本实施例不再详述,如图2所示,该方法可以包括但并不局限于以下步骤:
步骤S21,在视障用户头部佩戴第二电子设备的情况下,建立第一电子设备与该第二电子设备的通信连接;
步骤S22,获取视障用户头部第一部位的第一加速度数据,及视障用户头部第二部位的第二加速度数据;
步骤S23,分别对预设时间段内第一加速度数据的变化及第二加速度数据的变化进行分析,得到第一加速度变化信息和第二加速度变化信息;
关于步骤S21~步骤S23的实现方法,与上述实施例的步骤S11~步骤S13的实现方法类似,可以参照上述本实施例相应部分的描述。
步骤S24,利用第一加速度变化信息,确定视障用户头部第一部位的加速度变化规则,并利用第二加速度变化信息,确定视障用户头部第二部位的加速度变化规则;
结合上述实施例获取的加速度数据相关内容的描述,本申请需要对获取的加速度数据进行分析,确定视障用户头部相应部位的动作,所以,本实施例可以利用获取的头部不同部位的加速度变化信息,确定相应的加速度变化规则,以便由此分析得到相应部位的动作,具体实现方法不做限定。
其中,对于不同内容的加速度变化信息,所确定的加速度变化规则会所有差异,具体可以包括但并不局限于以下内容:
利用第一加速度变化信息,确定视障用户头部的第一部位在预设时间段内向第一方向加速度变化;利用第二加速度变化信息,确定视障用户头部的第二部位在预设时间段内向第一方向或第二方向加速度变化。其中,该第一方向为xyz坐标系(如图3所示)中的z轴方向或x轴方向,第二方向为z轴方向和x轴方向中区别于第一方向的方向。如上述实施例的描述,视障用户佩戴第二电子设备后,视障用户可以通过头部的动作,实现对第二电子设备通信连接的第一电子设备的操作,参照图3所示的坐标示意图,在视障用户连续两次点头的情况下,视障用户头部的第一部位和第二部位可以在预设时间段内向z轴方向加速度变化,此时,该第一部位和第二部位的加速度变化规则相同。
在视障用户连续两次摇头的情况下,视障用户头部的第一部位可以在预设时间段内向下x轴方向(其可以指图3中x轴箭头反方向)加速度变化,第二部位可以在预设时间段内向上x轴方向(其可以指图3中x轴箭头方向)加速度变化。此时,该第一部位与第二部位的加速度变化规则相反。
其中,本申请可以通过改变上述预设时间段的数值,利用加速度变化信息,确定视障用户头部的多种动作,并不局限于上文列举的点头动作和摇头动作。
作为本申请另一可选实施例,上述步骤S24的具体实现方法还可以为:
利用第一加速度变化信息,确定第一部位在所述预设时间段内向第二方向或第一方向的加速度呈第一变化规则,利用第二加速度变化信息,确定第二部位在预设时间段内向相应方向的加速度呈第二变化规则,且第一变化规则与第二变化规则相反,所述第一变化规则为相应方向的第一加速度向量变化规则或第二加速度向量变化规则。
基于此,本申请可以通过上述方式,确定视障用户头部左摇头、右摇头、左侧头、右侧头等头部动作,关于上述不同加速度变化规则与不同头部动作的对应关系,可以依据具体的头部动作确定,本实施例在此不再一一详述。
需要说明,根据实际需要,本申请还可以由用户自定义各头部动作与上述两个部位的加速度变化规则之间的对应关系,并不局限于上文列举头部动作,大大提高了交互控制方法的多样性。
步骤S25,将第一部位的加速度变化规则与第二部位的加速度变化规则进行比较,生成与得到的比较结果对应的控制指令;
步骤S26,响应该控制指令,执行预设操作;
本实施例中,可以由得到的比较结果表明佩戴第二电子设备的视障用户的头部动作,第一电子设备确定本次视障用户的头部动作后,可以生成相应的控制指令,执行该控制指令,第一电子设备就能够自动执行对应的预设操作,满足视障用户对第一电子设备的使用需求。
步骤S27,获取第一电子设备执行该预设操作的操作结果;
步骤S28,将该操作结果反馈至第二电子设备,使得第二电子设备通知视障用户操作结果。
在实际应用中,第一电子设备执行预设操作,往往会得到相应的操作结果,如接听通信请求,打开某应用程序等预设操作,可以将第一电子设备是否成功接听通信请求的操作结果,是否成功打开某应用程序的操作结果反馈至第二电子设备,此时,第二电子设备可以采用语音播报方式,输出得到的操作结果,使得佩戴第二电子设备的视障用户能够得知其当前对第一电子设备的操作是否成功,以便确定在此基础上,是否继续对第一电子设备进行操作,以及对第一电子设备继续进行什么操作等,当然,第二电子设备也可以采用其他方式输出操作结果,并不局限于这种语音播报方式。
可选的,对于第一电子设备执行预设操作后,其也可以直接输出相应的操作结果,告知佩戴第二电子设备的视障用户,其通过头部动作对第一电子设备的操作是否成功。通常情况下,第一电子设备可以采用语音播报方式输出操作结果,也可以采用其他能够使视障用户得知操作结果的其他输出方式,本申请在此不再一一列举。
综上,在视障用户佩戴第二电子设备的情况下,第一电子设备通过监测视障用户头部的第一部位和第二部位各自的加速度数据,分析得到各部位的加速度变化规则,确定视障用户头部的动作,进而生成对应的控制指令,并自动执行该控制指令,执行预设操作,并将得到的操作结果反馈至第二电子设备输出,使得视障用户得知本次对第一电子设备的操作是否成功。可见,视障用户能够通过人体交互方式进行人机交互,满足视障用户对第一电子设备的操作需求。
基于上述实施例的描述交互控制方法,参照图4,本申请提供了一种交互控制方法的信令流程示意图,该方法可以适用于视障用户佩戴第二电子设备,通过其人体动作,对第一电子设备进行操作的应用场景,本实施例以第一电子设备为手机,第二电子设备为佩戴在视障用户的左耳和右耳上的加速度采集设备,且该加速度采集设备包括佩戴在左耳上的第一加速度传感器,以及佩戴在右耳上的第二加速度传感器,但并不局限于此,且需要说明,第一电子设备和第二电子设备的产品类型并不局限于本实施例给出的产品。如图4所示,在视障用户佩戴加速度采集设备的情况下,本实施例提供的方法可以包括:
步骤S31,第一加速度传感器采集视障用户头部的左耳的第一加速度数据,并将该第一加速度数据发送至手机;
步骤S32,第二加速度传感器同时采集视障用户头部的右耳的第二加速度数据,并将该第二加速度数据发送至手机;
继上文描述,在视障用户佩戴第二电子设备的情况下,第二电子设备的第一加速度传感器能够维持与视障用户的左耳的相对位置不变,第二加速度传感器能够维持与视障用户的右耳的相对位置不变。在视障用户需要使用手机的情况下,需要采集该视障用户的头部动作。
基于此,第一加速度传感器将实时采集左耳的第一加速度数据,第二加速度传感器同时对视障用户的右耳的第二加速度数据进行采集,以保证得到的第一加速度数据和第二加速度数据是同一时刻采集得到的,之后,各加速度传感器会将各自采集到加速度数据上传至手机,由手机进行数据分析,
当然,如图5所示,对于上述第一加速度数据和第二加速度数据,也可以由相应的加速度传感器进行分析,得到相应地加速度变化规则,之后,再将得到的第一加速度变化规则△1和第二加速变化规则△2上传至手机,由手机进行后续分析处理。
步骤S33,手机分别对预设时间段内得到的第一加速度数据的变化及第二加速度数据的变化进行分析,得到第一加速度变化信息和第二加速度变化信息;
在实际应用中,用于对第一电子设备进行操作的视障用户的头部动作,可以是单体动作,也可以是连续重复动作,或者是各种单体动作组合而成的复杂动作等等。
结合上文对加速度数据变化的描述,第一加速度变化信息和第二加速度变化信息可以是视障用户的左耳或右耳,在两个周期、五个周期等n个周期的x轴或z轴方向的加速度变化,x轴或z轴加速度先向后再向前、先向前再向后,或者先向上再向下、先向下再向上等变化内容,但并不局限于本申请列举的内容。
基于上述列举的加速度变化信息的内容,手机处理器对上述加速度数据的变化情况的分析,可以包括对加速度大小改变的方向及其改变的规律等等,本申请对步骤S33的具体实现方法不做详述。
步骤S34,手机利用第一加速度变化信息,确定视障用户头部左耳的加速度变化规则,并利用第二加速度变化信息,确定视障用户头部右耳的加速度变化规则;
步骤S35,手机对视障用户头部左耳与右耳的加速度变化规则进行比较,得到比较结果;
步骤S36,手机利用该比较结果,确定视障用户本次的头部动作;
步骤S37,手机执行与确定的头部动作对应的预设操作;
参照下表1所示的头部动作与手机不同预设操作的对应关系,手机的处理器通过对得到的第一加速度数据和第二加速度数据的变化分析,可以得到如下表1中所示的加速度变化规则,进而得到佩戴加速度采集设备的视障用户的头部动作,之后,依据当前手机的应用状态,确定所要执行的与该头部动作对应的预设操作,如若当前手机有来电,视障用户可以连续两次点头,就可以直接接听电话,视障用户连续两次摇头,可以拒接来电;若当前手机输出某应用的确认界面(即输出需要用户选择是或否的界面),视障用户连续两次点头,可以生成确认指令;若连续两次摇头,可以生成否定指令;若当前手机处于待机状态,视障用户可以通过右侧头,打开手机的语音助手等等,本申请不再一一详述。
表1
由上表1可知,对于上述实施例对步骤S24的实现方式的描述,在确定左右耳的加速度变化规则过程中,预设时间段可以是n个周期,n为整数,第一方向和第二方向不同,对于图3所示的坐标图,具体可以是上x轴方向、下x轴方向、z轴方向等;上述实施例中第一变化规则或第二变化规则可以包括x轴或z轴方向的加速度先向前再向后,或先向后再向前,或先向上再向下,或先向下再向上等,对于该变化规则可以由加速度向量的变化表征,但并不局限于此。
需要说明,对于预先设定的能够触发手机执行预设操作的头部动作,并不局限于上表1列举的内容,用户可以根据实际使用需求,灵活调整头部动作与预设操作之间的对应关系,且对于基于加速度变化信息,确定头部动作的实现方法也并不局限于上述实施例描述的方法。
步骤S38,手机通过语音播报方式,输出执行预设操作得到的操作结果。
结合上述实施例的描述,对于手机执行预设操作后得到的操作结果,可以由手机输出,也可以由视障用户佩戴的设备输出(这种方式可以参照上述实施例相应部分的描述),本申请对操作结果的输出方式不做限定。
综上,视障用户在左右耳朵戴上加速度采集设备,在视障用户使用手机过程中,利用加速度传感器对视障用户头部姿态的捕捉与判断,具体可以由手机中的处理器通过分析左耳和右耳的加速度特征,确定视障用户本次对手机的操作所使用的头部动作,使得手机不需要获取视障用户输出的语音指令,也能够在当前工作的基础上,执行与该头部动作对应的预设操作,满足视障用户对手机的使用需求,提高了视障用户对手机操作的多样性。
而且,在视障用户在使用手机的过程中,手机除了能够识别视障用户的头部动作,还可以同时识别视障用户输出的语音指令,以使视障用户实现对手机的无触摸操作。也就是说,视障用户可以采用肢体动作及语音指令两种方式,实现与如上述手机这种智能电子设备之间的人机交互,关于对其他智能电子设备的人机交互过程,与上述实施例描述的视障用户对手机的人机交互过程类似,本申请不再一一详述。
参照图6,为本申请提供的交互控制方法的又一实施例的流程示意图,该方法可以应用于上文中的第二电子设备,也就是说,本实施例是从视障用户佩戴的第二电子设备的角度,来描述上述实施例提供的交互控制方法,在视障用户头部佩戴第二电子设备的情况下,本实施例提供的该交互控制方法可以包括但并不局限于以下步骤:
步骤S41,采集视障用户头部第一部位的第一加速度数据,及视障用户头部第二部位的第二加速度数据;
其中,关于第二电子设备对第一加速度数据和第二加速度数据的采集及分析处理过程,可以参照上述实施例相应部分的描述。
步骤S42,确定与第一电子设备建立通信连接的情况下,将第一加速度数据和第二加速度数据发送至第一电子设备,实现与第一电子设备的交互操作。
可选的,在实际应用中,视障用户佩戴第二电子设备后,可以采用语音方式,向第一电子设备发起通信请求,以建立第二电子设备与第一电子设备之间的通信连接,再按照上述实施例描述的方法,实现这两个电子设备之间的人机交互。
当然,由于视障用户佩戴的第二电子设备往往是固定的,所以,本申请可以预先为视障用户的第二电子设备绑定至少一个第一电子设备,当第一电子设备与第二电子设备之间的距离小于阈值的情况下,第二电子设备可以自动与该第一电子设备建立通信连接,如蓝牙绑定连接方式等,但并不局限于本实施例列举的这种自动连接方式,本申请对第一电子设备与第二电子设备之间的通信连接建立方法不作限定。
在确定第一电子设备与第二电子设备成功建立通信连接的情况下,在对于第二电子设备采集到的第一加速度数据和第二加速度数据后,可以实时上传至第一电子设备;当然,第二电子设备也可以将各时刻采集到的第一加速度数据和第二加速度数据暂时缓存在第二电子设备,经过预设时间段的数据采集后,再将该预设时间段内采集到的第一加速度数据和第二加速度数据上传至第一电子设备,以使第一电子设备按照上述实施例描述的方法进行处理。
其中,对于第一电子设备与第二电子设备之间的加速度数据的传输,可以由第二电子设备主动向第一电子设备上传加速度数据,也可以由第一电子设备主动从第二电子设备获取加速度数据,本申请对两个电子设备之间的数据传输方式不作限定。
作为本申请另一可选实施例,对于第二电子设备采集到的第一加速度数据和第二加速度数据,也可以由第二电子设备进行处理分析,如分析得到加速度数据的变化规则,再将得到的两个加速度变化规则发送至第一电子设备进行后续处理,并不局限于上述实施例描述的由第一电子设备直接对加速度数据进行分析处理。
需要说明,无论是哪个电子设备对加速度数据进行分析处理,所采用的方法类似,本申请不做一一详述。关于第二电子设备与第一电子设备交互操作,即基于佩戴第二电子设备的视障用户的人体动作,实现与第一电子设备的人机交互过程,可以参照上述实施例相应部分的描述。
参照图7,为本申请提供的一种交互控制装置的一实施例的结构示意图,该装置可以应用于第一电子设备,该装置可以包括:
加速度数据获取模块11,用于在视障用户头部佩戴第二电子设备的情况下,获取所述视障用户头部第一部位的第一加速度数据,及所述视障用户头部第二部位的第二加速度数据,所述第二电子设备与所述第一电子设备通信连接;
在本实施例实际应用中,视障用户头部第一部位可以为视障用户的左耳,视障用户头部第一部位可以为视障用户的右耳,第二电子设备的第一加速度传感器可以维持与左耳的相对位置不变,第二电子设备的第二加速度传感器可以维持与右耳的相对位置不变,以保证加速度传感器能够可靠实现加速度数据的采集。
基于此,上述加速度数据获取模块11具体可以用于通过无线方式,获取所述第一加速度传感器采集到的所述左耳的第一加速度数据,以及所述第二加速度传感器采集到的所述右耳的第二加速度数据。
数据分析模块12,用于分别对预设时间段内所述第一加速度数据的变化及所述第二加速度数据的变化进行分析,得到第一加速度变化信息和第二加速度变化信息;
操作执行模块13,用于利用所述第一加速度变化信息与所述第二加速度变化信息的比较结果,执行与所述比较结果对应的预设操作。
其中,关于本实施例中各软件模块实现相应功能的方法,可以参照上述方法实施例相应部分的描述。
可选的,上述操作执行模块13可以包括:
第一比较单元,用于利用所述第一加速度变化信息与所述第二加速度变化信息的比较结果,确定所述视障用户头部在所述预设时间段内的动作;
第一查询单元,用于查询预设的头部动作与控制指令的对应关系,得到与确定的所述视障用户头部的动作对应的控制指令;
第一执行单元,用于响应所述控制指令,执行预设操作。
可选的,如图8所示,上述操作执行模块13可以包括:
第一确定单元131,用于利用所述第一加速度变化信息,确定所述视障用户头部第一部位的加速度变化规则;
第二确定单元132,用于利用所述第二加速度变化信息,确定所述视障用户头部第二部位的加速度变化规则;
其中,对于上述第一确定单元131和第二确定单元132的实现方法,可以参照上述方法实施例相应部分的描述,作为本申请一可选实施例,其可以包括:
第一确定子单元,用于利用所述第一加速度变化信息,确定所述第一部位在所述预设时间段内向第一方向加速度变化;
第二确定子单元,用于利用所述第二加速度变化信息,确定所述第二部位在所述预设时间段内向所述第一方向或第二方向加速度变化;
本实施例中,第一方向为xyz坐标系中的z轴方向或x轴方向,所述第二方向为所述z轴方向和所述x轴方向中区别于所述第一方向的方向。
或者,上述确定单元也可以包括:
第三确定子单元,用于利用所述第一加速度变化信息,确定所述第一部位在所述预设时间段内向第二方向或所述第一方向的加速度呈第一变化规则;
第四确定子单元,用于利用所述第二加速度变化信息,确定所述第二部位在所述预设时间段内向相应方向的加速度呈第二变化规则,且所述第一变化规则与所述第二变化规则相反,所述第一变化规则为相应方向的第一加速度向量变化规则或第二加速度向量变化规则。
第二比较单元133,用于将所述第一部位的加速度变化规则与所述第二部位的加速度变化规则进行比较,生成与得到的比较结果对应的控制指令;
第二执行单元134,用于响应所述控制指令,执行预设操作。
可选的,在上述各实施例的基础上,如图9所示,本申请提供的交互控制装置还可以包括:
获取模块14,用于获取所述第一电子设备执行所述预设操作的操作结果;
数据传输模块15,用于将所述操作结果反馈至所述第二电子设备,使得所述第二电子设备通知所述视障用户所述操作结果。
参照图10,为本申请提供的交互控制装置的又一实施例的结构示意图,本实施例与上述装置实施例所适用的电子设备不同,本实施例提供的该装置适用于第二电子设备,如上述视障用户佩戴的加速度采集设备等,如图10所示,该装置可以包括:
数据采集模块21,用于在视障用户头部佩戴第二电子设备的情况下,采集所述视障用户头部第一部位的第一加速度数据,及所述视障用户头部第二部位的第二加速度数据;
数据传输模块22,用于确定与所述第一电子设备建立通信连接,将所述第一加速度数据和所述第二加速度数据发送至所述第一电子设备,实现与所述第一电子设备的交互操作。
可选的,如图11所示,上述装置还可以包括:
数据分析模块23,用于分别对预设时间段内所述第一加速度数据的变化及所述第二加速度数据的变化进行分析,得到第一加速度变化信息和第二加速度变化信息,还可以进一步分析得到对应的第一加速度变化规则和第二加速度变化规则,具体实现方法可以参照方法实施例相应部分的描述。
这种情况下,上述数据传输模块22可以用于确定与所述第一电子设备建立通信连接的情况下,将第一加速度变化信息和第二加速度变化信息(或者第一加速度变化规则和第二加速度变化规则)发送至第一电子设备,实现与第一电子设备的交互操作。
应该理解,本申请上文提出的各装置实施例中的模块和单元等均属于软件模块,本实施例对各软件模块的应用程序不作详述,而关于各软件模块实现各自功能的过程,可以参照上述方法实施例相应部分的描述,本申请不再赘述。
参照图12,为本申请实施例提供的一种电子设备的硬件结构示意图,该电子设备可以是上述第一电子设备,具体可以包括通信模块31、存储器32及处理器33,其中:
通信模块31可以用于在视障用户头部佩戴第二电子设备的情况下,实现第一电子设备与第二电子设备的通信连接,获取视障用户头部第一部位的第一加速度数据,及视障用户头部第二部位的第二加速度数据;
本实施例中,通信模块可以是蓝牙模块、WIFI模块、GPRS模块等无线通信模块,以实现第一电子设备与第二电子设备之间的通信连接,完成数据传输工作,具体实现过程可以参照上述方法实施例相应部分的描述。
需要说明,对于通信模块31所获取的数据,并不局限于上述加速度数据,也可以是第二电子设备对加速度数据分析处理后得到的加速度变化信息,加速度变化规则等。当然,在第一电子设备与第二电子设备之间的交互过程中,还可以用来向第二电子设备发送操作结果等信息,接收佩戴第二电子设备的视障用户输出的语音指令等等,可以依据视障用户对第一电子设备的具体操作需求确定,本申请不再一一详述。
存储器32可以用于存储实现如上所述的交互控制方法的程序;
可选的存储器32可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器,本申请对该存储器32的类型及结构不做限定。
在实际应用中,存储器32还可以用来存储上述交互控制方法运行过程中所产生的各种中间数据,以及第一电子设备执行操作所产生的历史操作数据等等。
处理器32可以用于加载并执行所述存储器的程序,实现如上所述的交互控制方法的各步骤,关于该交互控制方法的具体实现步骤,可以参照上述方法实施例相应部分的描述。
其中,处理器32可能是一个中央处理器CPU,或者是特定集成电路ASIC(Application Specific Integrated Circuit),或者是被配置成实施本申请实施例的一个或多个集成电路。
本实施例中,第一电子设备可以是手机、平板电脑或其他智能电子设备,本申请对第一电子设备的产品类型不做限定,且对于第一电子设备的硬件组成,并不局限于上文给出的几部分,还可以包括输入设备、输出设备、音频播放器等,具体可以依据第一电子设备的产品类型确定,本实施例不做一一详述。
参照图13,为本申请实施例提供的另一种电子设备的结构示意图,该电子设备可以是视障用户能够佩戴的第二电子设备,即上述实施例描述的加速度采集设备,该第二电子设备可以包括但并不局限于以下部件:
固定装置41,用于在视障用户头部佩戴电子设备的情况下,维持视障用户头部与该第二电子设备的相对位置关系不变;
对于不同产品类型的第二电子设备,该固定装置的结构可以不同,如耳挂式结构,头盔式结构等等,本申请对该固定装置41的机械结构不做限定。
第一加速度传感器42,设置在视障用户头部的第一部位的预设范围内,用于获取第一部位的第一加速度数据;
第二加速度传感器43,设置在视障用户头部的第二部位的预设范围内,用于获取第二部位的第二加速度数据;
由于加速度传感器是用来采集视障用户头部某部位的加速度特征,为了保证采集数据的可靠性及准确性,需要加速度传感器位于相应部位或靠近相应部位,还可以使用固定装置维持加速度传感器与相应部位之间的相对位置关系不变。
由此可见,上述预设范围往往比较小,甚至可以是零(即加速度传感器直接位于相应部件上),本实施例该预设范围的具体数值不做限定。且上述固定装置41可以包括用来维持整个第二电子设备与视障用户头部之间的相对位置关系的第一固件,还可以包括用来维持各加速度传感器与相应部位之间的相对位置关系的第二固件,本申请对第一固件和第二固件的具体机械结构不做限定。
需要说明,对于第二电子设备包含的加速度传感器数量,并不局限于上文给出的两个,还可以包括更多个加速度传感器,以便利用多个加速度传感器采集到的加速度数据,能够更加可靠地确定视障用户的头部动作,但对采集到的加速度数据的分析过程类似,本申请不再一一详述。
可选的,上述加速度传感器可以在视障用户成功佩戴第二电子设备后,就直接开始进行加速度数据的采集,也可以在第二电子设备与第一电子设备建立通信连接后,再开始进行加速度数据采集,或者接收到视障用户输入的数据采集指令后,响应该数据采集指令,触发加速度传感器进行加速度数据的采集等,其中,数据采集指令可以是视障用户发出的语音指令,或基于第二电子设备中设置的采集按钮的操作产生等。
通信模块44,用于实现电子设备与第一电子设备的通信连接,将第一加速度数据和第二加速度数据发送至第一电子设备。
本实施例的通信模块44与上述第一电子设备的通信模块31类似,均可以包括蓝牙模块、WIFI模块、GPRS模块等至少一个无线通信模块,若电子设备包括多种通信模块,在两个电子设备交互过程中,参与工作的通信模块的类型往往相同,以保证这两个电子设备的通信通道的可靠建立。
如图14所示电子设备的应用场景示意图,以第二电子设备为眼镜为例进行说明,但并不局限于眼镜这种产品类型,视障用户佩戴第二电子设备后,第二电子设备中的上述第一加速度传感器和第二加速度传感器,将会分别位于视障用户的左右耳上,使其采集到的加速度数据即为左右耳的加速度特征。之后,结合上述分析,可以将加速度数据发送至第一电子设备进行分析处理,确定视障用户要操作第一电子设备的头部动作,从而基于该头部动作,直接执行对应的预设操作,即通过视障用户的人体动作,实现其与第一电子设备之间的人机交互,不再仅局限于第一电子设备的语音助手,提高了视障用户使用第一电子设备的多样性及灵活性。
可选的,如图15所示,在上述实施例的基础上,第二电子设备还可以包括存储器45和处理器46,其中:
存储器45可以用于存储实现上述从第二电子设备角度描述的交互控制方法的程序;
处理器46可以用于加载并执行该存储器45存储的程序,实现上述从第二电子设备角度描述的交互控制方法的各个步骤,具体实现过程可以参照上述方法实施例相应部分的描述。
在本实施例中,也可以由第二电子设备对采集到的加速度数据进行分析,将分析结果发送至第一电子设备进行后续处理,这种情况下,上述存储器45还可以用于存储各加速度传感器采集到的加速度数据,以及上述交互控制方法执行过程中产生的其他数据等。
相应地,上述处理器46还可以用于分别对预设时间段内第一加速度数据的变化及第二加速度数据的变化进行分析,得到第一加速度变化信息和第二加速度变化信息,还可以进一步处理得到对应的第一加速度变化规则和第二加速度变化规则。这种情况下,上述通信模块44具体可以用于将处理器46处理得到的数据发送至第一电子设备,关于第一电子设备接收到该数据后的处理过程,可以参照上述方法实施例相应部分的描述。
需要说明,对于第二电子设备的组成结构,并不局限于上文列举的几部分,基于具体第二电子设备产品类型,包括其他部件,本申请不再一一列举。
最后,需要说明的是,关于上述各实施例中,诸如第一、第二等之类的关系术语仅仅用来将一个操作、单元或模块与另一个操作、单元或模块区分开来,而不一定要求或者暗示这些单元、操作或模块之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法或者系统中还存在另外的相同要素。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置、电子设备而言,由于其与实施例公开的方法对应,所以描述的比较简单,相关之处参见方法部分说明即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (10)

1.一种交互控制方法,应用于第一电子设备,所述方法包括:
在视障用户头部佩戴第二电子设备的情况下,获取所述视障用户头部第一部位的第一加速度数据,及所述视障用户头部第二部位的第二加速度数据,所述第二电子设备与所述第一电子设备通信连接;
分别对预设时间段内所述第一加速度数据的变化及所述第二加速度数据的变化进行分析,得到第一加速度变化信息和第二加速度变化信息;
利用所述第一加速度变化信息与所述第二加速度变化信息的比较结果,执行与所述比较结果对应的预设操作。
2.根据权利要求1所述的方法,所述利用所述第一加速度变化信息与所述第二加速度变化信息的比较结果,执行与所述比较结果对应的预设操作,包括:
利用所述第一加速度变化信息与所述第二加速度变化信息的比较结果,确定所述视障用户头部在所述预设时间段内的动作;
查询预设的头部动作与控制指令的对应关系,得到与确定的所述视障用户头部的动作对应的控制指令;
响应所述控制指令,执行预设操作。
3.根据权利要求1所述的方法,所述利用所述第一加速度变化信息与所述第二加速度变化信息的比较结果,执行与所述比较结果对应的预设操作,包括:
利用所述第一加速度变化信息,确定所述视障用户头部第一部位的加速度变化规则;
利用所述第二加速度变化信息,确定所述视障用户头部第二部位的加速度变化规则;
将所述第一部位的加速度变化规则与所述第二部位的加速度变化规则进行比较,生成与得到的比较结果对应的控制指令;
响应所述控制指令,执行预设操作。
4.根据权利要求3所述的方法,所述利用所述第一加速度变化信息,确定所述视障用户头部第一部位的加速度变化规则,利用所述第二加速度变化信息,确定所述视障用户头部第二部位的加速度变化规则,包括:
利用所述第一加速度变化信息,确定所述第一部位在所述预设时间段内向第一方向加速度变化,利用所述第二加速度变化信息,确定所述第二部位在所述预设时间段内向所述第一方向或第二方向加速度变化,所述第一方向为xyz坐标系中的z轴方向或x轴方向,所述第二方向为所述z轴方向和所述x轴方向中区别于所述第一方向的方向;
或,
利用所述第一加速度变化信息,确定所述第一部位在所述预设时间段内向第二方向或所述第一方向的加速度呈第一变化规则,利用所述第二加速度变化信息,确定所述第二部位在所述预设时间段内向相应方向的加速度呈第二变化规则,且所述第一变化规则与所述第二变化规则相反,所述第一变化规则为相应方向的第一加速度向量变化规则或第二加速度向量变化规则。
5.根据权利要求1所述的方法,所述视障用户头部第一部位为所述视障用户的左耳,所述视障用户头部第二部位为所述视障用户的右耳,所述第二电子设备的第一加速度传感器维持与所述左耳的相对位置不变,所述第二电子设备的第二加速度传感器维持与所述右耳的相对位置不变;
获取所述视障用户头部第一部位的第一加速度数据,及所述视障用户头部第二部位的第二加速度数据,包括:
通过无线方式,获取所述第一加速度传感器采集到的所述左耳的第一加速度数据,以及所述第二加速度传感器采集到的所述右耳的第二加速度数据。
6.根据权利要求1~5任一项所述的方法,所述方法还包括:
获取所述第一电子设备执行所述预设操作的操作结果;
将所述操作结果反馈至所述第二电子设备,使得所述第二电子设备通知所述视障用户所述操作结果。
7.一种交互控制方法,应用于第二电子设备,所述方法包括:
在视障用户头部佩戴第二电子设备的情况下,采集所述视障用户头部第一部位的第一加速度数据,及所述视障用户头部第二部位的第二加速度数据;
确定与所述第一电子设备建立通信连接,将所述第一加速度数据和所述第二加速度数据发送至所述第一电子设备,实现与所述第一电子设备的交互操作。
8.一种交互控制装置,应用于第一电子设备,所述装置包括:
加速度数据获取模块,用于在视障用户头部佩戴第二电子设备的情况下,获取所述视障用户头部第一部位的第一加速度数据,及所述视障用户头部第二部位的第二加速度数据,所述第二电子设备与所述第一电子设备通信连接;
数据分析模块,用于分别对预设时间段内所述第一加速度数据的变化及所述第二加速度数据的变化进行分析,得到第一加速度变化信息和第二加速度变化信息;
操作执行模块,用于利用所述第一加速度变化信息与所述第二加速度变化信息的比较结果,执行与所述比较结果对应的预设操作。
9.一种电子设备,所述电子设备包括:
通信模块,用于在视障用户头部佩戴第二电子设备的情况下,实现所述电子设备与所述第二电子设备的通信连接,获取所述视障用户头部第一部位的第一加速度数据,及所述视障用户头部第二部位的第二加速度数据;
存储器,用于存储实现如权利要求1~6任一项所述的交互控制方法的程序;
处理器,用于加载并执行所述存储器的所述程序,实现权利要求1~6任一项所述的交互控制方法的各步骤。
10.一种电子设备,所述电子设备包括:
固定装置,用于在视障用户头部佩戴电子设备的情况下,维持所述视障用户头部与所述电子设备的相对位置关系不变;
第一加速度传感器,设置在所述视障用户头部的第一部位的预设范围内,用于获取所述第一部位的第一加速度数据;
第二加速度传感器,设置在所述视障用户头部的第二部位的所述预设范围内,用于获取所述第二部位的第二加速度数据;
通信模块,用于实现所述电子设备与所述第一电子设备的通信连接,将所述第一加速度数据和所述第二加速度数据发送至所述第一电子设备。
CN201910428990.1A 2019-05-22 2019-05-22 交互控制方法、装置及电子设备 Pending CN110134246A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910428990.1A CN110134246A (zh) 2019-05-22 2019-05-22 交互控制方法、装置及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910428990.1A CN110134246A (zh) 2019-05-22 2019-05-22 交互控制方法、装置及电子设备

Publications (1)

Publication Number Publication Date
CN110134246A true CN110134246A (zh) 2019-08-16

Family

ID=67572385

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910428990.1A Pending CN110134246A (zh) 2019-05-22 2019-05-22 交互控制方法、装置及电子设备

Country Status (1)

Country Link
CN (1) CN110134246A (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103543843A (zh) * 2013-10-09 2014-01-29 中国科学院深圳先进技术研究院 基于加速度传感器的人机接口设备及人机交互方法
CN104503589A (zh) * 2015-01-05 2015-04-08 京东方科技集团股份有限公司 体感识别系统及其识别方法
CN104936065A (zh) * 2015-06-23 2015-09-23 苏州凯枫瑞电子科技有限公司 户外头戴式收音耳机
CN105705090A (zh) * 2013-10-21 2016-06-22 苹果公司 传感器和应用
US20160248901A1 (en) * 2015-02-20 2016-08-25 Fujitsu Limited Control method, information processing device, and storage medium
CN107290972A (zh) * 2017-07-05 2017-10-24 三星电子(中国)研发中心 设备控制方法和装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103543843A (zh) * 2013-10-09 2014-01-29 中国科学院深圳先进技术研究院 基于加速度传感器的人机接口设备及人机交互方法
CN105705090A (zh) * 2013-10-21 2016-06-22 苹果公司 传感器和应用
CN104503589A (zh) * 2015-01-05 2015-04-08 京东方科技集团股份有限公司 体感识别系统及其识别方法
US20160248901A1 (en) * 2015-02-20 2016-08-25 Fujitsu Limited Control method, information processing device, and storage medium
CN104936065A (zh) * 2015-06-23 2015-09-23 苏州凯枫瑞电子科技有限公司 户外头戴式收音耳机
CN107290972A (zh) * 2017-07-05 2017-10-24 三星电子(中国)研发中心 设备控制方法和装置

Similar Documents

Publication Publication Date Title
US10554807B2 (en) Mobile terminal and method of operating the same
CN104410883B (zh) 一种移动可穿戴非接触式交互系统与方法
Kern et al. A model for human interruptability: experimental evaluation and automatic estimation from wearable sensors
KR100757500B1 (ko) 서비스 로봇과 사람 사이의 동작기반 인터페이스 시스템 및방법
CN106465458A (zh) 用于提供通知的方法和设备
CN110083202A (zh) 与近眼显示器的多模交互
US20230421900A1 (en) Target User Focus Tracking Photographing Method, Electronic Device, and Storage Medium
US11188154B2 (en) Context dependent projection of holographic objects
CN112447273A (zh) 辅助健身的方法和电子装置
CN114167984B (zh) 设备控制方法、装置、存储介质及电子设备
CN109743504A (zh) 一种辅助拍照方法、移动终端和存储介质
WO2019132564A1 (en) Method and system for classifying time-series data
KR102314710B1 (ko) 청각장애인을 위한 수화 번역 서비스 시스템
CN112202962B (zh) 屏幕亮度调节方法、装置及存储介质
CN107360366A (zh) 拍照方法、装置、存储介质及电子设备
CN109756621A (zh) 一种二维码显示方法及终端设备
CN113590003A (zh) 一种用户确定方法、电子设备和计算机可读存储介质
CN106292994A (zh) 虚拟现实设备的控制方法、装置及虚拟现实设备
CN106412810A (zh) 数据传输方法及装置
Wolf et al. PickRing: seamless interaction through pick-up detection
CN110134246A (zh) 交互控制方法、装置及电子设备
CN109249386A (zh) 语音对话机器人及语音对话系统
US11227148B2 (en) Information processing apparatus, information processing method, information processing program, and information processing system
CN106534517B (zh) 运行状态调整方法、装置和电子设备
CN108958488A (zh) 一种人脸指令识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190816