CN110221688A - 可穿戴设备、鼠标的控制方法及装置 - Google Patents

可穿戴设备、鼠标的控制方法及装置 Download PDF

Info

Publication number
CN110221688A
CN110221688A CN201910370887.6A CN201910370887A CN110221688A CN 110221688 A CN110221688 A CN 110221688A CN 201910370887 A CN201910370887 A CN 201910370887A CN 110221688 A CN110221688 A CN 110221688A
Authority
CN
China
Prior art keywords
target terminal
mouse
screen
muscle activity
wearable device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910370887.6A
Other languages
English (en)
Other versions
CN110221688B (zh
Inventor
赵瑞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Advanced New Technologies Co Ltd
Advantageous New Technologies Co Ltd
Original Assignee
Alibaba Group Holding Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba Group Holding Ltd filed Critical Alibaba Group Holding Ltd
Priority to CN201910370887.6A priority Critical patent/CN110221688B/zh
Publication of CN110221688A publication Critical patent/CN110221688A/zh
Application granted granted Critical
Publication of CN110221688B publication Critical patent/CN110221688B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

本说明书实施例提供了一种可穿戴设备、鼠标的控制方法及装置,该设备包括:可穿戴设备本体,安装在可穿戴设备本体上的投影装置、图像采集装置、信号采集装置和数据传输装置;其中,上述投影装置用于向用户当前操作的目标终端的屏幕上投影虚拟鼠标影像;上述图像采集装置用于采集该目标终端的屏幕图像,并且所采集的屏幕图像中包括虚拟鼠标影像;上述信号采集装置用于采集用户脸部的肌肉活动信号;数据传输装置用于将上述屏幕图像和肌肉活动信号发送给目标终端,以使目标终端根据肌肉活动信号和屏幕图像中虚拟鼠标影像的位置控制目标终端的鼠标图标在屏幕上执行操作。

Description

可穿戴设备、鼠标的控制方法及装置
技术领域
本申请涉及可穿戴设备及终端技术领域,尤其涉及一种可穿戴设备、鼠标的控制方法及装置。
背景技术
随着社会的快速发展,台式电脑、一体机、笔记本等终端设备在人们的生活、工作等各方面都得到了广泛的应用。通常的,用户在使用终端设备时,都需要通过与终端设备相连的鼠标或者设置在终端设备上的触摸板对终端设备进行操作。但是,不管是使用鼠标还是触摸板在终端设备上执行操作时,都需要用户通过手对鼠标或者触摸板进行操控。
这样,对于长期使用终端设备的用户而言,很容易出现手部职业病痛,并且对于一些手部受伤或者手部行动不便的特殊人群也不便于对鼠标或者触摸板进行操控。因此,亟需提出一种技术方案,以解决或者缓解上述技术问题。
发明内容
本说明书实施例的目的是提供一种可穿戴设备、鼠标的控制方法及装置,可穿戴设备上安装有投影装置、图像采集装置、信号采集装置和数据传输装置,当用户穿戴上该可穿戴设备后,通过移动身体指定部位从而控制投影装置向目标终端上的不同位置投影虚拟鼠标影像,通过图像采集装置采集包含虚拟鼠标影像在内的屏幕图像,并通过数据传输装置将采集的屏幕图像发送给目标终端,以使得目标终端根据该屏幕图像确定出虚拟鼠标影像的位置;另外,用户需要在目标终端上执行不同的操作时,可以做出不同的面部动作,通过信号采集装置采集用户脸部的肌肉活动信号,通过数据传输装置传输给目标终端,从而使得目标终端根据该肌肉活动信号确定需要执行的操作,并基于虚拟鼠标影像的位置在屏幕上执行相应的操作。本说明书实施例,实现了不需要使用用户的手部就可以操控鼠标,既可以减轻长期使用终端设备用户的手部职业病痛,也方便了手部受伤或者手部行动不便的特殊人群使用终端设备。
为解决上述技术问题,本说明书实施例是这样实现的:
本说明书实施例提供了一种可穿戴设备,包括可穿戴设备本体,安装在所述可穿戴设备本体上的投影装置、图像采集装置、信号采集装置和数据传输装置;
所述投影装置,用于向用户当前操作的目标终端的屏幕上投影虚拟鼠标影像;
所述图像采集装置,用于采集所述目标终端的屏幕图像;其中,所述屏幕图像中包括所述虚拟鼠标影像;
所述信号采集装置,用于采集所述用户脸部的肌肉活动信号;
所述数据传输装置,用于将所述屏幕图像和所述肌肉活动信号发送给所述目标终端,以使所述目标终端根据所述肌肉活动信号和所述屏幕图像中虚拟鼠标影像的位置控制所述目标终端的鼠标图标在所述屏幕上执行操作。
本说明书实施例还提供了一种鼠标的控制方法,应用于可穿戴设备,所述可穿戴设备包括可穿戴设备本体,安装在所述可穿戴设备本体上的投影装置、图像采集装置、信号采集装置和数据传输装置;所述方法包括:
通过所述投影装置向用户当前操作的目标终端的屏幕上投影虚拟鼠标影像;
通过所述图像采集装置采集所述目标终端的屏幕图像,并将所述屏幕图像发送给所述数据传输装置,以及,通过所述信号采集装置采集所述用户脸部的肌肉活动信号,并将所述肌肉活动信号发送给所述数据传输装置;其中,所述屏幕图像中包括所述虚拟鼠标影像;
通过所述数据传输装置将所述屏幕图像和所述肌肉活动信号发送给所述目标终端,以使所述目标终端根据所述肌肉活动信号和所述屏幕图像中虚拟鼠标影像的位置控制所述目标终端的鼠标图标在所述屏幕上执行操作。
本说明书实施例还提供了一种鼠标的控制方法,应用于目标终端,所述方法包括:
接收可穿戴设备发送的所述目标终端的屏幕图像和用户脸部的肌肉活动信号;其中,所述屏幕图像中包括通过安装在所述可穿戴设备上的投影装置投影至所述目标终端的屏幕上的虚拟鼠标影像;
根据所述屏幕图像确定所述虚拟鼠标影像在所述屏幕上的第一位置,以及,根据所述肌肉活动信号和预先建立的识别模型确定所述用户脸部执行的动作;
根据所述用户脸部执行的动作控制所述目标终端的鼠标图标在所述第一位置处执行相应的操作。
本说明书实施例还提供了一种鼠标的控制装置,应用于目标终端,所述装置包括:
接收模块,用于接收可穿戴设备发送的所述目标终端的屏幕图像和用户脸部的肌肉活动信号;其中,所述屏幕图像中包括通过安装在所述可穿戴设备上的投影装置投影至所述目标终端的屏幕上的虚拟鼠标影像;
确定模块,用于根据所述屏幕图像确定所述虚拟鼠标影像在所述屏幕上的第一位置,以及,根据所述肌肉活动信号和预先建立的识别模型确定所述用户脸部执行的动作;
第一控制模块,用于根据所述用户脸部执行的动作控制所述目标终端的鼠标图标在所述第一位置处执行相应的操作。
本说明书实施例还提供了一种鼠标的控制设备,应用于目标终端,所述设备包括:
处理器;以及
被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器:
接收可穿戴设备发送的所述目标终端的屏幕图像和用户脸部的肌肉活动信号;其中,所述屏幕图像中包括通过安装在所述可穿戴设备上的投影装置投影至所述目标终端的屏幕上的虚拟鼠标影像;
根据所述屏幕图像确定所述虚拟鼠标影像在所述屏幕上的第一位置,以及,根据所述肌肉活动信号和预先建立的识别模型确定所述用户脸部执行的动作;
根据所述用户脸部执行的动作控制所述目标终端的鼠标图标在所述第一位置处执行相应的操作。
本说明书实施例还提供了一种存储介质,用于存储计算机可执行指令,所述可执行指令在被执行时实现以下流程:
接收可穿戴设备发送的目标终端的屏幕图像和用户脸部的肌肉活动信号;其中,所述屏幕图像中包括通过安装在所述可穿戴设备上的投影装置投影至所述目标终端的屏幕上的虚拟鼠标影像;
根据所述屏幕图像确定所述虚拟鼠标影像在所述屏幕上的第一位置,以及,根据所述肌肉活动信号和预先建立的识别模型确定所述用户脸部执行的动作;
根据所述用户脸部执行的动作控制所述目标终端的鼠标图标在所述第一位置处执行相应的操作。
本实施例中的技术方案,可穿戴设备上安装有投影装置、图像采集装置、信号采集装置和数据传输装置,当用户穿戴上该可穿戴设备后,通过移动身体指定部位从而控制投影装置向目标终端上的不同位置投影虚拟鼠标影像,通过图像采集装置采集包含虚拟鼠标影像在内的屏幕图像,并通过数据传输装置将采集的屏幕图像发送给目标终端,以使得目标终端根据该屏幕图像确定出虚拟鼠标影像的位置;另外,用户需要在目标终端上执行不同的操作时,可以做出不同的面部动作,通过信号采集装置采集用户脸部的肌肉活动信号,通过数据传输装置传输给目标终端,从而使得目标终端根据该肌肉活动信号确定需要执行的操作,并基于虚拟鼠标影像的位置在屏幕上执行相应的操作。本说明书实施例,实现了不需要使用用户的手部就可以操控鼠标,既可以减轻长期使用终端设备用户的手部职业病痛,也方便了手部受伤或者手部行动不便的特殊人群使用终端设备。
附图说明
为了更清楚地说明本说明书实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本说明书实施例提供的可穿戴设备的结构示意图之一;
图2为本说明书实施例提供的可穿戴设备的结构示意图之二;
图3为本说明书实施例提供的可穿戴设备的结构示意图之三;
图4为本说明书实施例提供的鼠标的控制方法的方法流程图之一;
图5为本说明书实施例提供的鼠标的控制方法的方法流程图之二;
图6为本说明书实施例提供的鼠标的控制方法的方法流程图之三;
图7为本说明书实施例提供的鼠标的控制装置的模块组成示意图;
图8为本说明书实施例提供的鼠标的控制设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请中的技术方案,下面将结合本说明书实施例中的附图,对本说明书实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
本说明书实施例提供了一种可穿戴设备、鼠标的控制方法、装置、设备及存储介质,实现了不需要使用用户的手部就可以操控鼠标,既可以减轻长期使用终端设备用户的手部职业病痛,也方便了手部受伤或者手部行动不便的特殊人群使用终端设备。
图1为本说明书实施例提供的可穿戴设备的结构示意图之一,图1所示的设备包括可穿戴设备本体110,安装在可穿戴设备本体110上的投影装置120、图像采集装置130、信号采集装置140和数据传输装置150;
其中,上述投影装置120,用于向用户当前操作的目标终端的屏幕上投影虚拟鼠标影像;
上述图像采集装置130,用于采集目标终端的屏幕图像;其中,上述屏幕图像中包括虚拟鼠标影像;
上述信号采集装置140,用于采集用户脸部的肌肉活动信号;
上述数据传输装置150,用于将上述屏幕图像和肌肉活动信号发送给目标终端,以使目标终端根据上述肌肉活动信号和屏幕图像中虚拟鼠标投影的位置控制目标终端的鼠标图标在屏幕上执行操作。
其中,上述目标终端可以为电脑、笔记本或者一体机等需要使用鼠标或者触摸板进行操控的终端设备。
一般的,当用户在使用目标终端时,一般头部正对着目标终端的屏幕,且头部的高度与目标终端的高度基本一致。因此,为了便于对目标终端进行操控,本说明书实施例中所提及到的可穿戴设备可以为头部可穿戴设备,即穿戴在用户的头部,例如,本说明书实施例中的可穿戴设备可以为眼镜、耳机等。这样,需要对目标终端进行操控时,用户通过执行头部相应活动就可以实现在目标终端上执行相应的操作。
在具体实施时,优选的,上述数据传输装置可以为蓝牙模块或者低功耗蓝牙模块,即可穿戴设备通过蓝牙与目标终端建立连接,从而实现可穿戴设备与目标终端之间的数据传输。
当然,上述数据传输装置除了为蓝牙之外,还可以为其他可与目标终端建立连接的通信模块,如网络模块等,本说明书实施例只是优选数据传输装置为蓝牙模块或者低功耗蓝牙模块,但是,并不局限于此,本说明书实施例并不对此进行限定。
在具体实施时,当用户需要使用目标终端时,可以将上述可穿戴设备穿戴在头部相应位置或者直接开启可穿戴设备的鼠标操控功能,然后通过头部活动调整投影装置120的投影方向,使得投影装置120可以向目标终端的屏幕上的目标位置(用户需要执行相应操作的位置)投影虚拟鼠标影像。例如,用户需要在屏幕上的A位置执行单击操作,则用户可以通过头部活动(如抬头、低头、向左转动头部、向右转动头部等)使得投影装置120将虚拟鼠标影像投影至屏幕上的A位置。
当在屏幕上的目标位置投影了虚拟鼠标影像之后,用户根据所需要执行的操作(如左单击、双击、右单击、拖动等)做出不同的面部动作,安装在可穿戴设备上的信号采集装置140采集用户脸部的肌肉活动信号,并通过图像采集装置130采集目标终端的屏幕图像,且所采集的屏幕图像中包含有虚拟鼠标影像,最后将所采集的肌肉活动信号和屏幕图像通过数据传输装置150传输给目标终端。
当目标终端接收到可穿戴设备通过数据传输装置150传输的肌肉活动信号和屏幕图像后,根据屏幕图像确定出虚拟鼠标影像在屏幕上的位置,并控制其所对应的鼠标图标移动至虚拟鼠标影像所在的位置,以使鼠标图标与虚拟鼠标影像重合,并根据用户的肌肉活动信号确定出用户所做出的脸部动作,基于预先建立的各脸部动作与对应的鼠标操作的映射关系,确定出用户需要执行的鼠标操作,并在上述虚拟鼠标影像所在的位置控制鼠标图标执行该操作,从而实现了不需要使用手部就可以对鼠标进行操控。
另外,需要说明的是,在本说明书实施例中,图像采集装置130可以按照设定频率不断采集目标终端的屏幕图像,并将所采集的所有的屏幕图像通过数据传输装置150发送给目标终端,以使得目标终端控制鼠标图标不断追踪虚拟鼠标影像的位置,当连续采集的多张屏幕图像中虚拟鼠标影像的位置不再变化时,则将当前虚拟鼠标影像的位置确定为用户需要执行操作的位置。
当然,在具体实施时,也可以在向屏幕上的目标位置投影虚拟鼠标影像后,即用户的头部不再移动时,再控制图像采集装置130采集目标终端的屏幕图像。其具体实现方式可以有多种,只要可以采集到包含位于目标位置处的虚拟鼠标影像在内的屏幕图像即可,本说明书实施例不再一一列举。
本说明书实施例提供的可穿戴设备,实现了不通过手部就可以操控鼠标在终端设备上执行操作,既可以减轻长期使用终端设备用户的手部职业病痛,也方便了手部受伤或者手部行动不便的特殊人群使用终端设备。
另外,需要说明的是,在本说明书实施例中,为了便于投影装置120能够向目标终端的屏幕上投射虚拟鼠标影像,投影装置120安装在可穿戴设备本体110上朝向目标终端一侧的第三设定区域;
其中,上述第三设定区域为可穿戴设备本体110上可使投影装置120垂直向目标终端的屏幕投影的区域。
一般的,当用户使用目标终端时,一般用户的脸部正对着目标终端的屏幕,因此,上述第三设定区域可以为可穿戴设备本体110上位于用户头部正前方的区域。
在具体实施时,上述投影装置120可以为小型激光发射器。
另外,由于目标终端的屏幕大小不一,为了便于在目标终端的屏幕较大时也可以采集到包含虚拟鼠标投影在内的屏幕图像,在本说明书实施例中,所采用的图像采集装置130至少为两个,且图像采集装置130分别安装在可穿戴设备本体110上朝向目标终端一侧的不同区域处。
由于当用户在使用目标终端时,需要将脸部朝向目标终端的屏幕,为了便于可以采集目标终端的屏幕图像,图像采集装置130需要安装在可穿戴本体110上朝向目标终端的一侧。且为了在目标终端屏幕较大时,当虚拟鼠标影像位于屏幕上的不同位置时都可以采集到包含虚拟鼠标影像在内的屏幕图像,可以在可穿戴设备本体110上朝向目标终端一侧的不同位置处安装多个图像采集装置,即图像采集装置130分散安装在可穿戴设备本体110上朝向目标终端一侧的各个区域内。
其中,上述图像采集装置130可以为摄像头。
在本说明书实施例中,当用户需要控制鼠标在目标终端上执行不同的操作时,需要做出不同的脸部动作。例如,可以做出不同的眼部动作或者不同的耳部动作等,而针对用户通过脸部不同的器官操控鼠标,上述可穿戴设备需要穿戴在用户头部的不同部位上。
在一种具体实施方式中,当用户需要通过眼部动作操控鼠标时,为了便于采集用户在做出眼部动作时所带动的脸部肌肉活动信号,上述可穿戴设备可以为眼镜。
因此,在具体实施时,若是上述可穿戴设备为眼镜;上述信号采集装置140安装在眼镜的每个镜腿内侧的第一设定区域;其中,第一设定区域为镜腿内侧可与用户眼部周围贴合的区域;
相应的,在该种情况下,上述信号采集装置140,用于采集用户眼部周围的肌肉活动信号。
具体的,用户可以通过眨眼等眼部活动操控目标终端的鼠标执行不同的操作。当用户在执行眨眼等眼部操作时,会带动用户眼部周围肌肉的活动,因此,将信号采集装置140安装在镜腿内侧可与眼部周围肌肉贴合的区域就可以采集到用户眼部周围的肌肉活动信号。
例如,在一种具体实施方式中,可以预先约定当用户眨左眼一次时,控制鼠标执行左单击操作,当用户眨右眼一次时,控制鼠标执行右单击操作,当用户连续眨两次左眼时,则控制鼠标执行双击动作,当用户的左眼、或者右眼或者双眼连续闭眼设定时长时,则控制鼠标执行拖动动作(例如,将某个内容从A位置拖动到B位置等)。
另外,需要说明的是,在一种具体实施方式中,为了便于在任何情况下都可以采集到用户眼部周围的肌肉活动信号,也可以在每个镜腿内侧都安装上信号采集装置140,这样,对于脸部大小、胖瘦不一的用户都可以采集到其眼部周围的肌肉活动信号。
其中,图2示出了本说明书实施例提供的可穿戴设备的结构示意图之二,在图2中,以可穿戴设备是眼镜为例进行说明。当然,图2只是示例性说明,并不构成对各装置的安装位置、数量的限定。
在图2所示的眼镜中,设置有两个图像采集装置130、两个信号采集装置140、一个投影装置120以及一个数据传输装置150,且图像采集装置130分别安装在左镜框的左侧边以及右镜框的右侧边,投影装置120安装在两个镜框中间区域,数据传输装置150安装在左镜框上,当然,数据传输装置150可以安装在眼镜上的任意位置,图2只是示例性说明。
为便于理解,下述将结合图2所示的眼镜,以通过左眨眼控制鼠标在目标终端上的屏幕上的A位置执行左单击操作为例介绍本说明书实施例提供的可穿戴设备的工作过程。
首先,通过数据传输装置150建立眼镜和目标终端之间的通信连接,具体的,上述信号传输装置可以为蓝牙,因此,眼镜和目标终端之间通过蓝牙建立连接。
用户不断转动头部调整投影装置120在目标终端的屏幕上的投影位置,使得投影装置120可以在目标终端的屏幕上的A位置投影虚拟鼠标影像,通过图像采集装置130采集目标终端的屏幕图像,其中,所采集的屏幕图像中包含虚拟鼠标投影,并通过数据传输装置150将采集的屏幕图像传输给目标终端。当目标终端接收到数据传输装置150发送的屏幕图像后,对该屏幕图像进行图像处理,确定出虚拟鼠标影像在屏幕上的位置,并控制鼠标图标移动至虚拟鼠标影像所在的位置,使得鼠标图标与虚拟鼠标影像重合。
用户眨左眼,并通过安装在眼镜的左镜腿内侧的信号采集装置140采集用户眨左眼时所带动的左眼周围肌肉的肌肉活动信号,并将所采集的肌肉活动信号通过数据传输装置150传输给目标终端。当目标终端接收到数据传输装置150发送的肌肉活动信号后,采用预先建立的识别模型识别出用户所做的眼部动作,若是识别出该眼部动作为左眨眼,从预先建立的眼部动作和鼠标操作的映射关系中,查找左眨眼所对应的鼠标操作(左单击操作),并控制鼠标图标在上述位置处指执行左单击操作。
另外,需要说明的是,在本说明书实施例中,上述图像采集装置130采集图像,以及信号采集装置140采集用户眼部周围的肌肉活动信号可以同步执行。
当然,在本说明书实施例中,图像采集装置130、数据传输装置150、信号采集装置140以及投影装置120等在工作时均需要耗电,因此,在上述眼镜上还需要设置有电源模块,该电源模块可以为电池,用于给上述各装置提供电源。
当然,本说明书实施例提供的可穿戴设备除了可以为眼镜,通过用户的眼睛动作操作鼠标在目标终端上执行相应的操作之外,有的用户的耳朵也可以活动,因此,上述可穿戴设备还可以为耳罩式耳机,以通过用户耳朵执行不同的动作操作鼠标在目标终端上执行相应的操作。
因此,在一种具体实施方式中,上述可穿戴设备为耳罩式耳机;在该种情况下,上述信号采集装置140安装在耳罩式耳机的每个耳罩内侧的第二设定区域;其中,上述第二设定区域为耳罩内侧可与用户的耳朵轮廓贴合的区域;
上述信号采集装置140,用于采集用户的耳朵轮廓的肌肉活动信号。
具体的,用户可以通过动耳朵操控目标终端的鼠标执行不同的操作。当用户动耳朵时,会带动用户耳朵轮廓的活动,因此,将信号采集装置140安装在耳罩内侧可与耳朵轮廓贴合的区域就可以采集到用户耳朵轮廓的肌肉活动信号。
例如,在一种具体实施方式中,可以预先约定当用户动左耳朵一次时,控制鼠标执行左单击操作,当用户动右耳朵一次时,控制鼠标执行右单击操作,当用户连续动左耳朵两次时,控制鼠标执行双击操作,当用户连续动右耳朵两次时,控制鼠标执行拖动操作。
另外,需要说明的是,在一种具体实施方式中,为了便于在任何情况下都可以采集到用户耳朵轮廓的肌肉活动信号,也可以在每个耳罩内侧都布满信号采集装置140,这样,对于耳朵大小不一的用户都可以采集到其耳朵轮廓的肌肉活动信号。
其中,图3示出了本说明书实施例提供的可穿戴设备的结构示意图之三,在图3中,则是以可穿戴设备是耳罩式耳机为例进行说明的。当然,图3只是示例性说明,并不构成对各装置的安装位置、数量的限定。
在图3所示的耳罩式耳机中,设置有两个图像采集装置130、两个信号采集装置140、一个投影装置120以及一个数据传输装置150,且图像采集装置130分别安装在左耳罩上朝向目标终端的一侧以及右耳罩上朝向目标终端的一侧,投影装置120安装在两个耳罩的连接区域的中间部分且朝向目标终端的一侧,数据传输装置150可以安装在耳机上的任意位置处,图3中以安装在两个耳罩的连接区域上为例进行说明。
为便于理解,下述将结合图2所示的耳罩式耳机,以通过连续动右耳朵两次控制鼠标将屏幕上A位置的内拖动至屏幕上B位置为例介绍本说明书实施例提供的可穿戴设备的工作过程。
首先,通过数据传输装置150建立耳罩式耳机和目标终端之间的通信连接,具体的,上述信号传输装置可以为蓝牙,因此,耳罩式耳机和目标终端之间通过蓝牙建立连接。
用户通过不断转动头部调整投影装置120在目标终端的屏幕上的投影位置,使得投影装置120可以在目标终端的屏幕上的A位置投影鼠标影像,通过图像采集装置130采集目标终端的屏幕图像,其中,所采集的屏幕图像中包含虚拟鼠标影像,并通过数据传输装置150将采集的屏幕图像发送给目标终端。当目标终端接收到数据传输装置150发送的屏幕图像后,对该屏幕图像进行图像处理,确定出虚拟鼠标影像在屏幕上的位置,并控制鼠标图标移动至虚拟鼠标影像所在的位置,使得鼠标图标与虚拟鼠标影像重合。
用户连续动右耳朵两次,并通过安装在耳机的右耳罩内侧的信号采集装置140采集用户动右耳朵时右耳朵轮廓的肌肉活动信号,并将采集的肌肉活动信号通过数据传输装置150传输给目标终端。当目标终端接收到数据传输装置150发送的肌肉活动信号后,采用预先建立的识别模型识别出用户所做的耳部动作,若是识别出该耳部动作为连续动右耳朵两次,从预先建立的耳部动作和鼠标操作的映射关系中,查找连续动右耳朵两次所对应的鼠标操作(拖动操作),并控制鼠标图标拖动住上述位置处(A位置处)的内容。
用户继续转动头部控制投影装置120在目标终端屏幕上的B位置投影鼠标影像,通过图像采集装置130采集包含投影鼠标影像在内的屏幕图像,并将采集的屏幕图像通过数据传输装置150传输给目标终端。当目标终端接收到数据传输装置150发送的屏幕图像时,基于所采集到的屏幕图像先确定出虚拟鼠标影像所处的A位置,然后再确定虚拟鼠标影像所处的B位置,控制鼠标图标拖动A位置处的内容移动至虚拟鼠标影像所在的位置,即B位置,从而完成拖动操作。
具体的,在确定上述A位置和B位置时,可以通过判断连续几张屏幕图像中虚拟鼠标影像的位置是否发生变化来确定上述A位置和B位置。
另外,需要说明的是,在本说明书实施例中,上述信号采集装置140可以为肌肉活动探测器。上述图像采集装置130可以为摄像头。
在具体实施时,为了便于目标终端可以根据肌肉活动信号确定出用户所执行的脸部动作,可以预先训练识别模型,并将该识别模型安装在需要使用上述可穿戴设备操作鼠标的终端设备上。在用户首次使用可穿戴设备操控鼠标时,可以基于该用户的脸部动作特点(如果是眼镜,则为该用户的眼部动作特点,如果是耳罩式耳机,则为该用户动耳朵的特点),对该识别模型进行调整,以便可以更准确的基于该用户的脸部肌肉活动信号识别出该用户所做的脸部动作。
需要说明的是,在预先训练上述识别模型时,可以基于大量的用户在做出不同脸部动作时的肌肉活动信号进行上述识别模型的训练,其中,所使用的样本用户可以是不同年龄、不同性别、不同肤色的用户等。
其中,上述识别模型可以为现有技术中所存在的分类模型,具体的,可以为长短记忆网络(Long Short-Term Memory,LSTM)模型。
本说明书实施例提供的可穿戴设备,在其上安装有投影装置、图像采集装置、信号采集装置和数据传输装置,当用户穿戴上该可穿戴设备后,通过移动身体指定部位从而控制投影装置向目标终端上的不同位置投影虚拟鼠标影像,通过图像采集装置采集包含虚拟鼠标影像在内的屏幕图像,并通过数据传输装置将采集的屏幕图像发送给目标终端,以使得目标终端根据该屏幕图像确定出虚拟鼠标影像的位置;另外,用户需要在目标终端上执行不同的操作时,可以做出不同的面部动作,通过信号采集装置采集用户脸部的肌肉活动信号,通过数据传输装置传输给目标终端,从而使得目标终端根据该肌肉活动信号确定需要执行的操作,并基于虚拟鼠标影像的位置在屏幕上执行相应的操作。本说明书实施例,实现了不需要使用用户的手部就可以操控鼠标,既可以减轻长期使用终端设备用户的手部职业病痛,也方便了手部受伤或者手部行动不便的特殊人群使用终端设备。
对应于本说明书实施例图1-图3所示实施例提供的可穿戴设备,基于相同的思路,本说明书实施例还提供了一种鼠标的控制方法,应用于图1-图3所示实施例中的可穿戴设备,该可穿戴设备包括可穿戴设备本体,安装在可穿戴设备本体上的投影装置、图像采集装置、信号采集装置和数据传输装置;图4为本说明书实施例提供的鼠标的控制方法的方法流程图之一,图4所示的方法至少包括如下步骤:
步骤402,通过投影装置向用户当前操作的目标终端的屏幕上投影虚拟鼠标影像;
步骤404,通过图像采集装置采集目标终端的屏幕图像,并将所采集的屏幕图像发送给数据传输装置,以及,通过信号采集装置采集用户脸部的肌肉活动信号,并将采集的肌肉活动信号发送给数据传输装置;其中,上述屏幕图像中包括虚拟鼠标影像;
步骤406,通过数据传输装置将上述屏幕图像和肌肉活动信号发送给目标终端,以使目标终端根据上述肌肉活动信号和屏幕图像中虚拟鼠标影像的位置控制目标终端的鼠标图标在屏幕上执行操作。
其中,上述投影装置可以为小型激光发射器,上述图像采集装置可以为摄像头,上述信号采集装置可以为肌肉活动探测器,上述数据传输装置可以为蓝牙或者低功耗蓝牙。
需要说明的是,本说明书实施例中所提及到的上述可穿戴设备可以为眼镜、耳罩式耳机等,以通过用户眼部动作或者耳部动作操作目标终端的鼠标。当然,除此之外,上述可穿戴设备还可以为其他穿戴在头部的设备,本说明书实施例并不对此进行限定。
在本说明书实施例中,当目标终端接收到数据传输装置传输的屏幕图像和肌肉活动信号后,根据该屏幕图像确定出虚拟鼠标影像在屏幕上的位置,并控制鼠标图标移动到该位置处;以及,基于上述肌肉活动信号确定出用户所执行的脸部动作,并基于该脸部动作确定出用户需要操作鼠标执行的操作,从而控制鼠标图标在上述位置处执行相应的操作。
其中,本说明书实施例中上述各个步骤的具体实现过程可参考图1-图3所对应的可穿戴设备实施例,此处不再赘述。
本说明书实施例提供的鼠标的控制方法,当用户穿戴上可穿戴设备后,通过移动身体指定部位从而控制投影装置向目标终端上的不同位置投影虚拟鼠标影像,通过图像采集装置采集包含虚拟鼠标影像在内的屏幕图像,并通过数据传输装置将采集的屏幕图像发送给目标终端,以使得目标终端根据该屏幕图像确定出虚拟鼠标影像的位置;另外,用户需要在目标终端上执行不同的操作时,可以做出不同的面部动作,通过信号采集装置采集用户脸部的肌肉活动信号,通过数据传输装置传输给目标终端,从而使得目标终端根据该肌肉活动信号确定需要执行的操作,并基于虚拟鼠标影像的位置在屏幕上执行相应的操作。本说明书实施例,实现了不需要使用用户的手部就可以操控鼠标,既可以减轻长期使用终端设备用户的手部职业病痛,也方便了手部受伤或者手部行动不便的特殊人群使用终端设备。
对应于本说明书实施例图1-图3所示实施例提供的可穿戴设备,基于相同的思路,本说明书实施例还提供了一种鼠标的控制方法,应用于目标终端,及本说明实施例所提供方法的执行主体为目标终端,具体的,为安装在目标终端上的鼠标的控制装置,图5为本说明书实施例提供的鼠标的控制方法的方法流程图之二,图5所示的方法至少包括如下步骤:
步骤502,接收可穿戴设备发送的目标终端的屏幕图像和用户脸部的肌肉活动信号;其中,上述屏幕图像中包括通过安装在可穿戴设备上的投影装置投影至目标终端的屏幕上的虚拟鼠标影像;
步骤504,根据上述屏幕图像确定虚拟鼠标影像在屏幕上的第一位置,以及,根据上述肌肉活动信号和预先建立的识别模型确定用户脸部执行的动作;
步骤506,根据用户脸部执行的动作控制目标终端的鼠标图标在第一位置处执行相应的操作。
在具体实施时,根据用户脸部执行的动作控制目标终端的鼠标图标在第一位置处执行相应的操作之前,本说明书实施例提供的方法还包括:
控制目标终端的鼠标图标移动至上述第一位置处。
需要说明的是,在本说明书实施例中,通过投影装置在当前正在操作的目标终端的屏幕上进行投影的目的则是使得目标终端的鼠标图标不断追踪虚拟鼠标影像的位置,从而可以控制鼠标图标在用户需要的位置执行相应的操作。
可选的,在本说明书实施例中,上述肌肉活动信号包括眼部周围的肌肉活动信号;
相应的,上述步骤504中,根据上述肌肉活动信号和预先建立的识别模型确定用户脸部执行的动作,具体包括:
根据眼部周围的肌肉活动信号和上述识别模型确定用户执行的眼部动作;其中,上述眼部动作包括眨眼动作或者闭眼动作。
可选的,在本说明书实施例中,上述根据用户脸部执行的动作控制目标终端的鼠标图标在第一位置处执行相应的操作,具体包括:
若上述脸部动作为眨眼动作,则控制上述鼠标图标在上述第一位置执行点击操作;
若上述脸部动作为闭眼动作且上述闭眼时长达到设定时长,则控制上述鼠标图标将上述第一位置处的内容拖拽至上述屏幕上的第二位置处;其中,上述第二位置根据上述虚拟鼠标影像当前在上述屏幕上的位置所确定。
为便于理解本说明书实施例提供的方法,下述将以上述可穿戴设备是眼镜为例,介绍可穿戴设备和目标终端之间的交互方法,图6为本说明书实施例提供的鼠标的控制方法的方法流程图之三,图6所示的方法至少包括如下步骤:
步骤602,通过安装在眼镜上的投影装置向目标终端的屏幕上的指定位置投影虚拟鼠标影像。
步骤604,通过安装在眼镜上的图像采集装置采集目标终端的屏幕图像,以及,通过安装在眼镜上的信号采集装置采集用户眼部周围的肌肉活动信号,其中,上述屏幕图像中包括虚拟鼠标影像。
步骤606,通过安装在眼镜上数据传输装置将上述屏幕图像和眼部周围的肌肉活动信号发送给目标终端。
步骤608,目标终端接收上述屏幕图像和眼部周围的肌肉活动信号。
步骤610,目标终端根据上述屏幕图像确定虚拟鼠标影像在屏幕上的指定位置,以及,根据上述眼部周围的肌肉活动信号和预先建立的识别模型确定用户眼部执行的动作。
步骤612,目标终端控制鼠标图标移动至上述指定位置处。
步骤614,目标终端确定用户眼部执行的动作所对应的鼠标操作,并控制鼠标图标在上述执行位置处执行相应的操作。
其中,本说明书实施例中各个步骤的具体实现方式可参考图1-图3所对应实施例的介绍,此处不再赘述。
本说明书实施例提供的鼠标的控制方法,根据可穿戴设备采集的用户脸部的肌肉活动信号确定需要执行的操作,并基于可穿戴设备在目标终端的屏幕上所投射的虚拟鼠标影像的位置在屏幕上执行相应的操作。本说明书实施例,实现了不需要使用用户的手部就可以操控鼠标,既可以减轻长期使用终端设备用户的手部职业病痛,也方便了手部受伤或者手部行动不便的特殊人群使用终端设备。
对应于本说明书实施例图5所示实施例提供的鼠标的控制方法,基于相应的思路,本说明书实施例还提供了一种鼠标的控制装置,应用于目标终端,用于执行图5所示实施例所提供的鼠标的控制方法,图7为本说明书实施例提供的鼠标的控制装置的模块组成示意图,图7所示的装置,至少包括:
接收模块702,用于接收可穿戴设备发送的目标终端的屏幕图像和用户脸部的肌肉活动信号;其中,屏幕图像中包括通过安装在可穿戴设备上的投影装置投影至目标终端的屏幕上的虚拟鼠标影像;
确定模块704,用于根据屏幕图像确定虚拟鼠标影像在屏幕上的第一位置,以及,根据肌肉活动信号和预先建立的识别模型确定用户脸部执行的动作;
第一控制模块706,用于根据用户脸部执行的动作控制目标终端的鼠标图标在第一位置处执行相应的操作。
可选的,本说明书实施例提供的装置,还包括:
第二控制模块,用于控制目标终端的鼠标图标移动至第一位置处。
可选的,上述肌肉活动信号包括眼部周围的肌肉活动信号;
相应的,上述确定模块704,包括:
确定单元,用于根据眼部周围的肌肉活动信号和识别模型确定用户执行的眼部动作;其中,眼部动作包括眨眼动作或者闭眼动作。
可选的,上述第一控制模块706,包括:
第一控制单元,用于若脸部动作为眨眼动作,则控制鼠标图标在第一位置执行点击操作;
第二控制单元,用于若脸部动作为闭眼动作且闭眼时长达到设定时长,则控制鼠标图标将第一位置处的内容拖拽至屏幕上的第二位置处;其中,第二位置根据虚拟鼠标影像当前在屏幕上的位置所确定。
本说明书实施例的鼠标的控制装置还可执行图5中鼠标的控制装置执行的方法,并实现鼠标的控制装置在图5所示实施例的功能,在此不再赘述。
本说明书实施例提供的鼠标的控制装置,根据可穿戴设备采集的用户脸部的肌肉活动信号确定需要执行的操作,并基于可穿戴设备在目标终端的屏幕上所投射的虚拟鼠标影像的位置在屏幕上执行相应的操作。本说明书实施例,实现了不需要使用用户的手部就可以操控鼠标,既可以减轻长期使用终端设备用户的手部职业病痛,也方便了手部受伤或者手部行动不便的特殊人群使用终端设备。
进一步地,基于上述图5所示的方法,本说明书实施例还提供了一种鼠标的控制设备,如图8所示。
鼠标的控制设备可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上的处理器801和存储器802,存储器802中可以存储有一个或一个以上存储应用程序或数据。其中,存储器802可以是短暂存储或持久存储。存储在存储器802的应用程序可以包括一个或一个以上模块(图示未示出),每个模块可以包括对鼠标的控制设备中的一系列计算机可执行指令信息。更进一步地,处理器801可以设置为与存储器802通信,在鼠标的控制设备上执行存储器802中的一系列计算机可执行指令信息。鼠标的控制设备还可以包括一个或一个以上电源803,一个或一个以上有线或无线网络接口804,一个或一个以上输入输出接口805,一个或一个以上键盘806等。
在一个具体的实施例中,鼠标的控制设备包括有存储器,以及一个或一个以上的程序,其中一个或者一个以上程序存储于存储器中,且一个或者一个以上程序可以包括一个或一个以上模块,且每个模块可以包括对鼠标的控制设备中的一系列计算机可执行指令信息,且经配置以由一个或者一个以上处理器执行该一个或者一个以上程序包含用于进行以下计算机可执行指令信息:
接收可穿戴设备发送的目标终端的屏幕图像和用户脸部的肌肉活动信号;其中,屏幕图像中包括通过安装在可穿戴设备上的投影装置投影至目标终端的屏幕上的虚拟鼠标影像;
根据屏幕图像确定虚拟鼠标影像在屏幕上的第一位置,以及,根据肌肉活动信号和预先建立的识别模型确定用户脸部执行的动作;
根据用户脸部执行的动作控制目标终端的鼠标图标在第一位置处执行相应的操作。
可选的,计算机可执行指令信息在被执行时,根据用户脸部执行的动作控制目标终端的鼠标图标在第一位置处执行相应的操作之前,还可执行如下步骤:
控制目标终端的鼠标图标移动至第一位置处。
可选的,计算机可执行指令信息在被执行时,肌肉活动信号包括眼部周围的肌肉活动信号;
相应的,根据肌肉活动信号和预先建立的识别模型确定用户脸部执行的动作,包括:
根据眼部周围的肌肉活动信号和识别模型确定用户执行的眼部动作;其中,眼部动作包括眨眼动作或者闭眼动作。
可选的,计算机可执行指令信息在被执行时,根据用户脸部执行的动作控制目标终端的鼠标图标在第一位置处执行相应的操作,包括:
若脸部动作为眨眼动作,则控制鼠标图标在第一位置执行点击操作;
若脸部动作为闭眼动作且闭眼时长达到设定时长,则控制鼠标图标将第一位置处的内容拖拽至屏幕上的第二位置处;其中,第二位置根据虚拟鼠标影像当前在屏幕上的位置所确定。
本说明书实施例提供的鼠标的控制设备,根据可穿戴设备采集的用户脸部的肌肉活动信号确定需要执行的操作,并基于可穿戴设备在目标终端的屏幕上所投射的虚拟鼠标影像的位置在屏幕上执行相应的操作。本说明书实施例,实现了不需要使用用户的手部就可以操控鼠标,既可以减轻长期使用终端设备用户的手部职业病痛,也方便了手部受伤或者手部行动不便的特殊人群使用终端设备。
进一步地,基于上述图5所示的方法,本说明书实施例还提供了一种存储介质,用于存储计算机可执行指令信息,一种具体的实施例中,该存储介质可以为U盘、光盘、硬盘等,该存储介质存储的计算机可执行指令信息在被处理器执行时,能实现以下流程:
接收可穿戴设备发送的目标终端的屏幕图像和用户脸部的肌肉活动信号;其中,屏幕图像中包括通过安装在可穿戴设备上的投影装置投影至目标终端的屏幕上的虚拟鼠标影像;
根据屏幕图像确定虚拟鼠标影像在屏幕上的第一位置,以及,根据肌肉活动信号和预先建立的识别模型确定用户脸部执行的动作;
根据用户脸部执行的动作控制目标终端的鼠标图标在第一位置处执行相应的操作。
可选的,该存储介质存储的计算机可执行指令信息在被处理器执行时,根据用户脸部执行的动作控制目标终端的鼠标图标在第一位置处执行相应的操作之前,还可执行如下步骤:
控制目标终端的鼠标图标移动至第一位置处。
可选的,该存储介质存储的计算机可执行指令信息在被处理器执行时,肌肉活动信号包括眼部周围的肌肉活动信号;
相应的,根据肌肉活动信号和预先建立的识别模型确定用户脸部执行的动作,包括:
根据眼部周围的肌肉活动信号和识别模型确定用户执行的眼部动作;其中,眼部动作包括眨眼动作或者闭眼动作。
可选的,该存储介质存储的计算机可执行指令信息在被处理器执行时,根据用户脸部执行的动作控制目标终端的鼠标图标在第一位置处执行相应的操作,包括:
若脸部动作为眨眼动作,则控制鼠标图标在第一位置执行点击操作;
若脸部动作为闭眼动作且闭眼时长达到设定时长,则控制鼠标图标将第一位置处的内容拖拽至屏幕上的第二位置处;其中,第二位置根据虚拟鼠标影像当前在屏幕上的位置所确定。
本说明书实施例提供的存储介质存储的计算机可执行指令信息在被处理器执行时,根据可穿戴设备采集的用户脸部的肌肉活动信号确定需要执行的操作,并基于可穿戴设备在目标终端的屏幕上所投射的虚拟鼠标影像的位置在屏幕上执行相应的操作。本说明书实施例,实现了不需要使用用户的手部就可以操控鼠标,既可以减轻长期使用终端设备用户的手部职业病痛,也方便了手部受伤或者手部行动不便的特殊人群使用终端设备。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本申请时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令信息实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令信息到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令信息产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令信息也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令信息产生包括指令信息装置的制造品,该指令信息装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令信息也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令信息提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令信息、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本申请的实施例可提供为方法、系统或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请可以在由计算机执行的计算机可执行指令信息的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。

Claims (16)

1.一种可穿戴设备,包括可穿戴设备本体,安装在所述可穿戴设备本体上的投影装置、图像采集装置、信号采集装置和数据传输装置;
所述投影装置,用于向用户当前操作的目标终端的屏幕上投影虚拟鼠标影像;
所述图像采集装置,用于采集所述目标终端的屏幕图像;其中,所述屏幕图像中包括所述虚拟鼠标影像;
所述信号采集装置,用于采集所述用户脸部的肌肉活动信号;
所述数据传输装置,用于将所述屏幕图像和所述肌肉活动信号发送给所述目标终端,以使所述目标终端根据所述肌肉活动信号和所述屏幕图像中虚拟鼠标影像的位置控制所述目标终端的鼠标图标在所述屏幕上执行操作。
2.如权利要求1所述的设备,所述可穿戴设备为眼镜;所述信号采集装置安装在所述眼镜的每个镜腿内侧的第一设定区域;其中,所述第一设定区域为所述镜腿内侧可与所述用户眼部周围肌肉贴合的区域;
所述信号采集装置,用于采集所述用户眼部周围的肌肉活动信号。
3.如权利要求1所述的设备,所述可穿戴设备为耳罩式耳机;所述信号采集装置安装在所述耳罩式耳机的每个耳罩内侧的第二设定区域;其中,所述第二设定区域为所述耳罩内侧可与所述用户的耳朵轮廓贴合的区域;
所述信号采集装置,用于采集所述用户的耳朵轮廓的肌肉活动信号。
4.如权利要求2或3所述的设备,所述信号采集装置为肌肉活动探测器。
5.如权利要求1所述的设备,所述投影装置安装在所述可穿戴设备本体上朝向所述目标终端一侧的第三设定区域;
其中,所述第三设定区域为所述可穿戴设备本体上可使所述投影装置垂直向所述目标终端的屏幕投影的区域。
6.如权利要求1所述的设备,所述图像采集装置至少为两个,且所述图像采集装置分别安装在所述可穿戴设备本体上朝向所述目标终端一侧的不同区域处。
7.如权利要求1所述的设备,所述数据传输装置为蓝牙模块或者低功耗蓝牙模块。
8.一种鼠标的控制方法,应用于可穿戴设备,所述可穿戴设备包括可穿戴设备本体,安装在所述可穿戴设备本体上的投影装置、图像采集装置、信号采集装置和数据传输装置;所述方法包括:
通过所述投影装置向用户当前操作的目标终端的屏幕上投影虚拟鼠标影像;
通过所述图像采集装置采集所述目标终端的屏幕图像,并将所述屏幕图像发送给所述数据传输装置,以及,通过所述信号采集装置采集所述用户脸部的肌肉活动信号,并将所述肌肉活动信号发送给所述数据传输装置;其中,所述屏幕图像中包括所述虚拟鼠标影像;
通过所述数据传输装置将所述屏幕图像和所述肌肉活动信号发送给所述目标终端,以使所述目标终端根据所述肌肉活动信号和所述屏幕图像中虚拟鼠标影像的位置控制所述目标终端的鼠标图标在所述屏幕上执行操作。
9.一种鼠标的控制方法,应用于目标终端,所述方法包括:
接收可穿戴设备发送的所述目标终端的屏幕图像和用户脸部的肌肉活动信号;其中,所述屏幕图像中包括通过安装在所述可穿戴设备上的投影装置投影至所述目标终端的屏幕上的虚拟鼠标影像;
根据所述屏幕图像确定所述虚拟鼠标影像在所述屏幕上的第一位置,以及,根据所述肌肉活动信号和预先建立的识别模型确定所述用户脸部执行的动作;
根据所述用户脸部执行的动作控制所述目标终端的鼠标图标在所述第一位置处执行相应的操作。
10.如权利要求9所述的方法,所述根据所述用户脸部执行的动作控制所述目标终端的鼠标图标在所述第一位置处执行相应的操作之前,所述方法还包括:
控制所述目标终端的鼠标图标移动至所述第一位置处。
11.如权利要求9所述的方法,所述肌肉活动信号包括眼部周围的肌肉活动信号;
相应的,所述根据所述肌肉活动信号和预先建立的识别模型确定所述用户脸部执行的动作,包括:
根据所述眼部周围的肌肉活动信号和所述识别模型确定所述用户执行的眼部动作;其中,所述眼部动作包括眨眼动作或者闭眼动作。
12.如权利要求9-11任一项所述的方法,所述根据所述用户脸部执行的动作控制所述目标终端的鼠标图标在所述第一位置处执行相应的操作,包括:
若所述脸部动作为眨眼动作,则控制所述鼠标图标在所述第一位置执行点击操作;
若所述脸部动作为闭眼动作且所述闭眼时长达到设定时长,则控制所述鼠标图标将所述第一位置处的内容拖拽至所述屏幕上的第二位置处;其中,所述第二位置根据所述虚拟鼠标影像当前在所述屏幕上的位置所确定。
13.一种鼠标的控制装置,应用于目标终端,所述装置包括:
接收模块,用于接收可穿戴设备发送的所述目标终端的屏幕图像和用户脸部的肌肉活动信号;其中,所述屏幕图像中包括通过安装在所述可穿戴设备上的投影装置投影至所述目标终端的屏幕上的虚拟鼠标影像;
确定模块,用于根据所述屏幕图像确定所述虚拟鼠标影像在所述屏幕上的第一位置,以及,根据所述肌肉活动信号和预先建立的识别模型确定所述用户脸部执行的动作;
第一控制模块,用于根据所述用户脸部执行的动作控制所述目标终端的鼠标图标在所述第一位置处执行相应的操作。
14.如权利要求13所述的装置,所述装置还包括:
第二控制模块,用于控制所述目标终端的鼠标图标移动至所述第一位置处。
15.一种鼠标的控制设备,应用于目标终端,所述设备包括:
处理器;以及
被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器:
接收可穿戴设备发送的所述目标终端的屏幕图像和用户脸部的肌肉活动信号;其中,所述屏幕图像中包括通过安装在所述可穿戴设备上的投影装置投影至所述目标终端的屏幕上的虚拟鼠标影像;
根据所述屏幕图像确定所述虚拟鼠标影像在所述屏幕上的第一位置,以及,根据所述肌肉活动信号和预先建立的识别模型确定所述用户脸部执行的动作;
根据所述用户脸部执行的动作控制所述目标终端的鼠标图标在所述第一位置处执行相应的操作。
16.一种存储介质,用于存储计算机可执行指令,所述可执行指令在被执行时实现以下流程:
接收可穿戴设备发送的目标终端的屏幕图像和用户脸部的肌肉活动信号;其中,所述屏幕图像中包括通过安装在所述可穿戴设备上的投影装置投影至所述目标终端的屏幕上的虚拟鼠标影像;
根据所述屏幕图像确定所述虚拟鼠标影像在所述屏幕上的第一位置,以及,根据所述肌肉活动信号和预先建立的识别模型确定所述用户脸部执行的动作;
根据所述用户脸部执行的动作控制所述目标终端的鼠标图标在所述第一位置处执行相应的操作。
CN201910370887.6A 2019-05-06 2019-05-06 可穿戴设备、鼠标的控制方法及装置 Active CN110221688B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910370887.6A CN110221688B (zh) 2019-05-06 2019-05-06 可穿戴设备、鼠标的控制方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910370887.6A CN110221688B (zh) 2019-05-06 2019-05-06 可穿戴设备、鼠标的控制方法及装置

Publications (2)

Publication Number Publication Date
CN110221688A true CN110221688A (zh) 2019-09-10
CN110221688B CN110221688B (zh) 2022-04-26

Family

ID=67820479

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910370887.6A Active CN110221688B (zh) 2019-05-06 2019-05-06 可穿戴设备、鼠标的控制方法及装置

Country Status (1)

Country Link
CN (1) CN110221688B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112987580A (zh) * 2019-12-12 2021-06-18 华为技术有限公司 一种设备的控制方法、装置、服务器以及存储介质
CN116069168A (zh) * 2023-03-06 2023-05-05 浙江强脑科技有限公司 一种基于面部肌肉运动的输入方法及相关装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6690357B1 (en) * 1998-10-07 2004-02-10 Intel Corporation Input device using scanning sensors
CN103576906A (zh) * 2012-07-27 2014-02-12 深圳富泰宏精密工业有限公司 鼠标图标控制方法及系统
CN105807915A (zh) * 2016-02-24 2016-07-27 北京小鸟看看科技有限公司 虚拟鼠标的控制方法、控制装置以及头戴显示设备
CN106569607A (zh) * 2016-11-08 2017-04-19 上海交通大学 一种基于肌电及运动传感器的头部动作识别系统
CN107250949A (zh) * 2015-02-11 2017-10-13 谷歌公司 基于用户环境中的有生命对象推荐计算机化服务的方法、系统和介质
CN107315479A (zh) * 2017-07-06 2017-11-03 哈尔滨工业大学 基于激光投影的肌电实时操作装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6690357B1 (en) * 1998-10-07 2004-02-10 Intel Corporation Input device using scanning sensors
CN103576906A (zh) * 2012-07-27 2014-02-12 深圳富泰宏精密工业有限公司 鼠标图标控制方法及系统
CN107250949A (zh) * 2015-02-11 2017-10-13 谷歌公司 基于用户环境中的有生命对象推荐计算机化服务的方法、系统和介质
CN105807915A (zh) * 2016-02-24 2016-07-27 北京小鸟看看科技有限公司 虚拟鼠标的控制方法、控制装置以及头戴显示设备
CN106569607A (zh) * 2016-11-08 2017-04-19 上海交通大学 一种基于肌电及运动传感器的头部动作识别系统
CN107315479A (zh) * 2017-07-06 2017-11-03 哈尔滨工业大学 基于激光投影的肌电实时操作装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112987580A (zh) * 2019-12-12 2021-06-18 华为技术有限公司 一种设备的控制方法、装置、服务器以及存储介质
CN116069168A (zh) * 2023-03-06 2023-05-05 浙江强脑科技有限公司 一种基于面部肌肉运动的输入方法及相关装置
CN116069168B (zh) * 2023-03-06 2023-08-29 浙江强脑科技有限公司 一种基于面部肌肉运动的输入方法及相关装置

Also Published As

Publication number Publication date
CN110221688B (zh) 2022-04-26

Similar Documents

Publication Publication Date Title
US11475650B2 (en) Environmentally adaptive extended reality display system
CN113535306B (zh) 头像创建用户界面
US11861061B2 (en) Virtual sharing of physical notebook
US20220229534A1 (en) Coordinating cursor movement between a physical surface and a virtual surface
US20170351330A1 (en) Communicating Information Via A Computer-Implemented Agent
CN108700995A (zh) 电子设备和用于切换和对齐其应用的方法
CN104951070A (zh) 一种基于眼睛操控设备的方法及装置
CN110199503A (zh) 消息生成方法及用于支持该方法的可穿戴的电子设备
WO2022170223A1 (en) User interactions in extended reality
CN110604579A (zh) 一种数据采集方法、装置、终端及存储介质
CN110221688A (zh) 可穿戴设备、鼠标的控制方法及装置
US20220236801A1 (en) Method, computer program and head-mounted device for triggering an action, method and computer program for a computing device and computing device
CN110147742A (zh) 一种关键点定位方法、装置及终端
CN110046020B (zh) 电子设备、计算机可读存储介质及电子设备处执行的方法
CN112114653A (zh) 终端设备的操控方法、装置、设备及存储介质
Umair et al. Experiencing discomfort: designing for affect from first-person perspective
AU2020100675A4 (en) Avatar creation user interface
Mott Incorporating AR into a Multimodal UI for an Artificial Pancreas: The interdisciplinary nature of integrating augmented reality (AR), sound, and touch into a user interface (UI) for diabetes patients with embedded control systems for an artificial pancreas (AP)
WO2023043646A1 (en) Providing directional awareness indicators based on context
CN117590934A (zh) 一种使用多阶段手势来激活用户界面交互的方法及系统
CN112702351A (zh) 虚拟终端式智慧眼镜系统
JP2024508691A (ja) 三次元環境におけるアバターの提示のためのインタフェース

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20200924

Address after: Cayman Enterprise Centre, 27 Hospital Road, George Town, Grand Cayman, British Islands

Applicant after: Innovative advanced technology Co.,Ltd.

Address before: Cayman Enterprise Centre, 27 Hospital Road, George Town, Grand Cayman, British Islands

Applicant before: Advanced innovation technology Co.,Ltd.

Effective date of registration: 20200924

Address after: Cayman Enterprise Centre, 27 Hospital Road, George Town, Grand Cayman, British Islands

Applicant after: Advanced innovation technology Co.,Ltd.

Address before: A four-storey 847 mailbox in Grand Cayman Capital Building, British Cayman Islands

Applicant before: Alibaba Group Holding Ltd.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant