CN107329574A - 用于电子设备的输入方法和系统 - Google Patents
用于电子设备的输入方法和系统 Download PDFInfo
- Publication number
- CN107329574A CN107329574A CN201710531717.2A CN201710531717A CN107329574A CN 107329574 A CN107329574 A CN 107329574A CN 201710531717 A CN201710531717 A CN 201710531717A CN 107329574 A CN107329574 A CN 107329574A
- Authority
- CN
- China
- Prior art keywords
- tendon
- input
- movable information
- electronic equipment
- current
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本公开提供了一种用于电子设备的输入方法,包括:获取用户肢体的当前肌腱运动信息;以及根据所述当前肌腱运动信息确定对所述电子设备的至少一个输入操作。本公开还提供了一种用于电子设备的输入系统、一种输入设备、以及一种电子设备。
Description
技术领域
本公开涉及一种用于电子设备的输入方法和一种用户电子设备的输入系统。
背景技术
随着电子技术的飞速发展,各种各样的电子设备越来越广泛地应用于生产、工作、和日常生活等诸多场景。目前,电子设备的便携程度,以及使用时的舒适程度成为吸引客户的重要考量标准。
然而,在实现本发明构思的过程中,发明人发现现有的电子产品的输入设备至少存在如下问题,即,体积较大,占用过多的空间,并且操作时的位置受限,用户需要配合输入设备的摆放位置调整身体姿势,用户体验感较低。
发明内容
本公开的一个方面提供了一种用于电子设备的输入方法,包括:获取用户肢体的当前肌腱运动信息,以及根据所述当前肌腱运动信息确定对所述电子设备的至少一个输入操作。
可选地,上述根据当前肌腱运动信息确定至少一个输入操作包括:根据一个或多个输入操作与相应肌腱运动信息之间的对应关系,确定与所述当前肌腱运动信息相对应的所述至少一个输入操作,以及/或者根据一个或多个手势动作与相应肌腱运动信息之间的对应关系确定与所述当前肌腱运动信息相对应的至少一个手势动作,根据所述至少一个手势动作确定所述至少一个输入操作。
可选地,上述肢体包括手和/或脚。
可选地,上述根据所述当前肌腱运动信息确定对所述电子设备的至少一个输入操作,包括:根据所述当前肌腱运动信息确定对所述电子设备的输入方式。
可选地,上述根据所述当前肌腱运动信息确定对所述电子设备的输入方式,包括:根据食指和中指前伸且无名指和小指弯曲时的肌腱运动信息,确定当前对所述电子设备的输入方式是鼠标输入方式。
可选地,上述根据所述当前肌腱运动信息确定对所述电子设备的至少一个输入操作,包括:根据所述电子设备正在前台运行的应用程序和所述当前肌腱运动信息确定所述至少一个输入操作。
本公开的另一个方面提供了一种用于电子设备的输入系统,包括:至少一个存储器,存储可执行指令,以及至少一个处理器,所述至少一个处理器执行所述可执行指令,以实现如上所述的方法。
本公开的另一个方面提供了一种输入设备,包括:如上所述的输入系统,以及至少一个感应单元,用于感应用户肢体的当前肌腱运动信息,以及/或者信号发送器,用于将表示所述至少一个输入操作的信息发送至所述电子设备。
本公开的另一个方面提供了一种电子设备,包括如上所述的输入系统。
可选地,上述电子设备还包括触控键盘,其中:所述至少一个处理器根据用户对触控键盘的敲击操作和相应的肌腱运动信息,构建输入操作和或手势动作与相应肌腱运动信息之间的对应关系,并且/或者所述触控键盘具有能够根据开关控制指令而显现或消隐的按键图案。
本公开的另一方面提供了一种非易失性存储介质,存储有计算机可执行指令,所述指令在被执行时用于实现如上所述的方法。
本公开的另一方面提供了一种计算机程序,所述计算机程序包括计算机可执行指令,所述指令在被执行时用于实现如上所述的方法。
附图说明
为了更完整地理解本公开及其优势,现在将参考结合附图的以下描述,其中:
图1示意性示出了根据本公开的实施例的可以应用本公开的输入方法或输入系统的应用场景;
图2示意性示出了根据本公开的实施例的用于电子设备的输入方法的流程图;
图3a示意性示出了根据本公开实施例的手势动作示意图;
图3b示意性示出了根据本公开另一实施例的手势动作示意图;
图4示意性示出了根据本公开的实施例的用户电子设备的输入系统的框图;
图5示意性示出了根据本公开的实施例的输入设备的框图;以及
图6示意性示出了根据本公开实施例的电子设备的框图。
具体实施方式
以下,将参照附图来描述本公开的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本公开的范围。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本公开的概念。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。这里使用的词语“一”、“一个(种)”和“该”等也应包括“多个”、“多种”的意思,除非上下文另外明确指出。此外,在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
附图中示出了一些方框图和/或流程图。应理解,方框图和/或流程图中的一些方框或其组合可以由计算机程序指令来实现。这些计算机程序指令可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器,从而这些指令在由该处理器执行时可以创建用于实现这些方框图和/或流程图中所说明的功能/操作的装置。
因此,本公开的技术可以硬件和/或软件(包括固件、微代码等)的形式来实现。另外,本公开的技术可以采取存储有指令的计算机可读介质上的计算机程序产品的形式,该计算机程序产品可供指令执行系统使用或者结合指令执行系统使用。在本公开的上下文中,计算机可读介质可以是能够包含、存储、传送、传播或传输指令的任意介质。例如,计算机可读介质可以包括但不限于电、磁、光、电磁、红外或半导体系统、装置、器件或传播介质。计算机可读介质的具体示例包括:磁存储装置,如磁带或硬盘(HDD);光存储装置,如光盘(CD-ROM);存储器,如随机存取存储器(RAM)或闪存;和/或有线/无线通信链路。
本公开的实施例提供了一种用于电子设备的输入方法和能够应用该方法的输入系统、输入设备以及电子设备。该方法包括:获取用户肢体的当前肌腱运动信息,以及根据当前肌腱运动信息确定对电子设备的至少一个输入操作,以此实现对电子设备的输入。
图1示意性示出了根据本公开的实施例的可以应用本公开的输入方法或输入系统的应用场景100。
如图1所示,应用场景100可以包括输入设备101、连接102和电子设备103。输入设备101可以应用本公开的输入方法或输入系统。连接102可以包括各种连接类型,例如有线、无线连接或者光纤电缆连接等等。
用户可以使用输入设备101通过连接102对电子设备103进行输入操作。输入操作例如可以包括:键盘输入、鼠标输入、写字板输入、和/或自定义手势动作输入等等。输入设备101例如可以是穿戴式输入设备等等。
电子设备103例如可以包括但不限于智能手机、平板电脑、便携计算机、台式计算机、AR眼镜、VR眼镜和投影设备等等。电子设备103上可以装有各种应用,例如Office办公软件、网页浏览应用、视频播放应用、即时通信工具、社交平台软件等(仅为示例)。用户可以使用输入设备101,通过连接102对电子设备103上装有的各种应用进行输入操作。
根据本公开实施例,用户通常使用鼠标和/或键盘作为输入设备,而在使用上述常用的输入设备时,用户进行某种输入操作的习惯手势相对固定。例如,当用户想要通过键盘输入字符“a”时,通常会习惯使用左手小指敲击键盘,此时,用户的左手就会产生一种相应的肌腱运动。又例如,当用户想要通过鼠标确定某种操作时,通常会习惯使用右手食指单击鼠标的左键,此时,用户的右手就会产生一种相应的肌腱运动。即,用户的肌腱运动信息可以用来表征用户想要进行的输入操作。
本公开实施例的输入设备101可以用于感应用户的肌腱运动信息,然后,通过连接102,根据用户的肌腱运动信息即可以对电子设备103、进行输入操作。
应该理解,图1中的输入设备、网络、和电子设备的数目仅仅是示意性的。根据实现需要,可以具有任意数目的输入设备、网络和电子设备。
图2示意性示出了根据本公开的实施例的用于电子设备的输入方法的流程图。
如图2所示,该方法包括操作S210~S220。
在操作S210,获取用户肢体的当前肌腱运动信息。其中,用户肢体可以包括用户的手和/或脚。
例如,如果用户通常通过手部动作对键盘和/或鼠标等输入设备进行操作,例如,用手指敲击键盘以进行文字输入,则可以获取用户手部肌腱运动信息。
又例如,如果用户通常通过脚部动作对键盘鼠标等输入设备进行操作,例如,用脚趾移动并操作鼠标,则可以获取用户脚部肌腱运动信息。
可以理解,本公开不限于上述举例中的获取方式,可以根据用户的需求、选择或者设定,获取用户的手部肌腱运动信息、或者脚部肌腱运动信息、或者同时获取用户的手部以及脚部肌腱运动信息。
根据本公开实施例,获取用户肢体的当前肌腱运动信息,可以是根据用户请求开始获取,也可以是实时获取,还可以是根据预定条件触发获取(例如,有输入设备连接到电子设备时,触发获取用户肢体的当前肌腱运动信息)。
根据本公开实施例,获取用户肢体的当前肌腱运动信息,可以是通过传感器获得用户的当前肌腱运动信息。其中,当用户肢体为手时,传感器可以位于用户手指、手背、手腕中的一处或者几处。当用户肢体为脚时,传感器可以位于用户脚趾、脚背、脚腕中的一处或者几处。
在操作S220,根据当前肌腱运动信息确定对电子设备的至少一个输入操作。
根据本公开实施例,根据当前肌腱运动信息确定至少一个输入操作可以包括:根据一个或多个输入操作与相应肌腱运动信息之间的对应关系,确定与当前肌腱运动信息相对应的至少一个输入操作。
在本公开实施例中,可以预先规定或者记录一个或多个输入操作与相应的肌腱运动信息间的对应关系。而后,在获取到用户的当前肌腱运动信息后,根据预先记录的一个或多个输入操作与相应的肌腱运动信息间的对应关系,确定当前肌腱运动信息对应的输入操作。
例如,预先记录用户在使用键盘输入时,敲击每个按键产生的相应肌腱运动信息,建立每个按键与该按键相应的肌腱运动之间的对应关系。
例如,通过键盘输入字符“f”时,记录用户左手食指敲击键盘时产生的肌腱运动信息。而后,在获取到用户左手食指敲击键盘相对应的肌腱运动信息时,则可根据该肌腱运动信息对电子设备输入字符“f”。
根据本公开实施例,根据当前肌腱运动信息确定至少一个输入操作还可以包括:根据一个或多个手势动作与相应肌腱运动信息之间的对应关系确定与所述当前肌腱运动信息相对应的至少一个手势动作,根据所述至少一个手势动作确定所述至少一个输入操作。
在本公开实施例中,可以预先记录一个或多个手势动作与相应肌腱运动信息之间的对应关系,并且预先规定每个手势与输入操作之间的对应关系。而后,在获取到用户的当前肌腱运动信息后,根据预先记录的一个或多个手势动作与相应肌腱运动信息之间的对应关系,确定该肌腱运动信息对应的手势动作,并且,根据预先规定的每个手势与输入操作之间的对应关系,确定该手势动作对应的输入操作。
例如,预先记录用户在输入时每个手势动作产生的相应的肌腱运动信息,建立每个手势动作与该手势动作对应的肌腱运动信息之间的对应关系。并且,预先记录每个手势动作对应的输入操作。
例如,规定如图3a所示的手势动作(食指自然伸直,拇指、中指、无名指和小指自然弯曲)对应输入数字“1”的输入操作。则在获取到用户出现食指自然伸直,拇指、中指、无名指和小指自然弯曲对应的肌腱运动信息时,确定用户当前手势如图3a所示,并且根据该手势对电子设备输入数字“1”。
又例如,规定如图3b所示的手势动作(双手五指自然弯曲)对应输入字符“&”的输入操作。则在获取到用户出现双手五指自然弯曲对应的肌腱运动信息时,确定用户当前手势如图3b所示,并且根据该手势对电子设备输入字符“&”。
可以理解,上述的“一个或多个输入操作与相应的肌腱运动信息间的对应关系”以及“每个手势与输入操作之间的对应关系”可以根据用户习惯,用户自己定义以及记录,也可以制造商进行定义或者记录其中的一部分,用户学习得知。本公开对于上述对应关系的建立、记录、或者规定不做限定。
根据本公开实施例,根据当前肌腱运动信息确定对电子设备的至少一个输入操作还可以包括:根据当前肌腱运动信息确定对电子设备的输入方式。
其中,输入方式可以包括:键盘输入方式,鼠标输入方式,写字板输入方式,自定义手势输入方式等。
在本公开实施例中,根据当前肌腱运动信息确定对电子设备的输入方式,在该输入方式下,确定该肌腱运动信息与对应的输入操作。
例如,可以根据食指和中指前伸且无名指和小指弯曲时的肌腱运动信息,确定当前对电子设备的输入方式是鼠标输入方式。在该输入方式下,可以根据用户食指单击时产生的肌腱运动信息确定对电子设备的相当于单击鼠标左键的输入操作。
又例如,可以根据五指自然前伸(例如,使用键盘时的手势)时的肌腱运动信息,确定当前对电子设备的输入方式是键盘输入方式。在该种模式下,可以根据用户左手小指敲击时产生的肌腱运动信息确定对电子设备输入字符“a”的输入操作。
再例如,可以根据用户自定义的手势动作产生的肌腱运动信息,确定当前对电子设备的输入方式是自定义手势输入方式。在该输入方式下,例如,可以根据食指自然伸直,拇指、中指、无名指和小指自然弯曲时产生的肌腱运动信息确定对电子设备输入数字“1”,还可以根据双手五指自然弯曲时产生的肌腱运动信息确定对电子设备输入字符“&”。
根据本公开实施例,根据当前肌腱运动信息确定对电子设备的至少一个输入操作还可以包括:根据所述电子设备正在前台运行的应用程序和所述当前肌腱运动信息确定所述至少一个输入操作。
在本公开实施例中,可以先确定电子设备当前正在运行的应用程序,然后,在根据当前的应用程序,确定当前肌腱运动信息对应的输入操作。即,在不同的应用程序下,肌腱运动信息与相应的输入操作的对应关系可能不同。
例如,当前正在运行的应用程序为视频播放应用,则在该应用下,用户出现食指前伸,其余四指自然弯曲,且食指向右移动时对应的肌腱运动信息,则该肌腱运动信息可以对应向后拖动视频播放进度条的输入操作。
如果,当前正在运行的应用程序为Word应用,则在该应用下,用户出现食指前伸,其余四指自然弯曲,且食指向右移动时对应的肌腱运动信息,则该肌腱运动信息可以对应选中一段字符的输入操作。
根据本公开实施例,在不同的应用程序下,可以使用相同的肌腱运动信息实现不同的输入操作。这样,用户可以通过记忆少量的肌腱运动信息便可以对应更多的输入操作。
根据本公开实施例,通过获取用户肌腱运动信息,并根据该肌腱运动信息确定对电子设备的输入操作,可以代替现有的鼠标、键盘等输入设备。这样可以减少电子设备的重量,并且对于笔记本电脑而言,还可以使其变得更加轻薄,携带时更加方便。
并且,现有的键盘、鼠标位置相对固定,用户需要配合键盘以及鼠标的位置调整身体姿态。而通过本公开实施例的输入方法,则可以在任何身体姿态下实现对电子设备的输入。例如,用户在倚靠沙发后背时,可以通过双手在腿上敲击实现对电子设备的输入操作,大大提升用户体验感。
根据本公开实施例,用户还可以对自己常用的输入操作进行自定义手势,当用户需要某些操作时,可以通过自定义的手势实现输入操作,提高输入效率,提升用户体验感。
图4示意性示出了根据本公开的实施例的用户电子设备的输入系统400的框图。
如图4所示,输入系统400包括存储器410和处理器420。该输入系统400可以执行上面参考图2~图3b描述的方法,以实现对电子设备的输入操作。
存储器410,用户存储可执行指令。
处理器420,用户执行所述可执行指令,以实现获取用户肢体的当前肌腱运动信息,以及根据该当前肌腱运动信息确定对电子设备的至少一个输入操作的方法。其中,所述肢体包括手和/或脚。
根据本公开实施例,处理器420在执行可执行指令时,还可以用于实现根据一个或多个输入操作与相应肌腱运动信息之间的对应关系,确定与该当前肌腱运动信息相对应的至少一个输入操作,以及/或者根据一个或多个手势动作与相应肌腱运动信息之间的对应关系确定与该当前肌腱运动信息相对应的至少一个手势动作,根据该至少一个手势动作确定至少一个输入操作的方法。
根据本公开实施例,处理器420在执行可执行指令时,还可以用于实现根据当前肌腱运动信息确定对电子设备的输入方式的方法。
根据本公开实施例,处理器420在执行可执行指令时,还可以用于实现根据食指和中指前伸且无名指和小指弯曲时的肌腱运动信息,确定当前对电子设备的输入方式是鼠标输入方式的方法。
根据本公开实施例,处理器420在执行可执行指令时,还可以用于实现根据电子设备正在前台运行的应用程序和当前肌腱运动信息确定至少一个输入操作的方法。
具体地,处理器420例如可以包括通用微处理器、指令集处理器和/或相关芯片组和/或专用微处理器(例如,专用集成电路(ASIC)),等等。处理器420还可以包括用于缓存用途的板载存储器。处理器420可以是用于执行参考图2~图3b描述的根据本公开实施例的方法流程的不同动作的单一处理单元或者是多个处理单元。
存储器410,例如可以是能够包含、存储、传送、传播或传输指令的任意介质。例如,存储器410可以包括但不限于电、磁、光、电磁、红外或半导体系统、装置、器件或传播介质。存储器410的具体示例包括:磁存储装置,如磁带或硬盘(HDD);光存储装置,如光盘(CD-ROM);存储器,如随机存取存储器(RAM)或闪存;和/或有线/无线通信链路。
存储器410可以包括计算机程序,该计算机程序可以包括代码/计算机可执行指令,其在由处理器420执行时使得处理器420执行例如上面结合图2~图3b所描述的方法流程及其任何变形。
上述计算机程序可被配置为具有例如包括计算机程序模块的计算机程序代码。例如,计算机程序中的代码可以包括一个或多个程序模块。应当注意,模块的划分方式和个数并不是固定的,本领域技术人员可以根据实际情况使用合适的程序模块或程序模块组合,当这些程序模块组合被处理器420执行时,使得处理器420可以执行例如上面结合图2~图3b所描述的方法流程及其任何变形。
图5示意性示出了根据本公开的实施例的输入设备500的框图。
如图5所示,输入设备500包括输入系统400、感应单元510以及信号发送器520。
输入系统400,例如可以是上述参考图4描述的输入系统,以实现参考图2~图3b描述的方法,在此不再赘述。
感应单元510,可以是一个或者多个感应单元,用于感应用户肢体的当前肌腱运动信息。
根据本公开实施例,感应单元510例如可以包括一个或多个传感器。感应单元510可以位于用户手指、手背、手腕、脚趾、脚背、脚腕中的任意一处或几处。
信号发送器520,用于将表示至少一个输入操作的信息发送至电子设备。
根据本公开实施例,感应单元510感应用户肢体的当前肌腱运动信息。输入系统400获取该肌腱运动信息,并且通过参考图2~图3b描述的任一方法,确定该肌腱运动信息对应的输入操作。信号发送器520将该输入操作发送至电子设备,以实现对电子设备的输入。
在本公开实施例中,输入设备500例如可以是可穿戴式输入设备,例如可以制成手套、手环、护腕等。
根据本公开实施例,输入系统400置于输入设备中,则感应得到的肌腱运动信息可以通过输入设备中的处理器进行处理,得到输入操作。输入设备可以直接将相应的输入操作发送给电子设备,使得电子设备直接响应该输入操作。电子设备可以直接响应输入操作,不需再对该输入操作进行处理,减少电子设备处理器的工作负担。
图6示意性示出了根据本公开的实施例的电子设备600的框图。
如图6所示,电子设备600包括输入系统400以及触控键盘610。
输入系统400,例如可以是上述参考图4描述的输入系统,以实现参考图2~图3b描述的任一方法,在此不再赘述。
根据本公开实施例,电子设备600通过输入系统400获取外部感应单元感应到的用户肢体的当前肌腱运动信息,并且通过参考图2~图3b描述的任一方法,确定该肌腱运动信息对应的输入操作,响应该输入操作,以实现对电子设备600的输入。
根据本公开实施例,电子设备600中的至少一个处理器可以根据用户对触控键盘610的敲击操作和相应的肌腱运动信息,构建输入操作和/或手势动作与相应肌腱运动信息之间的对应关系。例如,可以参见上述参考图2中步骤S220描述的方法构建输入操作和/或手势动作与相应肌腱运动信息之间的对应关系。
触控键盘610还可以具有能够根据开关控制指令而显现或消隐的按键图案。
根据本公开实施例,触控键盘610在显示按键图案时,可以帮助用户录入敲击每个按键时的肌腱运动信息,并且建立每个按键与相应肌腱运动信息之间的对应关系。并且,在用户忘记某个按键对应的手势动作或者肌腱运动信息时,也可以提示用户。
根据本公开实施例,输入系统400置于电子设备600中,则感应得到的肌腱运动信息可以通过电子设备中的处理器进行处理。外部感应单元只需将感应得到的肌腱运动信息传输至电子设备即可。减少了处理器的数量,且外部感应单元不需要对感应得到的肌腱运动信息进行处理,可以节省电能。
本领域技术人员可以理解,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合或/或结合,即使这样的组合或结合没有明确记载于本公开中。特别地,在不脱离本公开精神和教导的情况下,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合。所有这些组合和/或结合均落入本公开的范围。
尽管已经参照本公开的特定示例性实施例示出并描述了本公开,但是本领域技术人员应该理解,在不背离所附权利要求及其等同物限定的本公开的精神和范围的情况下,可以对本公开进行形式和细节上的多种改变。因此,本公开的范围不应该限于上述实施例,而是应该不仅由所附权利要求来进行确定,还由所附权利要求的等同物来进行限定。
Claims (10)
1.一种用于电子设备的输入方法,包括:
获取用户肢体的当前肌腱运动信息;以及
根据所述当前肌腱运动信息确定对所述电子设备的至少一个输入操作。
2.根据权利要求1所述的方法,其中,所述根据所述当前肌腱运动信息确定至少一个输入操作包括:
根据一个或多个输入操作与相应肌腱运动信息之间的对应关系,确定与所述当前肌腱运动信息相对应的所述至少一个输入操作;以及/或者
根据一个或多个手势动作与相应肌腱运动信息之间的对应关系确定与所述当前肌腱运动信息相对应的至少一个手势动作,根据所述至少一个手势动作确定所述至少一个输入操作。
3.根据权利要求1所述的方法,其中:
所述肢体包括手和/或脚。
4.根据权利要求1所述的方法,其中,所述根据所述当前肌腱运动信息确定对所述电子设备的至少一个输入操作,包括:
根据所述当前肌腱运动信息确定对所述电子设备的输入方式。
5.根据权利要求4所述的方法,其中,根据所述当前肌腱运动信息确定对所述电子设备的输入方式,包括:
根据食指和中指前伸且无名指和小指弯曲时的肌腱运动信息,确定当前对所述电子设备的输入方式是鼠标输入方式。
6.根据权利要求1所述的方法,其中,所述根据所述当前肌腱运动信息确定对所述电子设备的至少一个输入操作,包括:
根据所述电子设备正在前台运行的应用程序和所述当前肌腱运动信息确定所述至少一个输入操作。
7.一种用于电子设备的输入系统,包括:
至少一个存储器,存储可执行指令;以及
至少一个处理器,所述至少一个处理器执行所述可执行指令,以执行根据权利要求1~6中任一项所述的方法。
8.一种输入设备,包括:
根据权利要求7所述的输入系统;以及
至少一个感应单元,用于感应用户肢体的当前肌腱运动信息,以及/或者信号发送器,用于将表示所述至少一个输入操作的信息发送至所述电子设备。
9.一种电子设备,包括根据权利要求7所述的输入系统。
10.根据权利要求9所述的电子设备,还包括触控键盘,其中:
所述至少一个处理器根据用户对触控键盘的敲击操作和相应的肌腱运动信息,构建输入操作和/或手势动作与相应肌腱运动信息之间的对应关系;并且/或者
所述触控键盘具有能够根据开关控制指令而显现或消隐的按键图案。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710531717.2A CN107329574A (zh) | 2017-06-30 | 2017-06-30 | 用于电子设备的输入方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710531717.2A CN107329574A (zh) | 2017-06-30 | 2017-06-30 | 用于电子设备的输入方法和系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107329574A true CN107329574A (zh) | 2017-11-07 |
Family
ID=60198068
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710531717.2A Pending CN107329574A (zh) | 2017-06-30 | 2017-06-30 | 用于电子设备的输入方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107329574A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108227924A (zh) * | 2018-01-02 | 2018-06-29 | 联想(北京)有限公司 | 用于电子设备的方法及电子设备 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005352739A (ja) * | 2004-06-10 | 2005-12-22 | Nec Corp | 携帯端末装置、入力システム、情報入力方法 |
WO2009044967A1 (en) * | 2007-10-04 | 2009-04-09 | Ga-Ram Park | Bracelet keyboard and key-in method therby |
CN101996031A (zh) * | 2009-08-25 | 2011-03-30 | 鸿富锦精密工业(深圳)有限公司 | 具有触摸输入功能的电子装置及其触摸输入方法 |
CN103581428A (zh) * | 2012-07-27 | 2014-02-12 | Lg电子株式会社 | 终端及其控制方法 |
CN103793057A (zh) * | 2014-01-26 | 2014-05-14 | 华为终端有限公司 | 信息处理方法、装置及设备 |
CN104969148A (zh) * | 2013-03-14 | 2015-10-07 | 英特尔公司 | 基于深度的用户界面手势控制 |
CN105022471A (zh) * | 2014-04-23 | 2015-11-04 | 王建勤 | 基于压力传感器阵列进行手势识别的装置与方法 |
CN105117026A (zh) * | 2014-09-29 | 2015-12-02 | 北京至感传感器技术研究院有限公司 | 带有自检功能的手势识别装置及手势识别装置的自检方法 |
CN204965329U (zh) * | 2014-09-30 | 2016-01-13 | 苹果公司 | 便携式电子设备和运动和手势探测系统 |
CN105302452A (zh) * | 2014-07-22 | 2016-02-03 | 腾讯科技(深圳)有限公司 | 一种基于手势交互的操作方法及装置 |
CN106462239A (zh) * | 2014-05-23 | 2017-02-22 | 微软技术许可有限责任公司 | 手指追踪 |
-
2017
- 2017-06-30 CN CN201710531717.2A patent/CN107329574A/zh active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005352739A (ja) * | 2004-06-10 | 2005-12-22 | Nec Corp | 携帯端末装置、入力システム、情報入力方法 |
WO2009044967A1 (en) * | 2007-10-04 | 2009-04-09 | Ga-Ram Park | Bracelet keyboard and key-in method therby |
CN101996031A (zh) * | 2009-08-25 | 2011-03-30 | 鸿富锦精密工业(深圳)有限公司 | 具有触摸输入功能的电子装置及其触摸输入方法 |
CN103581428A (zh) * | 2012-07-27 | 2014-02-12 | Lg电子株式会社 | 终端及其控制方法 |
CN104969148A (zh) * | 2013-03-14 | 2015-10-07 | 英特尔公司 | 基于深度的用户界面手势控制 |
CN103793057A (zh) * | 2014-01-26 | 2014-05-14 | 华为终端有限公司 | 信息处理方法、装置及设备 |
CN105022471A (zh) * | 2014-04-23 | 2015-11-04 | 王建勤 | 基于压力传感器阵列进行手势识别的装置与方法 |
CN106462239A (zh) * | 2014-05-23 | 2017-02-22 | 微软技术许可有限责任公司 | 手指追踪 |
CN105302452A (zh) * | 2014-07-22 | 2016-02-03 | 腾讯科技(深圳)有限公司 | 一种基于手势交互的操作方法及装置 |
CN105117026A (zh) * | 2014-09-29 | 2015-12-02 | 北京至感传感器技术研究院有限公司 | 带有自检功能的手势识别装置及手势识别装置的自检方法 |
CN204965329U (zh) * | 2014-09-30 | 2016-01-13 | 苹果公司 | 便携式电子设备和运动和手势探测系统 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108227924A (zh) * | 2018-01-02 | 2018-06-29 | 联想(北京)有限公司 | 用于电子设备的方法及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6804586B2 (ja) | 着用式電子デバイスでのgui転移 | |
Dube et al. | Text entry in virtual reality: A comprehensive review of the literature | |
CN106233240B (zh) | 交互式显示器上的文本输入 | |
Kılıboz et al. | A hand gesture recognition technique for human–computer interaction | |
US10593346B2 (en) | Rank-reduced token representation for automatic speech recognition | |
KR102170321B1 (ko) | 파지된 물체를 이용한 모션을 인식하는 장치 및 방법, 시스템 | |
US20150293592A1 (en) | Haptic information management method and electronic device supporting the same | |
Weir et al. | A user-specific machine learning approach for improving touch accuracy on mobile devices | |
KR20140064693A (ko) | 디바이스의 움직임을 포함하는, 착용식 전자 디바이스로의 사용자 제스처 입력 | |
KR20140064694A (ko) | 착용식 전자 디바이스에 대한, 그 디바이스의 외향 센서를 포함하는 사용자 제스처 입력 | |
KR20140064690A (ko) | 착용식 전자 디바이스를 위한 전이 및 상호작용 모델 | |
KR20140064688A (ko) | 착용식 전자 디바이스 상에 광학 센서의 배치 | |
Yoon et al. | Lightful user interaction on smart wearables | |
WO2022156213A1 (zh) | 基于手势的显示界面控制方法、装置、设备及存储介质 | |
CN104346074A (zh) | 一种终端 | |
CN107358953A (zh) | 语音控制方法、移动终端及存储介质 | |
CN109634439B (zh) | 智能文本输入方法 | |
Kuester et al. | Towards keyboard independent touch typing in VR | |
CN104360800A (zh) | 一种解锁模式调整方法 | |
Belkacem et al. | TEXTile: Eyes-free text input on smart glasses using touch enabled textile on the forearm | |
CN107329574A (zh) | 用于电子设备的输入方法和系统 | |
US20240028129A1 (en) | Systems for detecting in-air and surface gestures available for use in an artificial-reality environment using sensors at a wrist-wearable device, and methods of use thereof | |
US20240019938A1 (en) | Systems for detecting gestures performed within activation-threshold distances of artificial-reality objects to cause operations at physical electronic devices, and methods of use thereof | |
CN109426342A (zh) | 基于增强现实的文档阅读方法和装置 | |
Lepouras | Comparing methods for numerical input in immersive virtual environments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20171107 |
|
RJ01 | Rejection of invention patent application after publication |